This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.21
1
0.16
1
0.11
1
0.09
1
0.11
2
0.16
2
0.12
16
0.23
4
0.15
9
0.18
7
0.19
12
0.42
24
0.14
5
0.12
3
0.34
1
0.42
2
0.32
1
0.25
3
0.30
1
0.18
1
0.29
1
0.32
6
0.11
2
0.15
9
0.20
1
0.20
1
0.23
1
0.19
2
Pointernettwo views0.24
2
0.21
4
0.14
2
0.14
7
0.12
3
0.19
11
0.16
25
0.28
8
0.10
1
0.17
6
0.14
8
0.23
3
0.14
5
0.12
3
0.47
4
0.42
2
0.37
5
0.23
1
0.35
2
0.19
2
0.35
4
0.25
3
0.14
4
0.14
8
0.23
2
0.21
4
0.67
21
0.22
5
AIO-test1two views0.25
3
0.19
2
0.14
2
0.12
5
0.14
8
0.18
8
0.15
23
0.33
12
0.16
11
0.25
11
0.24
19
0.35
13
0.14
5
0.19
17
0.56
9
0.59
9
0.35
2
0.30
7
0.35
2
0.27
9
0.33
2
0.31
5
0.13
3
0.13
2
0.23
2
0.23
5
0.31
2
0.18
1
CoSvtwo views0.26
4
0.38
16
0.20
11
0.18
11
0.14
8
0.35
40
0.09
7
0.38
18
0.16
11
0.20
8
0.08
3
0.28
6
0.14
5
0.09
1
0.47
4
0.59
9
0.42
11
0.23
1
0.39
8
0.19
2
0.40
8
0.23
2
0.10
1
0.13
2
0.40
20
0.25
8
0.36
4
0.24
8
MM-Stereo_test3two views0.27
5
0.36
14
0.14
2
0.25
16
0.15
11
0.15
1
0.08
4
0.48
24
0.18
20
0.25
11
0.10
4
0.41
23
0.12
2
0.11
2
0.36
2
0.40
1
0.42
11
0.26
4
0.37
7
0.25
7
0.33
2
0.25
3
0.24
18
0.12
1
0.29
6
0.20
1
0.77
31
0.23
6
MM-Stereo_test1two views0.29
6
0.69
46
0.15
5
0.23
15
0.14
8
0.16
2
0.07
3
0.37
17
0.14
4
0.27
15
0.11
6
0.43
25
0.11
1
0.12
3
0.45
3
0.48
5
0.45
18
0.32
8
0.42
10
0.27
9
0.35
4
0.35
8
0.23
17
0.13
2
0.31
8
0.23
5
0.63
20
0.24
8
RSMtwo views0.30
7
0.30
10
0.22
15
0.32
31
0.15
11
0.21
14
0.10
10
0.17
1
0.16
11
0.14
1
0.26
22
0.22
2
0.19
18
0.14
6
0.64
11
0.60
11
0.39
7
0.37
14
0.35
2
0.33
17
0.46
12
0.54
19
0.19
12
0.16
11
0.30
7
0.26
11
0.58
14
0.24
8
MoCha-V2two views0.30
7
0.31
11
0.23
18
0.21
12
0.17
16
0.17
7
0.14
21
0.23
4
0.11
2
0.26
14
0.28
26
0.32
10
0.16
11
0.19
17
0.62
10
0.61
13
0.39
7
0.38
16
0.35
2
0.42
31
0.61
24
0.51
17
0.15
5
0.16
11
0.35
12
0.26
11
0.34
3
0.19
2
ProNettwo views0.30
7
0.27
7
0.31
26
0.26
17
0.15
11
0.27
22
0.27
58
0.38
18
0.13
3
0.15
3
0.49
56
0.29
7
0.13
3
0.16
11
0.73
14
0.49
6
0.43
13
0.32
8
0.35
2
0.27
9
0.38
6
0.22
1
0.38
40
0.22
24
0.32
9
0.20
1
0.38
5
0.27
14
AIO-Stereopermissivetwo views0.31
10
0.33
12
0.22
15
0.35
35
0.16
14
0.20
13
0.10
10
0.17
1
0.14
4
0.14
1
0.20
15
0.21
1
0.16
11
0.14
6
0.55
8
0.55
7
0.41
9
0.39
19
1.18
62
0.36
20
0.39
7
0.43
13
0.17
8
0.16
11
0.32
9
0.24
7
0.61
17
0.19
2
GREAT-IGEVtwo views0.32
11
0.37
15
0.21
13
0.15
8
0.12
3
0.16
2
0.09
7
0.30
10
0.16
11
0.33
19
0.18
10
0.44
26
0.19
18
0.20
22
0.74
15
0.61
13
0.45
18
0.29
6
0.42
10
0.28
13
0.43
10
0.52
18
0.21
14
0.17
16
0.27
4
0.25
8
0.88
34
0.23
6
RSM++two views0.33
12
0.33
12
0.23
18
0.36
40
0.20
18
0.24
19
0.10
10
0.21
3
0.16
11
0.16
4
0.26
22
0.26
4
0.19
18
0.16
11
0.83
18
0.65
16
0.41
9
0.38
16
0.50
17
0.39
24
0.50
14
0.59
24
0.25
21
0.16
11
0.41
22
0.26
11
0.54
11
0.30
20
CroCo-Stereo Lap2two views0.33
12
0.22
5
0.15
5
0.11
2
0.12
3
0.16
2
0.08
4
0.35
15
0.15
9
0.47
31
0.10
4
0.31
9
0.14
5
0.14
6
1.26
29
1.00
45
0.36
4
0.36
13
0.44
14
0.20
4
0.53
19
0.55
20
0.17
8
0.13
2
0.39
19
0.35
28
0.40
6
0.27
14
StereoVisiontwo views0.34
14
0.27
7
0.21
13
0.13
6
0.18
17
0.21
14
0.14
21
0.30
10
0.23
24
0.35
21
0.18
10
0.34
12
0.17
15
0.16
11
0.98
19
0.78
26
0.44
15
0.35
11
0.43
13
0.23
6
0.40
8
0.48
14
0.16
6
0.21
23
0.40
20
0.40
32
0.71
24
0.37
26
MM-Stereo_test2two views0.35
15
0.78
87
0.22
15
0.30
26
0.21
21
0.18
8
0.11
13
0.33
12
0.16
11
0.36
22
0.15
9
0.39
19
0.15
10
0.17
15
0.69
12
0.66
17
0.43
13
0.39
19
0.41
9
0.37
21
0.50
14
0.85
44
0.24
18
0.16
11
0.35
12
0.25
8
0.54
11
0.25
12
CroCo-Stereocopylefttwo views0.35
15
0.20
3
0.15
5
0.11
2
0.10
1
0.18
8
0.06
1
0.33
12
0.14
4
0.31
18
0.05
1
0.36
15
0.13
3
0.15
9
1.64
42
1.05
52
0.35
2
0.37
14
0.45
15
0.20
4
0.62
26
0.79
38
0.16
6
0.13
2
0.38
16
0.31
19
0.45
7
0.26
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.35
15
0.22
5
0.19
9
0.27
19
0.13
6
0.30
28
0.08
4
0.97
92
0.18
20
0.92
124
0.19
12
0.27
5
0.16
11
0.18
16
0.51
6
0.47
4
0.38
6
0.26
4
0.54
20
0.25
7
0.43
10
0.34
7
0.19
12
0.15
9
0.38
16
0.34
26
0.90
35
0.27
14
IGEV-Stereo++two views0.36
18
0.40
19
0.20
11
0.22
14
0.25
24
0.21
14
0.09
7
0.25
7
0.17
17
0.20
8
0.34
35
0.29
7
0.20
23
0.19
17
0.78
16
0.60
11
0.44
15
0.33
10
0.75
34
0.34
19
0.53
19
0.64
29
0.22
15
0.13
2
0.28
5
0.27
15
1.09
52
0.28
17
GIP-stereotwo views0.37
19
0.56
26
0.32
28
0.29
23
0.23
23
0.21
14
0.11
13
0.24
6
0.17
17
0.30
16
0.19
12
0.38
17
0.18
16
0.21
25
1.05
21
0.64
15
0.46
21
0.39
19
0.42
10
0.41
28
0.52
18
0.82
41
0.17
8
0.17
16
0.35
12
0.31
19
0.76
28
0.24
8
Utwo views0.41
20
0.28
9
0.16
8
0.11
2
0.13
6
0.16
2
0.06
1
0.45
23
0.14
4
0.49
32
0.07
2
0.36
15
0.16
11
0.20
22
1.71
48
1.14
70
0.44
15
0.41
24
0.59
25
0.32
15
0.66
30
0.92
51
0.17
8
0.17
16
0.50
39
0.36
29
0.49
8
0.35
24
Occ-Gtwo views0.43
21
0.59
30
0.29
22
0.34
33
0.31
33
0.26
21
0.12
16
0.38
18
0.18
20
0.16
4
0.32
30
0.33
11
0.24
27
0.16
11
1.16
23
0.84
29
0.45
18
0.39
19
0.71
31
0.32
15
0.87
50
0.78
37
0.22
15
0.19
21
0.36
15
0.26
11
0.94
40
0.31
21
AEACVtwo views0.43
21
0.94
152
0.30
23
0.29
23
0.20
18
0.27
22
0.12
16
0.28
8
0.14
4
0.24
10
0.23
18
0.35
13
0.21
24
0.20
22
1.24
28
0.83
28
0.57
37
0.38
16
0.78
37
0.45
39
0.81
43
0.73
34
0.24
18
0.18
20
0.34
11
0.31
19
0.61
17
0.28
17
DEFOM-Stereotwo views0.45
23
0.55
25
0.28
21
0.26
17
0.30
32
0.32
31
0.13
19
0.35
15
0.17
17
0.25
11
0.32
30
0.38
17
0.19
18
0.22
27
1.10
22
0.73
23
0.59
40
0.52
36
0.51
19
0.44
37
0.73
35
0.69
31
0.42
55
0.28
30
0.44
26
0.32
24
1.28
65
0.46
32
RAStereotwo views0.46
24
0.38
16
0.19
9
0.15
8
0.16
14
0.19
11
0.11
13
0.44
21
0.18
20
0.99
134
0.12
7
0.45
27
0.18
16
0.15
9
1.85
67
1.10
63
0.52
25
0.47
29
0.68
30
0.27
9
0.77
38
0.80
40
0.27
22
0.17
16
0.47
32
0.34
26
0.51
9
0.41
29
TDLMtwo views0.49
25
0.59
30
0.60
81
0.39
54
0.48
78
0.46
69
0.43
114
0.72
46
0.35
47
0.30
16
0.65
92
0.76
81
0.41
54
0.35
62
0.54
7
0.58
8
0.55
30
0.49
31
0.50
17
0.43
32
0.50
14
0.39
10
0.41
50
0.39
55
0.38
16
0.31
19
0.61
17
0.66
65
anonymousdsptwo views0.50
26
0.38
16
0.36
33
0.28
21
0.32
35
0.28
24
0.15
23
0.56
29
0.26
27
0.42
26
0.33
33
0.53
32
0.19
18
0.27
33
1.47
32
0.87
31
0.54
28
0.52
36
0.62
26
0.48
43
0.71
32
1.04
61
0.36
35
0.30
32
0.46
28
0.29
17
1.13
57
0.33
22
iRaftStereo_RVCtwo views0.51
27
0.56
26
0.40
39
0.28
21
0.31
33
0.32
31
0.19
32
0.68
43
0.25
26
0.46
30
0.57
76
0.58
36
0.29
33
0.25
30
1.17
26
0.89
33
0.56
34
0.45
27
0.72
32
0.41
28
0.97
61
0.79
38
0.35
30
0.34
40
0.44
26
0.41
37
0.76
28
0.48
34
delettwo views0.51
27
0.58
28
0.47
55
0.35
35
0.50
90
0.50
85
0.30
63
0.49
25
0.29
34
0.56
37
0.44
48
0.45
27
0.34
39
0.48
130
1.16
23
0.68
19
0.55
30
0.46
28
0.47
16
0.41
28
0.58
22
0.39
10
0.39
42
0.41
62
0.48
35
0.36
29
1.09
52
0.50
36
AIO_rvctwo views0.53
29
0.71
54
0.38
35
0.34
33
0.22
22
0.34
36
0.16
25
0.57
30
0.28
33
0.38
23
0.22
16
0.56
33
0.24
27
0.27
33
1.96
81
1.04
49
0.48
23
0.40
23
1.28
67
0.47
42
0.79
42
0.95
57
0.39
42
0.22
24
0.46
28
0.28
16
0.72
25
0.33
22
AASNettwo views0.53
29
0.74
64
0.46
54
0.35
35
0.61
117
0.51
89
0.42
111
0.65
39
0.26
27
0.41
25
0.50
58
0.39
19
0.31
36
0.41
92
1.02
20
0.69
20
0.53
27
0.60
54
0.67
28
0.51
46
0.60
23
0.87
46
0.41
50
0.41
62
0.50
39
0.40
32
0.70
23
0.45
31
AANet_RVCtwo views0.54
31
0.45
22
0.40
39
0.33
32
0.61
117
0.28
24
0.31
67
0.61
33
0.58
119
0.44
28
0.41
43
0.39
19
0.48
68
0.33
53
1.16
23
0.79
27
0.55
30
0.53
42
0.56
23
0.52
50
0.46
12
0.49
15
0.34
27
0.38
49
0.57
51
0.57
58
1.05
49
0.97
112
MaDis-Stereotwo views0.57
32
0.47
23
0.30
23
0.16
10
0.26
28
0.21
14
0.17
29
0.44
21
0.32
41
1.08
144
0.22
16
0.51
30
0.22
26
0.19
17
1.83
65
1.19
80
0.62
43
0.59
53
1.09
58
0.45
39
0.81
43
0.94
53
0.37
38
0.25
28
0.63
61
0.67
73
0.60
16
0.82
86
AIO_testtwo views0.59
33
0.77
83
0.45
49
0.44
70
0.25
24
0.35
40
0.20
36
0.61
33
0.27
32
0.43
27
0.30
28
0.57
34
0.28
32
0.29
38
2.01
87
1.46
128
0.49
24
0.42
25
0.86
40
0.49
45
1.02
68
1.01
59
0.40
46
0.24
27
0.47
32
0.49
44
1.00
45
0.35
24
MMNettwo views0.59
33
0.58
28
0.44
47
0.38
43
0.55
104
0.42
60
0.29
62
0.60
32
0.40
60
0.38
23
0.55
73
0.63
47
0.32
37
0.51
142
1.51
36
0.75
25
0.72
68
0.58
52
0.76
35
0.55
58
0.62
26
0.41
12
0.40
46
0.52
105
0.51
42
0.49
44
1.49
84
0.50
36
IGEV-Stereo+two views0.60
35
1.04
186
0.24
20
0.49
78
0.32
35
0.29
26
0.13
19
0.51
26
0.26
27
0.79
91
0.94
148
0.57
34
0.26
29
0.28
37
1.64
42
1.19
80
0.59
40
0.61
58
1.19
63
0.43
32
0.90
57
1.17
67
0.48
83
0.20
22
0.41
22
0.31
19
0.56
13
0.40
28
UniTT-Stereotwo views0.60
35
0.44
21
0.32
28
0.21
12
0.25
24
0.34
36
0.17
29
0.61
33
0.31
37
0.75
73
0.27
24
0.62
46
0.34
39
0.21
25
1.77
58
1.44
121
0.57
37
0.61
58
1.53
84
0.44
37
0.91
58
1.14
66
0.37
38
0.29
31
0.50
39
0.54
53
0.52
10
0.58
46
CVANet_RVCtwo views0.60
35
0.67
41
0.81
117
0.81
158
0.53
100
0.66
136
0.55
137
1.15
111
0.39
53
0.44
28
0.79
127
0.80
90
0.44
64
0.43
106
0.69
12
0.67
18
0.55
30
0.53
42
0.55
22
0.57
63
0.63
28
0.57
22
0.40
46
0.41
62
0.46
28
0.40
32
0.72
25
0.55
40
DMCAtwo views0.63
38
0.73
61
0.63
84
0.40
55
0.49
81
0.52
92
0.33
82
0.59
31
0.52
98
0.80
95
0.63
89
0.70
63
0.40
52
0.47
124
1.48
33
0.92
35
0.69
58
0.67
80
0.67
28
0.51
46
0.67
31
0.59
24
0.48
83
0.45
76
0.48
35
0.52
51
1.04
48
0.62
57
RAFT_CTSACEtwo views0.64
39
0.94
152
0.31
26
0.37
41
0.34
44
0.33
33
0.23
42
1.23
122
0.26
27
0.64
54
0.29
27
0.71
66
0.57
95
0.34
58
1.57
40
1.07
56
0.52
25
0.43
26
0.72
32
0.33
17
0.85
48
1.72
85
0.42
55
0.30
32
0.46
28
0.41
37
1.58
96
0.39
27
GANettwo views0.64
39
0.67
41
0.63
84
0.57
101
0.58
108
0.95
180
0.55
137
0.78
57
0.46
76
0.57
39
0.61
83
1.83
191
0.36
45
0.41
92
0.81
17
0.69
20
0.76
79
0.73
99
0.58
24
0.40
26
0.53
19
0.49
15
0.47
80
0.48
92
0.56
50
0.41
37
0.83
32
0.69
67
HCRNettwo views0.66
41
0.78
87
0.41
43
0.54
94
0.27
30
0.41
58
0.39
95
0.63
37
0.31
37
1.62
178
0.59
81
0.67
58
0.29
33
0.41
92
1.99
85
0.73
23
0.60
42
0.47
29
0.65
27
0.43
32
0.78
41
0.62
26
0.36
35
0.34
40
0.42
25
0.43
42
2.14
129
0.50
36
plaintwo views0.67
42
0.87
119
0.33
30
0.31
28
0.59
110
0.33
33
0.30
63
0.89
82
0.34
45
0.72
66
0.24
19
0.65
53
0.34
39
0.19
17
1.95
74
1.57
146
0.71
63
0.69
86
0.94
46
0.39
24
1.28
89
1.20
70
0.33
26
0.33
38
0.59
57
0.60
60
0.72
25
0.74
72
MIF-Stereo (partial)two views0.69
43
0.76
78
0.33
30
0.27
19
0.37
51
0.35
40
0.31
67
0.53
27
0.40
60
0.62
50
0.32
30
0.50
29
0.39
48
0.23
28
2.08
96
1.51
136
0.68
53
0.71
91
0.77
36
0.43
32
1.10
74
0.94
53
0.39
42
0.32
35
0.57
51
0.71
76
2.25
148
0.87
99
test_5two views0.69
43
0.91
136
0.30
23
0.38
43
0.26
28
0.35
40
0.19
32
1.79
197
0.31
37
0.58
42
1.20
171
0.75
77
0.73
139
0.32
50
1.36
30
1.10
63
0.54
28
0.54
46
1.01
51
0.37
21
0.61
24
1.37
77
0.29
23
0.34
40
0.41
22
0.40
32
1.72
103
0.44
30
FINETtwo views0.69
43
0.65
36
0.67
92
0.65
121
0.49
81
0.48
80
0.45
120
0.75
51
0.59
121
0.61
47
0.48
53
0.82
96
0.57
95
0.43
106
1.71
48
1.08
59
0.77
81
0.57
49
1.07
56
0.56
60
0.88
51
0.65
30
0.43
60
0.50
98
0.62
60
0.56
57
0.96
42
0.64
61
raft+_RVCtwo views0.71
46
0.73
61
0.70
97
0.41
59
0.34
44
0.49
82
0.30
63
1.48
161
0.43
70
0.62
50
0.62
85
0.65
53
0.39
48
0.26
31
1.74
53
1.16
73
0.69
58
0.53
42
1.57
90
0.51
46
0.85
48
1.06
63
0.44
63
0.38
49
0.68
72
0.62
62
0.85
33
0.69
67
IGEV-BASED-STEREO-two views0.73
47
0.86
117
0.36
33
0.43
67
0.32
35
0.30
28
0.19
32
0.71
45
0.32
41
0.70
61
0.33
33
0.63
47
0.57
95
0.41
92
2.03
93
1.91
168
0.63
45
0.68
84
1.00
48
0.45
39
1.86
124
1.87
88
0.40
46
0.23
26
0.49
37
0.37
31
1.09
52
0.55
40
GMStereopermissivetwo views0.73
47
0.99
171
0.39
36
0.49
78
0.47
72
0.55
101
0.41
105
0.77
53
0.43
70
0.55
35
0.48
53
0.81
95
0.38
46
0.34
58
1.60
41
0.95
39
0.74
76
0.52
36
1.88
98
0.57
63
1.07
69
0.73
34
0.42
55
0.51
100
0.72
81
0.47
43
1.87
114
0.57
45
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.73
47
0.69
46
0.79
112
0.54
94
0.65
127
0.58
116
0.54
133
0.72
46
0.54
107
0.59
44
0.57
76
0.61
43
0.47
65
0.62
171
1.80
61
0.96
40
0.72
68
0.68
84
0.91
44
0.72
116
0.64
29
0.55
20
0.53
114
0.52
105
0.58
54
0.51
49
2.19
138
0.59
52
AFF-stereotwo views0.76
50
0.69
46
0.59
78
0.30
26
0.32
35
0.52
92
0.18
31
0.86
75
0.41
62
1.37
163
0.43
46
0.60
42
0.34
39
0.24
29
1.76
57
1.13
68
0.57
37
0.62
62
2.81
142
0.43
32
0.77
38
0.63
27
0.41
50
0.32
35
0.70
75
0.67
73
2.38
163
0.56
42
TestStereotwo views0.77
51
0.93
149
0.79
112
0.56
98
0.46
68
0.66
136
0.33
82
1.22
120
0.42
69
0.90
120
0.52
66
0.84
100
0.54
84
0.39
82
1.50
35
0.92
35
0.73
73
0.51
35
1.38
74
0.56
60
1.25
86
0.82
41
0.44
63
0.44
74
0.77
91
0.79
87
1.34
69
0.79
81
MIM_Stereotwo views0.78
52
0.77
83
0.53
70
0.43
67
0.38
52
0.46
69
0.22
41
1.50
164
0.31
37
0.55
35
0.38
40
0.64
50
0.27
31
0.32
50
1.77
58
1.09
61
0.63
45
0.73
99
3.30
167
0.57
63
1.19
83
0.91
50
0.34
27
0.36
45
0.49
37
0.41
37
1.95
119
0.58
46
DEFOM-Stereo_RVCtwo views0.80
53
0.75
72
0.48
59
0.38
43
0.33
42
0.25
20
0.16
25
0.68
43
0.30
36
0.72
66
0.42
45
0.77
85
0.35
43
0.30
40
1.81
62
1.08
59
0.65
49
0.56
47
1.71
94
0.48
43
1.60
110
4.30
127
0.49
93
0.39
55
0.60
59
0.49
44
0.95
41
0.65
64
CFNettwo views0.80
53
0.84
110
0.79
112
0.76
143
0.70
139
0.60
122
0.46
124
0.84
72
0.48
84
0.66
58
0.71
111
0.92
118
0.61
108
0.43
106
1.75
55
0.84
29
0.70
60
0.64
73
0.90
43
0.78
130
0.89
55
0.72
33
0.45
69
0.51
100
0.87
113
0.83
95
1.67
102
1.15
139
HGLStereotwo views0.83
55
0.64
33
0.75
106
0.52
87
0.67
133
0.56
107
0.45
120
0.66
42
0.50
92
1.72
185
0.96
152
0.64
50
0.56
91
0.54
144
1.65
45
1.18
77
0.80
89
0.76
108
1.05
53
0.66
99
0.99
63
1.36
76
0.49
93
0.54
114
0.71
78
0.76
83
1.59
98
0.82
86
UNettwo views0.85
56
0.76
78
0.74
103
0.60
109
0.60
113
0.61
125
0.53
131
0.90
83
0.58
119
1.21
150
0.68
99
0.71
66
0.56
91
0.67
179
1.72
52
1.11
66
0.79
86
0.72
97
1.13
60
0.82
140
0.84
46
0.69
31
0.62
151
0.58
127
0.64
63
0.77
84
2.48
172
0.95
109
RASNettwo views0.85
56
0.72
57
0.89
138
0.61
111
0.62
123
0.66
136
0.41
105
0.98
94
0.61
125
1.21
150
0.64
90
0.74
70
0.67
123
0.40
86
1.23
27
1.31
96
0.72
68
0.66
77
1.00
48
0.70
112
1.09
72
1.43
78
0.43
60
0.75
171
0.68
72
0.79
87
2.17
134
0.93
108
anonymousdsp2two views0.86
58
0.84
110
0.84
124
0.43
67
0.44
66
0.56
107
0.32
78
1.17
113
0.36
49
0.66
58
0.67
96
0.69
61
0.40
52
0.49
135
1.46
31
1.36
103
0.67
52
0.62
62
2.12
107
0.60
78
1.36
97
2.66
107
0.36
35
0.44
74
0.71
78
0.51
49
1.86
113
0.64
61
ddtwo views0.86
58
0.80
92
0.51
61
1.05
186
0.44
66
0.85
166
0.44
118
0.85
73
0.39
53
0.83
100
0.40
41
1.23
157
0.39
48
0.47
124
2.21
113
0.98
42
0.97
147
0.71
91
2.00
105
0.61
81
0.84
46
0.77
36
0.49
93
0.64
152
0.70
75
0.53
52
1.73
105
1.47
166
RAFT-Stereo + iAFFtwo views0.86
58
0.72
57
0.84
124
0.41
59
0.39
53
0.54
98
0.21
39
0.99
95
0.52
98
1.54
173
0.57
76
0.73
69
0.39
48
0.26
31
2.15
101
1.17
75
0.64
48
0.50
32
2.66
136
0.57
63
0.88
51
0.90
48
0.47
80
0.39
55
0.86
109
0.72
78
2.54
184
0.66
65
DMCA-RVCcopylefttwo views0.86
58
0.74
64
0.73
100
0.61
111
0.77
152
0.56
107
0.70
157
0.77
53
1.43
209
1.38
165
0.69
102
0.87
105
0.54
84
0.55
149
1.66
47
1.05
52
0.81
98
0.74
103
0.95
47
0.73
119
0.89
55
0.93
52
0.51
106
0.58
127
0.59
57
0.62
62
1.82
110
0.91
105
Former-RAFT_DAM_RVCtwo views0.87
62
0.64
33
0.54
73
0.44
70
0.41
60
0.38
47
0.26
55
1.26
128
0.49
88
0.85
106
0.62
85
0.75
77
0.54
84
0.34
58
1.75
55
1.50
135
0.68
53
0.70
88
1.17
61
0.56
60
1.52
103
3.83
118
0.39
42
0.37
46
0.75
87
1.18
150
0.68
22
0.77
78
RAFT+CT+SAtwo views0.87
62
0.97
165
0.40
39
0.45
73
0.29
31
0.38
47
0.20
36
1.64
187
0.33
43
0.72
66
0.30
28
0.88
110
0.65
118
0.40
86
1.56
39
1.21
84
0.56
34
0.57
49
2.08
106
0.40
26
0.83
45
5.00
139
0.32
24
0.37
46
0.47
32
0.42
41
1.56
89
0.49
35
DSFCAtwo views0.87
62
0.84
110
0.73
100
0.65
121
0.77
152
0.61
125
0.78
162
0.75
51
0.78
151
0.77
81
0.83
136
0.75
77
0.48
68
0.43
106
1.89
71
1.14
70
0.85
106
0.87
141
1.00
48
0.74
121
1.00
67
1.05
62
0.72
183
0.63
149
0.83
101
0.95
116
1.88
115
0.85
95
IERtwo views0.88
65
0.82
100
0.55
74
0.49
78
0.51
92
0.56
107
0.45
120
0.80
62
0.49
88
1.15
148
0.77
121
1.03
132
0.50
74
0.79
199
3.66
192
1.04
49
0.73
73
0.64
73
0.87
41
0.78
130
0.73
35
0.82
41
0.60
146
0.53
110
0.63
61
1.00
127
2.05
125
0.74
72
rafts_anoytwo views0.88
65
0.81
98
0.86
130
0.44
70
0.49
81
0.51
89
0.46
124
1.58
180
0.48
84
0.61
47
0.70
109
0.70
63
0.47
65
0.30
40
2.51
135
1.38
105
0.76
79
0.78
115
2.36
116
0.61
81
1.28
89
0.99
58
0.49
93
0.49
95
0.85
107
0.90
110
0.93
39
1.00
125
ARAFTtwo views0.89
67
0.72
57
0.47
55
0.35
35
0.34
44
0.42
60
0.24
45
0.64
38
0.34
45
2.25
213
0.57
76
0.58
36
0.29
33
0.39
82
2.14
100
1.42
115
0.71
63
0.74
103
2.68
138
0.54
52
1.86
124
1.93
89
0.42
55
0.33
38
0.83
101
0.40
32
1.98
122
0.56
42
HITNettwo views0.90
68
0.65
36
0.62
83
0.68
128
0.50
90
0.39
50
0.32
78
1.26
128
0.89
162
0.70
61
0.70
109
0.91
116
0.49
71
0.39
82
1.96
81
1.02
46
0.66
51
0.64
73
0.79
38
0.61
81
1.53
104
3.85
119
0.46
71
0.52
105
0.58
54
0.64
65
1.81
108
0.81
84
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
TestStereo1two views0.93
69
0.98
168
0.39
36
0.38
43
0.36
49
0.39
50
0.25
48
1.02
97
0.39
53
0.79
91
0.34
35
0.58
36
0.73
139
0.54
144
3.06
170
1.47
131
0.71
63
0.52
36
2.91
145
0.54
52
1.34
92
1.84
86
0.35
30
0.39
55
0.54
46
1.06
132
2.53
182
0.60
53
SA-5Ktwo views0.93
69
0.98
168
0.39
36
0.38
43
0.36
49
0.39
50
0.25
48
1.02
97
0.39
53
0.79
91
0.34
35
0.58
36
0.73
139
0.54
144
3.06
170
1.47
131
0.71
63
0.52
36
2.91
145
0.54
52
1.34
92
1.84
86
0.35
30
0.39
55
0.54
46
1.06
132
2.53
182
0.60
53
RALCasStereoNettwo views0.93
69
0.82
100
0.93
143
0.53
91
0.53
100
0.60
122
0.45
120
1.48
161
0.44
73
1.03
137
0.75
118
0.89
115
0.49
71
0.32
50
2.31
120
1.43
119
0.78
83
0.75
105
1.50
81
0.58
67
1.18
82
2.21
99
0.49
93
0.57
123
0.86
109
1.13
144
0.90
35
1.16
140
CFNet_RVCtwo views0.94
72
0.84
110
0.89
138
0.76
143
0.80
160
0.71
146
0.49
126
0.74
50
0.63
132
0.88
115
0.94
148
0.87
105
0.57
95
0.50
136
1.96
81
1.12
67
0.79
86
0.79
118
1.27
65
0.73
119
1.26
87
1.52
81
0.48
83
0.64
152
0.98
134
1.11
138
1.92
118
1.23
148
DLCB_ROBtwo views0.94
72
0.90
132
0.88
133
0.73
136
0.80
160
0.69
143
0.69
156
0.87
79
0.72
147
0.94
128
0.86
140
1.02
128
0.91
178
0.69
186
1.48
33
1.06
55
0.97
147
0.72
97
0.88
42
0.74
121
1.21
84
1.21
71
0.78
192
0.71
166
1.26
182
1.26
158
1.49
84
0.95
109
AACVNettwo views0.95
74
0.87
119
0.69
94
0.91
168
0.91
171
0.72
149
0.59
147
0.87
79
0.60
122
0.73
70
0.88
143
0.79
89
0.64
113
0.60
164
1.77
58
1.37
104
0.84
104
0.83
131
1.12
59
0.77
127
1.36
97
1.13
65
0.70
176
0.65
154
0.87
113
1.12
141
1.90
116
1.31
156
DISCOtwo views0.96
75
0.98
168
0.56
76
0.57
101
0.61
117
0.81
162
0.79
165
0.77
53
0.81
152
2.06
204
0.86
140
0.66
55
0.70
128
0.42
102
1.87
69
1.27
91
0.99
151
0.80
123
1.80
96
0.80
134
0.92
59
1.33
73
0.57
132
0.51
100
0.72
81
0.84
100
2.02
123
0.80
83
GLC_STEREOtwo views0.97
76
0.89
129
0.85
128
0.56
98
0.60
113
0.48
80
0.40
101
1.70
190
0.47
78
0.77
81
0.67
96
0.78
88
0.63
111
0.61
166
2.53
136
1.65
154
0.88
116
0.60
54
1.57
90
0.70
112
2.48
134
1.17
67
0.44
63
0.43
70
0.67
65
0.55
55
2.36
159
0.88
102
TESTrafttwo views0.98
77
0.96
163
0.42
44
0.41
59
0.33
42
0.40
53
0.25
48
1.13
108
0.39
53
0.97
133
0.35
38
0.61
43
0.75
148
0.54
144
3.18
180
1.42
115
0.70
60
0.50
32
2.86
144
0.53
51
1.08
70
3.15
112
0.35
30
0.40
60
0.52
44
1.18
150
2.52
178
0.61
55
psm_uptwo views0.99
78
0.86
117
0.99
157
0.78
150
0.89
169
0.75
153
0.58
144
1.33
146
1.03
180
0.88
115
0.69
102
0.99
127
0.72
134
0.76
195
1.89
71
1.10
63
0.91
127
0.81
126
1.93
101
0.81
137
1.08
70
0.90
48
0.49
93
0.85
191
1.01
139
1.06
132
1.62
99
1.10
133
STTStereotwo views0.99
78
0.95
158
0.82
120
0.77
148
0.77
152
0.69
143
0.87
175
0.86
75
1.53
218
1.27
156
0.79
127
1.13
148
0.69
126
0.93
216
2.19
107
1.03
48
0.72
68
0.70
88
1.05
53
0.63
92
1.15
80
0.86
45
0.58
140
0.56
122
0.73
84
1.21
154
1.74
107
1.41
164
NLCA_NET_v2_RVCtwo views1.02
80
0.93
149
0.80
116
0.72
133
0.79
158
0.65
134
1.02
189
1.07
103
2.31
248
2.00
198
0.74
116
0.97
123
0.56
91
0.94
218
1.82
63
0.96
40
0.68
53
0.67
80
1.31
68
0.65
94
0.88
51
0.94
53
0.57
132
0.57
123
0.73
84
1.60
198
1.43
77
1.27
154
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views1.05
81
0.80
92
0.40
39
0.50
84
0.48
78
0.37
44
0.30
63
0.55
28
0.44
73
1.13
147
0.77
121
0.64
50
0.95
188
0.31
48
2.68
150
1.79
163
0.96
144
0.82
129
1.08
57
0.61
81
2.91
141
5.06
142
0.44
63
0.30
32
0.81
95
0.92
112
1.18
60
1.16
140
AF-Nettwo views1.05
81
0.83
103
0.94
144
0.76
143
0.91
171
0.98
186
1.68
222
1.52
171
1.06
182
0.57
39
0.96
152
1.34
163
0.64
113
0.74
190
1.71
48
0.99
43
0.80
89
0.60
54
1.64
92
0.72
116
0.72
33
2.35
100
0.63
156
0.62
143
0.89
120
0.82
93
1.57
94
1.25
151
Nwc_Nettwo views1.05
81
0.83
103
0.94
144
0.76
143
0.91
171
0.98
186
1.68
222
1.52
171
1.06
182
0.57
39
0.96
152
1.34
163
0.64
113
0.74
190
1.71
48
0.99
43
0.80
89
0.60
54
1.64
92
0.72
116
0.72
33
2.35
100
0.63
156
0.62
143
0.89
120
0.82
93
1.57
94
1.25
151
LMCR-Stereopermissivemany views1.06
84
0.83
103
0.84
124
0.53
91
0.62
123
0.64
132
0.33
82
1.12
106
0.60
122
0.83
100
0.79
127
0.91
116
0.49
71
0.41
92
2.53
136
1.54
141
1.03
162
0.75
105
2.16
108
1.42
199
1.68
115
3.87
121
0.49
93
0.65
154
0.75
87
0.83
95
1.10
56
0.88
102
PDISCO_ROBtwo views1.06
84
0.87
119
0.60
81
0.80
155
0.68
136
0.53
97
0.59
147
0.93
87
0.69
142
1.80
190
1.00
160
0.74
70
0.63
111
0.66
177
1.87
69
1.44
121
0.89
118
1.10
201
1.53
84
0.80
134
1.56
107
2.40
103
0.52
113
0.63
149
1.19
167
0.79
87
2.56
185
0.81
84
SAtwo views1.07
86
0.90
132
0.42
44
0.55
96
0.53
100
0.49
82
0.24
45
1.60
181
0.46
76
0.71
65
0.41
43
0.69
61
0.58
99
0.62
171
1.74
53
1.41
112
0.78
83
0.79
118
3.17
156
0.65
94
1.24
85
4.73
131
0.34
27
0.51
100
0.75
87
1.12
141
2.64
192
0.72
71
PS-NSSStwo views1.07
86
1.44
232
0.69
94
1.20
206
0.91
171
1.16
204
0.93
182
0.80
62
0.55
109
0.74
72
0.49
56
1.98
199
1.03
195
0.91
213
1.54
38
0.92
35
0.83
102
0.73
99
1.45
79
0.62
87
0.94
60
0.63
27
1.68
251
0.50
98
1.00
137
0.95
116
3.21
216
1.11
136
HSMtwo views1.07
86
0.75
72
0.97
152
0.78
150
0.77
152
0.54
98
0.54
133
1.87
206
0.60
122
0.76
77
0.85
139
0.87
105
0.67
123
0.56
150
2.24
114
1.05
52
0.92
133
0.71
91
2.57
124
0.71
114
1.80
122
2.08
97
0.56
129
0.72
169
0.90
124
0.97
120
2.08
127
1.03
126
LL-Strereo2two views1.08
89
0.65
36
0.59
78
0.40
55
0.34
44
0.31
30
0.23
42
1.48
161
0.38
51
0.68
60
0.58
80
0.63
47
0.32
37
0.64
175
1.65
45
1.13
68
0.63
45
0.53
42
1.32
70
0.66
99
1.35
95
11.05
240
0.44
63
0.34
40
0.64
63
0.60
60
1.05
49
0.56
42
raftrobusttwo views1.11
90
0.65
36
0.92
142
0.55
96
0.49
81
0.44
62
0.33
82
1.55
177
0.47
78
0.94
128
0.72
114
0.82
96
0.53
79
0.36
71
2.91
161
1.71
158
0.71
63
0.70
88
4.37
183
0.65
94
1.69
117
3.95
123
0.59
144
0.42
69
0.95
132
0.85
102
0.99
44
0.85
95
UCFNet_RVCtwo views1.11
90
1.26
214
0.85
128
0.88
165
0.93
178
0.77
157
0.58
144
0.78
57
0.67
139
0.93
126
0.80
131
1.25
158
0.93
183
0.48
130
2.17
105
1.09
61
0.78
83
0.82
129
2.60
131
0.80
134
1.32
91
1.66
83
1.31
239
0.67
158
1.05
147
1.11
138
1.44
79
2.13
197
test_4two views1.13
92
0.74
64
0.77
108
0.42
65
0.32
35
0.34
36
0.26
55
0.78
57
0.33
43
0.75
73
0.40
41
0.87
105
0.35
43
0.40
86
2.10
99
1.55
142
0.65
49
0.69
86
1.50
81
0.51
46
1.12
77
10.25
214
0.41
50
0.37
46
0.58
54
0.70
75
2.73
197
0.62
57
Sa-1000two views1.14
93
0.75
72
0.47
55
0.49
78
0.61
117
0.50
85
0.27
58
1.70
190
0.52
98
0.73
70
0.48
53
0.66
55
0.67
123
0.79
199
2.17
105
1.43
119
0.92
133
0.93
162
3.23
157
0.58
67
1.55
106
4.86
134
0.35
30
0.59
134
1.14
163
1.24
155
2.35
157
0.76
77
RALAANettwo views1.14
93
0.70
49
0.84
124
0.53
91
0.53
100
0.60
122
0.41
105
1.30
135
0.50
92
0.94
128
0.65
92
0.72
68
0.59
100
0.33
53
1.97
84
1.32
98
0.75
78
0.89
151
1.96
102
0.85
143
3.07
143
5.37
150
0.53
114
0.62
143
0.82
98
1.03
130
2.08
127
0.78
80
CASnettwo views1.15
95
0.91
136
0.49
60
0.40
55
0.43
64
0.38
47
0.20
36
0.91
85
0.49
88
0.77
81
0.56
74
0.88
110
0.53
79
0.35
62
2.15
101
1.24
88
0.72
68
0.50
32
1.34
72
0.54
52
7.12
200
5.37
150
0.41
50
0.38
49
1.21
169
0.49
44
1.45
80
0.79
81
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
iResNet_ROBtwo views1.16
96
0.83
103
0.82
120
0.65
121
0.59
110
0.67
139
0.58
144
2.65
256
0.53
102
1.73
186
0.76
120
0.87
105
0.78
158
0.47
124
3.77
200
1.45
123
0.87
112
0.86
139
2.81
142
0.65
94
1.26
87
0.87
46
0.57
132
0.73
170
0.81
95
0.95
116
2.65
194
1.03
126
RPtwo views1.18
97
1.02
182
1.24
206
0.94
172
1.08
190
0.84
163
1.17
201
1.25
126
1.31
201
0.61
47
1.16
168
1.21
155
0.75
148
0.68
180
3.34
184
1.04
49
0.89
118
0.67
80
1.20
64
0.79
132
0.88
51
2.85
109
0.59
144
0.71
166
0.86
109
0.98
124
2.51
177
1.21
146
trnettwo views1.20
98
0.91
136
0.94
144
0.52
87
0.42
62
0.47
75
0.25
48
1.41
156
0.61
125
0.88
115
0.75
118
0.97
123
0.72
134
0.37
73
2.66
147
3.31
213
0.86
109
0.61
58
2.41
118
0.60
78
3.93
153
3.14
111
0.50
104
0.47
80
1.03
143
0.86
105
1.72
103
0.99
120
APVNettwo views1.21
99
1.02
182
0.64
87
0.69
129
0.78
156
0.86
167
0.84
170
0.78
57
0.71
146
0.92
124
0.82
134
0.86
103
0.59
100
0.58
156
2.67
149
1.65
154
1.11
171
0.98
177
3.23
157
0.85
143
1.62
111
4.73
131
0.55
122
0.84
190
0.77
91
0.80
90
1.90
116
0.98
114
iinet-ftwo views1.22
100
1.08
190
0.64
87
0.93
171
0.46
68
0.68
141
0.57
141
0.79
61
0.48
84
2.11
209
1.35
183
0.83
98
0.64
113
0.35
62
3.95
203
1.80
165
0.77
81
0.66
77
2.93
151
1.00
164
1.53
104
3.24
113
0.64
161
0.53
110
1.10
158
0.63
64
2.23
147
0.90
104
PA-Nettwo views1.22
100
0.95
158
1.13
188
0.75
139
1.31
213
0.68
141
0.84
170
0.82
68
1.18
195
0.83
100
0.77
121
0.76
81
0.78
158
0.91
213
3.00
166
1.21
84
0.68
53
0.77
111
1.02
52
0.82
140
1.13
79
4.67
129
0.66
165
0.82
185
1.00
137
2.10
232
1.24
62
2.13
197
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views1.25
102
1.24
208
1.10
180
0.99
179
1.05
184
0.96
181
1.53
216
1.79
197
1.59
221
0.60
45
1.34
180
1.17
152
1.03
195
0.74
190
2.44
126
1.07
56
0.89
118
0.99
180
1.54
86
0.91
151
0.99
63
2.46
104
0.80
200
0.76
173
1.26
182
1.59
195
1.39
74
1.61
174
Abc-Nettwo views1.25
102
1.24
208
1.10
180
0.99
179
1.05
184
0.96
181
1.53
216
1.79
197
1.59
221
0.60
45
1.34
180
1.17
152
1.03
195
0.74
190
2.44
126
1.07
56
0.89
118
0.99
180
1.54
86
0.91
151
0.99
63
2.46
104
0.80
200
0.76
173
1.26
182
1.59
195
1.39
74
1.61
174
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CEStwo views1.27
104
0.77
83
0.56
76
0.45
73
0.56
105
0.51
89
0.21
39
1.50
164
0.70
144
0.78
84
0.80
131
0.84
100
0.90
177
0.33
53
3.45
188
2.96
203
1.14
175
1.04
193
1.32
70
1.08
173
4.63
160
4.87
135
0.63
156
0.38
49
0.85
107
0.83
95
1.02
46
1.16
140
GMOStereotwo views1.28
105
0.74
64
0.45
49
0.62
114
0.52
94
0.46
69
0.39
95
1.54
173
0.47
78
0.87
109
0.47
49
0.74
70
0.59
100
0.35
62
2.01
87
1.45
123
0.80
89
0.87
141
2.92
147
0.69
105
1.78
118
10.98
236
0.46
71
0.41
62
1.09
153
0.72
78
1.56
89
0.58
46
error versiontwo views1.28
105
0.74
64
0.45
49
0.62
114
0.52
94
0.46
69
0.39
95
1.54
173
0.47
78
0.87
109
0.47
49
0.74
70
0.59
100
0.35
62
2.01
87
1.45
123
0.80
89
0.87
141
2.92
147
0.69
105
1.78
118
10.98
236
0.46
71
0.41
62
1.09
153
0.72
78
1.56
89
0.58
46
test-vtwo views1.28
105
0.74
64
0.45
49
0.62
114
0.52
94
0.46
69
0.39
95
1.54
173
0.47
78
0.87
109
0.47
49
0.74
70
0.59
100
0.35
62
2.01
87
1.45
123
0.80
89
0.87
141
2.92
147
0.69
105
1.78
118
10.98
236
0.46
71
0.41
62
1.09
153
0.72
78
1.56
89
0.58
46
test-2two views1.28
105
0.74
64
0.45
49
0.62
114
0.52
94
0.46
69
0.39
95
1.54
173
0.47
78
0.87
109
0.47
49
0.74
70
0.59
100
0.35
62
2.01
87
1.45
123
0.80
89
0.87
141
2.92
147
0.69
105
1.78
118
10.98
236
0.46
71
0.41
62
1.09
153
0.72
78
1.56
89
0.58
46
GANetREF_RVCpermissivetwo views1.28
105
1.18
201
0.95
149
1.18
205
1.04
182
1.00
191
0.79
165
1.25
126
1.10
187
1.29
157
0.77
121
2.28
215
0.91
178
0.63
173
2.00
86
1.14
70
1.01
156
0.98
177
2.44
120
0.82
140
1.98
128
1.33
73
0.78
192
1.05
206
1.28
187
1.27
159
2.63
191
1.49
167
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AMNettwo views1.29
110
1.12
193
1.05
167
1.13
194
1.12
195
1.24
213
1.08
196
1.36
150
1.13
191
1.10
145
1.11
165
1.51
179
1.26
207
1.20
238
1.52
37
1.57
146
1.35
200
1.21
221
1.37
73
1.22
186
1.35
95
1.19
69
1.25
232
1.19
215
1.23
177
1.72
208
1.54
88
1.65
178
raft_robusttwo views1.30
111
0.93
149
0.53
70
0.59
107
0.47
72
0.57
113
0.37
93
2.06
226
0.52
98
1.69
184
0.53
68
0.76
81
0.82
166
0.47
124
2.16
104
1.52
139
0.84
104
0.84
137
5.71
204
0.59
70
2.50
135
5.04
141
0.46
71
0.51
100
0.99
135
1.05
131
1.58
96
0.99
120
IPLGR_Ctwo views1.31
112
0.71
54
0.68
93
0.57
101
0.46
68
0.52
92
0.31
67
0.81
64
0.53
102
0.76
77
0.69
102
1.03
132
0.53
79
0.59
160
2.62
142
1.33
100
0.88
116
0.63
71
3.25
163
0.61
81
1.64
114
10.69
227
0.55
122
0.53
110
0.89
120
0.57
58
2.40
165
0.62
57
ACREtwo views1.31
112
0.70
49
0.66
91
0.58
106
0.47
72
0.52
92
0.32
78
0.81
64
0.53
102
0.76
77
0.69
102
1.04
136
0.52
78
0.59
160
2.66
147
1.32
98
0.89
118
0.63
71
3.25
163
0.61
81
1.62
111
10.69
227
0.55
122
0.52
105
0.92
127
0.55
55
2.40
165
0.62
57
SACVNettwo views1.31
112
0.94
152
0.95
149
0.90
166
1.10
192
0.87
169
0.92
181
1.50
164
0.81
152
1.23
155
0.71
111
0.94
119
0.69
126
0.68
180
1.83
65
1.40
109
1.12
174
0.83
131
2.20
110
0.94
157
2.13
129
5.87
160
0.65
162
0.82
185
1.04
144
1.06
132
2.02
123
1.30
155
4D-IteraStereotwo views1.32
115
0.61
32
1.07
173
0.49
78
0.43
64
0.40
53
0.25
48
1.44
159
0.37
50
0.75
73
0.56
74
0.75
77
0.43
56
0.43
106
2.29
119
1.38
105
0.68
53
0.66
77
2.70
139
0.59
70
3.21
145
10.86
235
0.46
71
0.40
60
0.69
74
0.83
95
2.34
155
0.64
61
CIPLGtwo views1.32
115
0.70
49
0.69
94
0.57
101
0.46
68
0.52
92
0.33
82
0.81
64
0.55
109
0.76
77
0.69
102
1.03
132
0.53
79
0.59
160
2.91
161
1.33
100
0.89
118
0.62
62
3.23
157
0.62
87
1.62
111
10.69
227
0.55
122
0.53
110
0.90
124
0.54
53
2.37
162
0.61
55
DN-CSS_ROBtwo views1.32
115
0.83
103
1.03
163
0.87
164
0.86
164
0.47
75
0.36
91
2.00
220
0.57
117
1.56
175
1.81
195
0.96
122
0.77
156
0.38
78
2.15
101
1.40
109
1.03
162
0.93
162
5.27
192
0.66
99
2.56
136
2.82
108
0.54
119
0.86
193
0.79
93
0.81
91
2.07
126
1.33
159
UDGNettwo views1.34
118
1.00
176
0.76
107
1.64
229
1.38
218
1.69
234
1.25
205
1.22
120
0.69
142
0.63
53
0.84
138
0.83
98
0.41
54
1.62
249
2.02
92
1.19
80
0.81
98
0.87
141
1.98
103
0.92
154
1.68
115
5.69
156
1.26
235
0.47
80
1.21
169
0.95
116
2.15
131
1.03
126
CREStereotwo views1.37
119
0.91
136
0.94
144
0.52
87
0.42
62
0.47
75
0.26
55
1.43
158
0.66
137
0.87
109
0.83
136
0.95
120
0.73
139
0.36
71
2.98
165
4.38
236
0.85
106
0.56
47
2.41
118
0.62
87
5.52
177
4.71
130
0.53
114
0.47
80
1.02
141
0.87
106
1.73
105
0.98
114
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVC-Resampletwo views1.37
119
0.87
119
0.99
157
0.72
133
0.81
162
0.63
129
1.02
189
1.06
102
0.91
165
0.99
134
0.99
158
1.69
187
0.73
139
1.02
224
4.06
205
1.41
112
1.02
159
1.62
245
1.55
88
1.04
168
1.37
99
5.03
140
0.57
132
1.14
212
0.88
116
1.99
225
1.45
80
1.54
170
FADNet-RVCtwo views1.38
121
0.71
54
0.88
133
0.77
148
1.09
191
0.58
116
2.16
239
0.92
86
0.57
117
1.03
137
0.72
114
1.48
174
0.64
113
0.61
166
5.02
212
1.56
144
0.85
106
0.90
154
2.24
112
1.52
215
2.20
130
4.08
125
0.51
106
0.77
175
1.48
211
1.14
146
1.43
77
1.35
160
PMTNettwo views1.39
122
0.94
152
0.99
157
0.48
77
0.49
81
0.47
75
0.32
78
0.83
69
0.66
137
0.83
100
0.62
85
0.88
110
0.50
74
0.35
62
2.72
153
4.30
233
0.91
127
0.57
49
2.40
117
0.54
52
6.12
183
5.45
153
0.57
132
0.38
49
1.99
244
1.00
127
1.09
52
1.19
145
GEStwo views1.40
123
0.73
61
0.79
112
0.78
150
0.71
140
0.80
160
0.59
147
1.37
152
0.97
170
1.66
181
0.94
148
0.74
70
0.65
118
0.63
173
2.40
123
1.55
142
0.98
149
0.89
151
5.45
198
1.14
179
3.99
154
3.85
119
0.65
162
0.83
188
0.75
87
0.81
91
1.52
87
1.72
181
LoS_RVCtwo views1.42
124
1.25
211
0.86
130
0.31
28
0.49
81
0.37
44
0.33
82
0.73
48
0.56
114
2.10
207
0.68
99
0.67
58
0.70
128
0.33
53
3.08
173
3.79
224
0.89
118
2.10
265
3.01
154
0.66
99
4.40
155
6.44
165
0.51
106
0.43
70
0.82
98
0.85
102
0.90
35
0.99
120
tt_lltwo views1.42
124
1.25
211
0.86
130
0.31
28
0.49
81
0.37
44
0.33
82
0.73
48
0.56
114
2.10
207
0.68
99
0.67
58
0.70
128
0.33
53
3.08
173
3.79
224
0.89
118
2.10
265
3.01
154
0.66
99
4.40
155
6.44
165
0.51
106
0.43
70
0.82
98
0.85
102
0.90
35
0.99
120
sAnonymous2two views1.42
124
0.76
78
0.52
68
0.41
59
0.47
72
0.71
146
0.41
105
1.28
132
0.98
173
0.65
55
0.89
144
1.08
141
0.95
188
0.37
73
2.20
108
2.28
186
1.10
167
1.04
193
3.71
173
0.92
154
4.94
165
6.73
171
0.62
151
0.55
120
0.83
101
1.39
171
1.25
63
1.24
149
CroCo_RVCtwo views1.42
124
0.76
78
0.52
68
0.41
59
0.47
72
0.71
146
0.41
105
1.28
132
0.98
173
0.65
55
0.89
144
1.08
141
0.95
188
0.37
73
2.20
108
2.28
186
1.10
167
1.04
193
3.71
173
0.92
154
4.94
165
6.73
171
0.62
151
0.55
120
0.83
101
1.39
171
1.25
63
1.24
149
RGCtwo views1.43
128
1.30
220
1.99
248
1.14
199
1.18
203
1.16
204
1.01
186
1.20
118
1.08
185
0.91
121
1.70
194
1.18
154
1.24
206
0.87
207
3.10
177
1.18
77
0.98
149
0.86
139
1.81
97
1.02
166
1.39
100
3.87
121
0.76
185
0.90
197
1.14
163
1.53
190
2.17
134
1.85
185
castereotwo views1.44
129
0.88
127
0.96
151
0.46
76
0.47
72
0.33
33
0.27
58
0.77
53
0.50
92
0.80
95
0.64
90
1.04
136
0.48
68
0.38
78
2.25
115
2.81
198
1.03
162
0.76
108
2.67
137
0.62
87
7.90
212
7.11
178
0.57
132
0.52
105
1.04
144
1.25
157
1.03
47
1.21
146
FADNettwo views1.44
129
0.83
103
0.83
123
0.82
160
1.03
181
0.61
125
1.88
233
0.97
92
0.73
148
0.93
126
0.92
147
1.16
151
0.76
153
0.74
190
3.69
196
1.34
102
0.91
127
1.03
190
2.63
132
1.49
208
2.87
140
4.93
136
0.49
93
0.65
154
1.54
220
1.70
207
1.51
86
1.83
184
stereogantwo views1.44
129
1.33
223
1.05
167
1.11
190
1.28
211
1.11
198
0.97
183
1.26
128
1.05
181
1.22
154
1.10
163
1.62
185
0.89
175
0.66
177
2.34
121
1.31
96
0.94
138
0.81
126
1.72
95
0.95
159
1.10
74
8.04
185
0.71
178
0.77
175
0.83
101
1.06
132
2.36
159
1.38
162
MGS-Stereotwo views1.48
132
0.99
171
0.47
55
0.40
55
0.35
48
0.40
53
0.36
91
0.65
39
0.26
27
0.52
34
0.43
46
0.52
31
0.38
46
0.43
106
23.31
251
0.93
38
0.73
73
0.79
118
0.93
45
0.65
94
1.10
74
1.25
72
0.44
63
0.48
92
0.72
81
0.49
44
1.29
67
0.77
78
NCCL2two views1.48
132
1.28
218
1.10
180
1.11
190
1.43
221
0.78
158
0.90
178
1.05
101
1.14
193
1.86
195
1.27
176
1.02
128
0.81
161
0.80
202
3.43
186
1.42
115
1.14
175
0.87
141
1.31
68
0.89
150
1.94
127
3.37
115
1.48
247
1.02
202
1.50
215
1.35
166
3.80
238
1.85
185
TANstereotwo views1.49
134
1.06
187
0.88
133
0.67
126
0.73
143
0.87
169
0.33
82
0.86
75
0.61
125
0.70
61
0.69
102
0.59
40
0.59
100
1.02
224
2.75
154
2.89
200
0.94
138
1.13
209
1.43
77
1.28
189
5.13
171
5.06
142
1.35
241
0.46
78
0.54
46
0.89
107
5.92
258
0.74
72
XX-TBDtwo views1.49
134
1.06
187
0.88
133
0.67
126
0.73
143
0.87
169
0.33
82
0.86
75
0.61
125
0.70
61
0.69
102
0.59
40
0.59
100
1.02
224
2.75
154
2.89
200
0.94
138
1.13
209
1.43
77
1.28
189
5.13
171
5.06
142
1.35
241
0.46
78
0.54
46
0.89
107
5.92
258
0.74
72
LoStwo views1.51
136
0.79
91
0.59
78
0.52
87
0.56
105
0.65
134
0.38
94
2.56
252
0.88
160
1.21
150
0.94
148
0.97
123
0.88
174
0.35
62
3.04
169
3.41
215
1.24
187
0.93
162
2.19
109
0.68
104
5.96
179
7.00
176
0.62
151
0.47
80
1.14
163
0.98
124
1.06
51
0.87
99
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
ICVPtwo views1.51
136
0.74
64
1.07
173
0.75
139
0.75
147
0.84
163
0.54
133
1.10
104
0.86
157
1.37
163
1.15
167
0.88
110
1.08
201
0.53
143
1.90
73
1.91
168
1.22
184
0.99
180
1.56
89
0.96
161
3.89
152
10.50
221
0.68
172
0.77
175
0.91
126
1.19
152
1.42
76
1.14
138
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.53
138
0.77
83
0.77
108
0.75
139
0.67
133
0.47
75
0.40
101
1.23
122
1.32
202
0.83
100
0.77
121
0.95
120
0.74
144
0.59
160
5.02
212
2.40
193
1.64
213
1.43
239
1.27
65
0.85
143
4.54
157
8.28
187
0.48
83
0.91
198
0.70
75
0.77
84
1.85
111
0.99
120
iResNetv2_ROBtwo views1.57
139
0.87
119
0.70
97
1.13
194
0.65
127
0.72
149
0.49
126
2.63
255
0.64
134
1.77
189
0.87
142
1.30
162
0.75
148
0.40
86
4.81
211
1.26
90
0.91
127
0.71
91
4.58
186
0.81
137
7.66
206
1.62
82
0.58
140
0.80
178
0.81
95
0.83
95
3.12
215
0.91
105
MyStereo04two views1.58
140
0.90
132
0.97
152
0.78
150
0.89
169
0.57
113
0.40
101
1.57
179
0.97
170
2.23
212
0.89
144
1.34
163
0.54
84
0.41
92
2.94
164
2.47
194
0.86
109
0.92
158
5.37
194
1.50
211
4.62
159
3.51
116
0.92
218
0.81
182
1.21
169
1.61
200
2.58
187
0.95
109
AE-Stereotwo views1.61
141
0.85
114
1.23
205
0.81
158
0.51
92
0.57
113
0.75
161
0.83
69
0.49
88
0.79
91
0.54
70
1.29
159
0.72
134
0.47
124
2.05
95
2.96
203
0.99
151
0.92
158
2.63
132
0.86
146
4.61
158
11.92
258
0.50
104
0.80
178
1.26
182
1.34
165
1.95
119
0.86
97
castereo++two views1.62
142
0.76
78
0.78
111
0.59
107
0.41
60
0.34
36
0.25
48
0.85
73
0.43
70
0.81
98
0.62
85
1.02
128
0.51
76
0.38
78
1.86
68
2.57
195
1.01
156
0.73
99
3.23
157
0.62
87
7.09
199
6.35
164
0.63
156
0.58
127
0.99
135
1.01
129
7.61
271
1.63
177
dadtwo views1.63
143
0.97
165
0.65
89
2.18
246
1.19
205
1.01
192
3.99
259
1.66
188
0.55
109
1.21
150
0.50
58
1.12
147
2.01
220
0.58
156
3.09
175
1.16
73
1.11
171
0.76
108
2.70
139
0.77
127
1.34
92
1.48
79
0.71
178
0.88
195
2.48
253
0.71
76
5.52
257
3.80
233
CC-Net-ROBtwo views1.63
143
1.81
245
1.19
200
1.85
235
1.77
238
2.27
247
1.56
218
0.93
87
0.96
169
1.29
157
0.67
96
5.48
259
2.51
229
1.43
247
1.64
42
0.87
31
1.34
197
1.17
213
2.46
121
0.88
148
1.09
72
1.35
75
3.34
267
0.63
149
1.22
174
1.15
147
1.47
82
1.57
172
XPNet_ROBtwo views1.63
143
1.57
239
1.09
179
0.91
168
1.13
198
1.01
192
0.88
176
0.95
91
1.14
193
1.07
143
1.82
196
4.03
246
0.72
134
0.78
196
1.82
63
1.51
136
1.52
210
0.94
165
1.42
75
1.04
168
2.20
130
7.75
183
0.86
214
0.80
178
0.94
128
1.29
162
3.34
223
1.56
171
DeepPruner_ROBtwo views1.64
146
0.75
72
0.91
140
0.85
162
0.88
167
0.75
153
1.75
226
1.26
128
0.91
165
1.49
171
1.65
192
0.85
102
0.81
161
0.56
150
3.12
179
1.49
134
1.02
159
1.02
187
2.33
115
0.75
124
7.42
203
6.70
169
0.81
204
0.69
161
0.88
116
1.45
178
2.17
134
0.87
99
CFNet_pseudotwo views1.65
147
0.78
87
0.82
120
0.82
160
0.79
158
0.69
143
0.42
111
0.93
87
0.53
102
0.95
131
0.81
133
0.88
110
0.81
161
0.81
203
15.70
239
1.39
107
0.74
76
0.71
91
7.24
239
0.77
127
0.97
61
1.50
80
0.69
175
0.57
123
0.88
116
0.89
107
1.47
82
1.12
137
GCAP-BATtwo views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
test_for_modeltwo views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
testlalala2two views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
testlalalatwo views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
testlalala_basetwo views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
GCAP-Stereotwo views1.68
148
0.92
142
0.51
61
0.38
43
0.40
54
0.45
63
0.31
67
1.31
138
0.41
62
0.78
84
0.51
60
2.09
201
0.43
56
0.30
40
1.95
74
1.95
172
13.44
291
0.62
62
2.57
124
0.59
70
8.07
216
1.98
90
0.48
83
0.47
80
0.67
65
0.64
65
2.20
140
0.83
89
test-3two views1.73
154
1.00
176
1.08
176
0.63
119
0.60
113
0.55
101
0.43
114
1.99
216
0.39
53
0.86
107
0.54
70
1.45
171
0.53
79
0.41
92
2.20
108
1.41
112
0.81
98
0.79
118
6.57
220
0.69
105
5.20
175
11.52
252
0.46
71
0.54
114
0.86
109
0.97
120
3.11
212
0.98
114
test_1two views1.73
154
1.01
178
1.08
176
0.63
119
0.60
113
0.55
101
0.43
114
1.99
216
0.39
53
0.86
107
0.54
70
1.45
171
0.54
84
0.41
92
2.20
108
1.42
115
0.80
89
0.79
118
6.57
220
0.69
105
5.20
175
11.52
252
0.46
71
0.54
114
0.87
113
0.97
120
3.11
212
0.98
114
test_3two views1.73
154
1.02
182
1.05
167
0.65
121
0.61
117
0.55
101
0.43
114
1.96
212
0.38
51
0.88
115
0.52
66
1.45
171
0.54
84
0.40
86
2.20
108
1.40
109
0.81
98
0.81
126
6.56
219
0.71
114
5.08
168
11.49
249
0.43
60
0.49
95
0.96
133
1.09
137
3.23
217
0.98
114
CREStereo++_RVCtwo views1.73
154
0.91
136
1.03
163
0.51
85
0.56
105
0.40
53
0.28
61
1.37
152
0.51
96
0.83
100
0.61
83
0.76
81
0.85
171
0.34
58
2.78
156
3.07
206
0.92
133
0.61
58
2.72
141
0.55
58
5.01
167
5.69
156
0.53
114
0.38
49
0.94
128
0.84
100
12.80
287
0.98
114
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
GEStereo_RVCtwo views1.80
158
0.96
163
0.99
157
1.02
182
0.87
165
1.12
199
1.03
192
1.66
188
0.82
154
0.91
121
0.79
127
1.34
163
0.75
148
0.61
166
2.25
115
2.14
183
1.14
175
1.23
225
4.06
180
1.22
186
4.66
161
11.41
248
0.71
178
0.95
200
0.88
116
0.97
120
2.49
175
1.65
178
NaN_ROBtwo views1.84
159
1.11
192
1.04
166
0.95
173
1.77
238
0.86
167
0.91
180
1.32
145
10.70
295
1.00
136
1.38
186
2.45
220
0.89
175
1.12
233
4.34
208
1.29
93
0.92
133
0.88
150
1.49
80
1.14
179
1.42
102
2.02
96
0.76
185
1.03
203
1.30
188
2.01
226
2.38
163
3.27
226
sCroCo_RVCtwo views1.85
160
0.67
41
0.55
74
0.37
41
0.49
81
0.75
153
0.41
105
0.94
90
1.56
220
1.51
172
0.78
126
1.04
136
0.94
186
0.48
130
2.49
130
5.07
244
1.26
190
1.22
222
2.53
123
1.37
194
7.95
214
11.14
241
0.45
69
0.60
136
0.94
128
1.12
141
2.34
155
1.05
129
ETE_ROBtwo views1.85
160
1.93
250
1.18
197
1.04
184
1.33
215
1.26
215
1.12
199
1.11
105
2.30
247
1.36
162
3.26
223
3.18
234
0.94
186
1.14
235
2.62
142
1.51
136
2.14
237
0.99
180
2.50
122
1.15
181
3.67
149
5.74
159
0.86
214
1.03
203
1.21
169
1.36
168
2.30
149
1.68
180
LALA_ROBtwo views1.85
160
2.17
254
1.13
188
1.05
186
1.26
207
1.16
204
1.01
186
1.17
113
1.46
212
2.06
204
2.82
215
3.47
236
0.92
181
0.93
216
3.90
202
1.46
128
1.36
201
1.18
216
2.20
110
1.31
192
2.84
139
5.10
145
0.77
190
1.01
201
1.24
178
1.41
174
3.89
242
1.77
183
MLCVtwo views1.91
163
0.87
119
0.97
152
1.33
215
1.13
198
0.99
188
0.74
160
2.14
229
0.77
150
2.02
199
4.44
233
1.60
182
1.56
214
0.45
116
2.63
144
1.79
163
1.11
171
0.96
173
6.71
226
1.05
170
4.69
163
5.60
154
0.66
165
1.60
227
1.14
163
1.35
166
2.31
151
1.06
131
RAFT + AFFtwo views1.96
164
0.49
24
0.42
44
0.41
59
0.20
18
0.41
58
0.19
32
0.65
39
0.23
24
0.56
37
0.27
24
0.77
85
0.21
24
0.29
38
39.69
257
0.90
34
0.62
43
0.35
11
1.92
100
0.38
23
0.77
38
0.57
22
0.32
24
0.27
29
0.71
78
0.33
25
0.58
14
0.29
19
DDUNettwo views2.05
165
2.73
261
2.03
249
2.92
259
2.66
262
3.04
260
2.76
246
1.17
113
1.11
189
1.60
176
1.21
174
2.23
212
1.69
217
2.81
262
2.04
94
1.25
89
2.78
244
2.42
278
2.63
132
2.90
257
1.92
126
2.11
98
2.77
265
0.92
199
1.01
139
0.93
113
2.50
176
1.10
133
CASStwo views2.08
166
1.02
182
1.16
195
1.28
210
0.99
179
0.88
173
3.39
254
1.42
157
1.02
179
1.30
159
2.46
214
1.14
149
0.81
161
0.46
120
2.70
151
2.38
192
3.41
250
1.10
201
3.40
169
1.18
183
8.01
215
8.63
191
0.66
165
0.69
161
1.49
213
1.27
159
2.52
178
1.41
164
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HUFtwo views2.12
167
0.70
49
0.53
70
0.35
35
0.25
24
0.29
26
0.16
25
0.81
64
0.29
34
0.49
32
0.24
19
0.61
43
0.43
56
0.27
33
21.42
246
21.17
304
0.56
34
0.52
36
2.25
113
0.54
52
1.58
109
1.03
60
0.42
55
0.34
40
0.51
42
0.30
18
0.76
28
0.47
33
s12784htwo views2.23
168
1.12
193
1.32
211
1.12
192
0.91
171
0.59
119
0.39
95
1.37
152
0.65
135
1.05
141
0.82
134
1.08
141
0.95
188
0.37
73
2.80
158
4.82
240
0.93
137
0.71
91
3.28
166
0.58
67
7.80
208
8.40
190
0.51
106
0.54
114
1.50
215
1.13
144
11.58
281
3.94
234
R-Stereo Traintwo views2.23
168
1.01
178
1.14
190
0.96
174
0.63
125
0.73
151
0.31
67
1.30
135
1.01
177
1.68
182
4.49
234
1.29
159
0.70
128
0.42
102
2.49
130
3.99
228
1.66
214
1.02
187
6.77
228
1.11
174
7.83
209
12.24
263
0.49
93
0.54
114
1.42
203
1.66
203
1.34
69
1.93
190
RAFT-Stereopermissivetwo views2.23
168
1.01
178
1.14
190
0.96
174
0.63
125
0.73
151
0.31
67
1.30
135
1.01
177
1.68
182
4.49
234
1.29
159
0.70
128
0.42
102
2.49
130
3.99
228
1.66
214
1.02
187
6.77
228
1.11
174
7.83
209
12.24
263
0.49
93
0.54
114
1.42
203
1.66
203
1.34
69
1.93
190
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
EGLCR-Stereotwo views2.26
171
0.87
119
1.17
196
0.45
73
0.48
78
0.61
125
0.23
42
0.83
69
0.55
109
0.72
66
0.53
68
0.80
90
0.66
120
0.41
92
2.36
122
2.92
202
0.90
126
1.10
201
3.35
168
0.60
78
5.09
169
12.56
276
0.47
80
0.45
76
0.89
120
0.91
111
20.21
296
0.86
97
cross-rafttwo views2.26
171
0.88
127
1.08
176
0.73
136
0.68
136
0.64
132
0.44
118
2.04
224
0.61
125
0.95
131
1.30
177
1.03
132
0.76
153
0.43
106
2.58
139
5.15
245
0.99
151
0.78
115
7.00
235
1.80
228
12.15
256
10.30
218
0.65
162
0.60
136
1.60
225
1.92
219
1.66
101
2.36
207
AnonymousMtwo views2.27
173
0.64
33
0.44
47
0.51
85
0.32
35
0.49
82
0.24
45
1.70
190
0.48
84
0.75
73
2.06
207
0.70
63
0.47
65
0.39
82
2.47
129
3.26
211
0.99
151
1.03
190
1.88
98
2.37
248
4.85
164
6.68
168
0.57
132
0.47
80
0.53
45
0.65
72
11.71
283
14.52
275
Anonymous3two views2.32
174
0.85
114
0.88
133
0.56
98
1.10
192
0.89
176
0.70
157
2.45
247
1.12
190
1.05
141
0.98
157
2.57
225
1.14
204
0.56
150
4.14
207
9.30
272
1.50
208
1.47
240
5.33
193
1.49
208
6.83
193
10.10
208
0.71
178
0.67
158
1.08
149
1.38
169
2.32
152
1.35
160
RAFT-Testtwo views2.37
175
0.85
114
1.14
190
1.02
182
0.65
127
0.58
116
0.51
129
2.18
234
0.70
144
1.12
146
5.37
244
0.97
123
0.92
181
0.45
116
2.50
133
5.29
250
0.99
151
0.80
123
6.96
234
1.11
174
10.85
253
10.83
234
0.67
168
0.58
127
1.51
217
1.82
214
1.38
73
2.18
201
RYNettwo views2.42
176
0.40
19
0.35
32
0.29
23
0.32
35
0.40
53
0.25
48
0.61
33
0.55
109
0.33
19
0.36
39
0.40
22
0.26
29
0.27
33
52.29
297
0.69
20
0.47
22
1.00
185
0.54
20
0.29
14
0.50
14
0.37
9
0.38
40
0.32
35
0.57
51
1.24
155
1.31
68
0.50
36
CSANtwo views2.48
177
1.26
214
1.12
186
1.46
224
1.78
241
1.13
200
0.90
178
1.50
164
10.52
294
2.40
220
3.81
229
4.12
247
2.51
229
0.96
220
3.83
201
1.27
91
1.29
193
1.05
197
3.24
162
1.70
224
3.71
150
4.45
128
0.79
195
1.38
222
1.39
198
3.93
258
2.43
167
2.96
218
ADLNettwo views2.50
178
0.99
171
0.73
100
0.62
114
0.75
147
0.63
129
0.53
131
1.12
106
0.61
125
0.58
42
0.71
111
1.61
184
0.61
108
0.87
207
46.09
274
1.02
46
0.70
60
0.67
80
0.85
39
0.74
121
0.75
37
1.07
64
0.51
106
0.47
80
0.94
128
0.93
113
1.63
100
0.70
69
Any-RAFTtwo views2.54
179
0.94
152
1.27
209
0.75
139
0.75
147
0.50
85
0.40
101
1.99
216
0.56
114
0.87
109
6.98
275
1.50
176
0.51
76
0.40
86
2.50
133
3.41
215
0.91
127
0.90
154
6.78
230
0.75
124
14.26
289
10.61
225
0.67
168
0.59
134
1.63
226
1.83
215
2.17
134
4.22
236
GwcNet-ADLtwo views2.54
179
1.23
207
1.55
224
1.22
207
1.26
207
0.97
184
0.78
162
1.50
164
0.84
156
3.20
244
6.67
261
1.86
192
1.05
198
0.79
199
4.58
209
4.90
242
1.47
207
0.90
154
5.20
191
1.95
236
6.39
188
10.33
219
0.91
217
1.12
211
1.22
174
1.93
220
2.15
131
2.70
212
Reg-Stereo(zero)two views2.60
181
0.80
92
1.38
212
0.70
131
0.75
147
0.56
107
0.62
151
3.07
264
0.68
140
3.56
252
6.85
271
1.50
176
0.84
168
1.38
245
2.08
96
5.28
248
1.28
191
0.83
131
6.55
217
1.51
213
5.18
173
13.34
288
0.60
146
0.60
136
1.08
149
1.44
175
4.02
245
3.66
230
HItwo views2.60
181
0.80
92
1.38
212
0.70
131
0.75
147
0.56
107
0.62
151
3.07
264
0.68
140
3.56
252
6.85
271
1.50
176
0.84
168
1.38
245
2.08
96
5.28
248
1.28
191
0.83
131
6.55
217
1.51
213
5.18
173
13.34
288
0.60
146
0.60
136
1.08
149
1.44
175
4.02
245
3.66
230
EAI-Stereotwo views2.60
181
0.90
132
1.57
225
0.90
166
1.31
213
0.84
163
1.31
208
2.22
237
1.34
204
0.81
98
5.69
247
1.37
167
0.83
167
0.50
136
4.76
210
5.32
251
0.91
127
0.94
165
7.45
241
1.11
174
9.07
233
10.78
233
0.62
151
0.85
191
1.45
210
2.06
227
3.36
224
1.90
188
PSMNet-ADLtwo views2.61
184
0.95
158
1.12
186
1.14
199
1.18
203
0.97
184
0.85
173
1.78
196
1.26
197
3.49
251
6.09
253
1.43
170
2.78
236
0.56
150
2.93
163
10.59
275
1.31
194
0.96
173
5.96
208
1.20
185
6.66
190
9.11
200
0.86
214
0.82
185
1.10
158
1.44
175
2.85
202
1.10
133
PWC_ROBbinarytwo views2.61
184
1.20
205
1.48
219
0.96
174
1.05
184
1.21
211
1.79
229
1.24
125
1.94
238
1.81
191
3.61
228
2.12
207
2.96
239
0.91
213
9.88
224
4.30
233
1.97
232
1.95
258
3.72
175
1.62
219
5.58
178
7.59
181
0.81
204
1.98
246
1.35
193
1.27
159
3.11
212
3.07
221
MSMDNettwo views2.69
186
0.87
119
1.07
173
0.57
101
0.65
127
0.59
119
0.49
126
2.03
222
0.62
131
1.03
137
0.97
156
1.05
139
12.04
275
0.50
136
2.60
140
5.56
253
1.05
165
0.80
123
6.93
233
1.42
199
11.49
255
12.49
273
0.67
168
0.58
127
1.48
211
1.83
215
1.28
65
1.97
193
HHtwo views2.75
187
0.67
41
1.42
215
0.80
155
0.71
140
0.88
173
1.09
197
1.86
204
0.87
158
5.19
290
0.66
94
1.91
194
0.86
172
0.57
154
2.65
145
8.48
270
0.87
112
0.94
165
6.36
212
1.39
197
13.52
276
12.32
265
0.79
195
0.58
127
1.38
195
1.63
201
3.81
239
2.06
195
HanStereotwo views2.75
187
0.67
41
1.42
215
0.80
155
0.71
140
0.88
173
1.09
197
1.86
204
0.87
158
5.19
290
0.66
94
1.91
194
0.86
172
0.57
154
2.65
145
8.48
270
0.87
112
0.94
165
6.36
212
1.39
197
13.52
276
12.32
265
0.79
195
0.58
127
1.38
195
1.63
201
3.81
239
2.06
195
MSKI-zero shottwo views2.77
189
0.80
92
1.10
180
0.74
138
0.59
110
0.67
139
0.54
133
1.87
206
0.97
170
0.88
115
6.73
263
1.60
182
0.72
134
0.43
106
3.38
185
7.92
268
1.20
183
0.87
141
6.85
232
4.65
270
10.45
250
12.15
260
0.55
122
0.71
166
1.49
213
1.96
224
1.85
111
3.12
223
PWCDC_ROBbinarytwo views2.78
190
0.70
49
0.65
89
0.61
111
0.87
165
0.63
129
0.57
141
1.04
100
1.59
221
0.65
55
1.88
197
0.80
90
3.28
244
0.73
188
41.04
261
2.18
184
1.23
186
0.98
177
1.52
83
0.97
162
2.56
136
5.26
149
0.68
172
0.81
182
0.74
86
0.94
115
1.13
57
0.97
112
GANet-ADLtwo views2.79
191
0.89
129
1.20
203
1.00
181
1.00
180
1.20
210
0.80
168
1.20
118
1.00
175
3.59
254
6.59
260
1.06
140
0.76
153
0.48
130
12.27
229
4.90
242
1.57
211
0.92
158
6.59
222
1.66
222
6.93
197
11.51
251
0.68
172
0.80
178
1.09
153
1.40
173
2.47
171
1.85
185
iResNettwo views2.79
191
0.95
158
0.91
140
1.35
217
1.69
233
1.41
221
1.02
189
1.81
201
1.09
186
2.62
225
5.14
241
1.80
190
2.38
225
0.46
120
10.35
225
7.64
266
1.36
201
1.23
225
6.83
231
1.78
227
10.05
243
4.09
126
0.61
149
2.02
247
1.10
158
1.50
186
2.80
200
1.39
163
NVstereo2Dtwo views2.81
193
0.82
100
0.74
103
0.69
129
0.78
156
0.92
178
0.81
169
1.18
117
0.76
149
0.91
121
1.06
161
0.80
90
0.55
90
0.71
187
52.63
299
1.47
131
0.86
109
0.83
131
1.42
75
0.69
105
1.12
77
0.94
53
0.76
185
0.83
188
1.08
149
0.78
86
0.98
43
0.74
72
DCVSM-stereotwo views2.89
194
0.92
142
1.57
225
1.31
214
1.04
182
1.53
227
0.99
184
2.96
262
1.33
203
3.46
249
6.20
254
6.77
267
2.59
231
0.87
207
2.25
115
4.01
230
1.37
203
1.11
205
7.05
237
4.27
265
6.91
194
6.70
169
1.25
232
2.64
271
1.30
188
1.73
209
3.46
228
2.47
208
MIPNettwo views2.89
194
0.91
136
0.77
108
0.49
78
0.65
127
0.55
101
0.57
141
1.34
149
0.53
102
2.05
202
0.99
158
0.80
90
0.77
156
0.48
130
40.89
260
1.61
150
1.15
179
0.94
165
3.25
163
1.19
184
1.15
80
9.31
201
0.57
132
0.62
143
1.24
178
1.51
187
2.90
206
0.82
86
DAStwo views2.93
196
0.99
171
1.06
171
1.13
194
1.05
184
1.03
194
1.04
193
1.74
194
1.81
233
3.32
246
5.70
248
2.61
226
3.08
241
0.50
136
3.19
181
7.47
263
1.83
221
1.23
225
5.90
205
1.83
229
12.92
266
10.26
215
0.76
185
1.94
242
1.32
190
1.51
187
2.60
188
1.31
156
SepStereotwo views2.93
196
0.99
171
1.06
171
1.13
194
1.05
184
1.03
194
1.04
193
1.74
194
1.81
233
3.32
246
5.70
248
2.61
226
3.08
241
0.50
136
3.19
181
7.47
263
1.83
221
1.23
225
5.90
205
1.83
229
12.92
266
10.26
215
0.76
185
1.94
242
1.32
190
1.51
187
2.60
188
1.31
156
model_zeroshottwo views2.99
198
0.75
72
1.18
197
1.86
236
0.74
145
0.59
119
0.56
139
1.94
210
0.63
132
3.88
262
6.88
273
1.41
169
0.66
120
0.68
180
5.34
215
4.82
240
1.18
181
0.96
173
7.09
238
1.03
167
12.99
269
9.02
198
0.54
119
0.65
154
5.42
271
1.66
203
2.16
133
6.22
254
IPLGtwo views3.01
199
0.75
72
0.63
84
0.42
65
0.52
94
0.54
98
0.51
129
1.63
185
0.35
47
0.62
50
0.59
81
0.77
85
0.66
120
0.46
120
51.49
291
1.67
157
1.02
159
0.92
158
3.51
171
0.63
92
0.99
63
5.97
161
0.49
93
0.48
92
0.80
94
1.16
148
2.86
203
0.71
70
MFMNet_retwo views3.01
199
1.41
227
1.48
219
1.53
227
1.87
246
1.96
242
2.01
236
2.67
258
2.16
244
1.60
176
1.98
201
3.57
238
2.65
233
1.02
224
6.96
221
4.19
232
2.67
242
1.96
259
6.48
216
2.40
250
14.04
283
4.97
137
1.86
255
1.97
244
1.38
195
1.33
164
3.31
222
1.94
192
test-1two views3.02
201
0.66
40
1.14
190
0.60
109
0.58
108
0.75
153
0.63
153
1.96
212
0.82
154
4.00
264
5.48
245
2.18
210
0.80
160
0.41
92
4.00
204
7.32
262
1.18
181
1.19
218
6.72
227
7.57
284
10.78
251
12.94
285
0.54
119
0.60
136
1.40
201
1.78
211
2.89
205
2.52
209
RTSCtwo views3.08
202
0.95
158
1.25
208
0.76
143
0.91
171
0.96
181
1.84
231
1.15
111
1.34
204
2.37
217
2.12
208
1.11
145
0.99
192
1.02
224
41.50
263
1.94
171
1.88
225
1.22
222
4.09
181
1.06
171
2.76
138
4.02
124
0.63
156
1.03
203
0.83
101
0.99
126
2.44
168
1.98
194
pcwnet_v2two views3.22
203
0.81
98
0.94
144
0.92
170
1.12
195
0.94
179
0.70
157
1.17
113
0.88
160
2.04
201
1.10
163
1.09
144
1.00
193
1.27
241
47.63
277
1.56
144
0.96
144
0.87
141
6.63
223
0.81
137
2.45
133
3.52
117
1.01
223
0.75
171
1.04
144
1.16
148
2.44
168
2.23
204
IPLGRtwo views3.25
204
0.89
129
0.81
117
0.65
121
0.66
132
0.50
85
0.42
111
1.14
110
0.44
73
2.02
199
1.30
177
0.86
103
0.74
144
0.47
124
50.44
286
1.86
166
1.15
179
1.11
205
3.23
157
1.37
194
1.41
101
7.71
182
0.56
129
0.70
165
1.39
198
1.55
192
3.46
228
0.92
107
IGEV_Zeroshot_testtwo views3.38
205
0.83
103
1.84
239
2.82
256
0.69
138
2.37
251
1.26
207
2.23
238
0.94
168
4.40
269
6.76
264
2.28
215
1.01
194
0.45
116
2.83
159
7.72
267
0.87
112
0.77
111
5.93
207
1.87
231
8.49
229
12.88
284
0.58
140
0.69
161
1.40
201
1.57
193
14.84
293
2.99
219
SHDtwo views3.38
205
1.01
178
1.68
231
1.14
199
1.07
189
1.14
201
1.78
228
1.61
184
1.66
224
2.40
220
3.05
219
1.63
186
2.43
227
0.84
205
40.11
258
2.04
179
1.74
216
1.40
237
4.17
182
1.88
232
3.81
151
5.43
152
0.70
176
1.67
230
1.86
240
1.46
179
1.97
121
1.59
173
FADNet_RVCtwo views3.44
207
1.21
206
1.19
200
1.40
218
1.78
241
0.99
188
1.75
226
1.50
164
1.19
196
1.35
161
2.01
205
1.96
197
1.63
215
1.66
251
22.11
247
3.36
214
1.83
221
2.82
287
5.63
202
1.76
226
6.35
187
9.50
202
0.77
190
1.39
224
1.21
169
1.48
180
12.05
284
2.87
216
FC-DCNNcopylefttwo views3.48
208
1.59
240
4.19
283
2.76
255
2.30
250
3.10
262
1.73
225
2.57
253
1.72
226
2.88
234
1.36
184
2.15
208
1.21
205
0.68
180
6.32
217
1.61
150
1.31
194
1.03
190
7.90
245
0.95
159
8.85
231
8.73
194
0.82
208
1.69
234
3.19
261
2.50
243
4.67
250
16.15
279
HSM-Net_RVCpermissivetwo views3.49
209
1.07
189
1.10
180
1.70
231
1.17
202
0.90
177
0.61
150
2.29
244
1.07
184
2.77
230
5.82
250
41.08
301
1.35
212
0.50
136
2.40
123
1.74
160
1.10
167
0.77
111
1.99
104
1.13
178
6.78
192
6.90
174
0.80
200
2.23
256
1.64
228
1.49
183
2.14
129
1.75
182
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RTStwo views3.53
210
1.15
196
0.98
155
0.97
177
1.26
207
1.33
217
3.31
251
1.33
146
1.50
216
2.37
217
1.20
171
1.75
188
1.12
202
0.88
210
42.78
266
2.37
190
1.94
229
1.33
234
3.94
176
1.62
219
3.62
147
5.21
147
1.02
224
1.09
209
1.83
238
5.05
264
2.33
153
2.13
197
RTSAtwo views3.53
210
1.15
196
0.98
155
0.97
177
1.26
207
1.33
217
3.31
251
1.33
146
1.50
216
2.37
217
1.20
171
1.75
188
1.12
202
0.88
210
42.78
266
2.37
190
1.94
229
1.33
234
3.94
176
1.62
219
3.62
147
5.21
147
1.02
224
1.09
209
1.83
238
5.05
264
2.33
153
2.13
197
XQCtwo views3.58
212
1.29
219
1.21
204
1.28
210
1.43
221
1.29
216
1.93
234
1.60
181
1.45
210
2.47
222
3.06
220
1.48
174
4.17
247
1.23
240
44.68
272
2.35
188
1.60
212
1.18
216
3.95
179
1.43
201
3.22
146
4.97
137
0.84
211
1.24
217
1.43
206
2.09
231
2.30
149
1.52
168
FCDSN-DCtwo views3.63
213
0.94
152
2.84
269
1.29
212
1.30
212
1.03
194
1.00
185
0.90
83
0.91
165
1.04
140
0.74
116
1.21
155
0.74
144
0.58
156
52.59
298
2.04
179
1.24
187
1.13
209
1.05
53
0.79
132
6.62
189
10.01
206
0.78
192
2.18
251
1.20
168
1.67
206
1.20
61
1.05
129
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views3.64
214
1.48
234
1.03
163
1.98
241
1.75
237
2.09
245
5.14
266
2.15
230
2.23
245
1.73
186
1.57
190
2.49
222
4.83
250
5.73
281
12.78
230
1.73
159
1.22
184
1.06
198
5.43
196
1.54
216
12.24
259
9.06
199
1.52
248
1.16
213
2.29
246
3.46
254
3.05
211
7.63
259
NOSS_ROBtwo views3.67
215
1.38
226
0.81
117
1.15
203
1.16
201
1.15
202
0.65
154
2.25
240
1.41
208
4.85
277
6.68
262
6.78
268
1.06
199
0.82
204
11.52
228
14.58
288
1.34
197
1.17
213
2.93
151
0.98
163
14.13
284
12.82
280
0.79
195
1.48
225
1.13
162
1.48
180
3.41
225
1.25
151
FC-DCNN v2copylefttwo views3.76
216
1.64
241
4.17
282
2.93
261
2.32
252
3.38
263
1.67
221
2.65
256
2.92
257
2.86
233
1.36
184
2.62
228
1.33
210
0.68
180
6.35
218
1.65
154
1.31
194
1.00
185
8.25
246
0.94
157
8.74
230
8.73
194
0.82
208
1.68
231
4.68
268
3.34
253
7.40
269
15.96
278
gcap-zeroshottwo views3.80
217
0.78
87
1.44
217
1.88
237
0.67
133
1.15
202
1.31
208
2.09
228
0.65
135
5.43
296
7.00
276
2.87
231
0.70
128
0.31
48
2.44
126
5.25
247
0.94
138
0.91
157
36.08
284
1.25
188
8.46
228
10.60
224
4.00
272
0.62
143
1.44
207
1.49
183
1.34
69
1.53
169
AIO-Stereo-zeroshotpermissivetwo views3.88
218
1.16
200
2.03
249
1.15
203
0.83
163
1.77
237
1.13
200
2.03
222
3.32
265
2.90
235
7.02
277
2.32
217
2.01
220
0.38
78
3.61
190
9.96
273
1.34
197
1.07
199
6.67
224
6.11
279
8.45
227
12.70
277
0.56
129
1.27
219
1.76
235
1.48
180
16.62
295
5.17
244
UDGtwo views3.91
219
2.76
262
2.09
251
2.92
259
2.64
260
2.99
259
2.71
244
1.31
138
1.13
191
1.65
180
1.96
199
2.20
211
1.68
216
2.77
261
48.81
281
1.57
146
3.02
248
2.26
268
2.65
135
2.91
258
3.00
142
3.09
110
2.64
260
1.05
206
1.02
141
1.19
152
2.36
159
1.16
140
PVDtwo views4.10
220
1.44
232
2.12
253
1.41
219
1.58
228
1.68
233
2.10
238
3.06
263
2.66
253
2.85
232
4.32
231
2.46
221
3.63
246
1.27
241
40.43
259
2.72
197
2.19
238
2.11
267
4.71
187
2.46
252
6.18
184
6.10
163
1.02
224
1.74
235
2.32
249
2.44
241
2.90
206
2.66
211
SAMSARAtwo views4.13
221
1.32
221
1.53
222
1.48
225
1.35
216
1.47
225
2.74
245
2.23
238
1.83
235
2.26
214
3.47
227
2.01
200
8.60
260
1.76
255
38.24
255
2.88
199
1.82
220
1.41
238
4.99
189
1.91
233
5.10
170
5.71
158
0.94
219
1.80
237
3.33
263
3.84
256
4.16
247
3.30
228
iRaft-Stereo_20wtwo views4.16
222
1.13
195
2.10
252
2.66
252
1.55
227
1.55
228
1.17
201
1.96
212
1.27
198
5.53
297
6.77
265
1.52
180
1.34
211
0.43
106
3.03
167
5.32
251
0.95
142
0.77
111
5.49
199
1.46
206
8.20
223
12.75
279
0.61
149
0.60
136
1.63
226
25.36
300
11.64
282
5.58
250
SGM-Foresttwo views4.18
223
1.24
208
0.74
103
2.12
244
1.35
216
1.42
222
0.56
139
1.36
150
0.90
163
4.89
279
0.96
152
2.51
224
12.92
278
0.61
166
16.38
240
3.12
208
0.79
86
0.65
76
7.04
236
0.76
126
6.77
191
10.03
207
0.84
211
0.81
182
1.66
230
1.78
211
4.79
255
25.96
294
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ccs_robtwo views4.23
224
1.10
191
1.53
222
1.14
199
0.92
177
1.19
209
1.05
195
2.86
261
1.27
198
4.20
266
35.77
302
8.95
278
1.29
208
0.73
188
3.10
177
6.47
256
1.50
208
1.17
213
5.98
209
1.44
203
10.44
249
11.78
255
0.74
184
2.24
257
1.07
148
1.30
163
2.65
194
2.20
202
DeepPrunerFtwo views4.30
225
1.53
235
0.72
99
2.93
261
5.08
291
2.43
254
3.38
253
0.87
79
4.11
273
0.80
95
1.17
169
0.66
55
0.56
91
0.61
166
45.12
273
2.02
178
1.01
156
0.78
115
2.32
114
0.88
148
1.56
107
1.70
84
0.84
211
0.67
158
29.00
303
1.78
211
2.48
172
1.17
144
MSC_U_SF_DS_RVCtwo views4.33
226
2.25
258
1.45
218
2.41
249
1.94
248
1.93
240
4.82
265
1.96
212
2.59
251
2.96
238
1.96
199
2.49
222
8.10
258
9.76
290
14.02
234
3.47
218
2.04
236
1.98
260
14.27
263
3.33
262
7.23
202
7.20
179
2.89
266
1.85
240
2.43
252
2.85
248
2.19
138
6.62
256
FAT-Stereotwo views4.35
227
1.18
201
2.25
255
1.48
225
1.81
244
1.42
222
1.49
215
3.57
272
1.84
236
3.66
257
6.22
255
6.70
266
2.76
235
1.07
232
6.82
220
15.24
294
2.03
235
2.49
279
5.43
196
8.81
293
13.23
272
12.34
269
0.95
220
2.79
279
1.26
182
2.25
236
2.96
209
5.48
247
ITSA-stereotwo views4.40
228
1.26
214
1.18
197
1.64
229
1.64
230
0.99
188
1.38
212
1.99
216
1.47
214
3.68
259
6.79
266
2.16
209
1.42
213
1.36
244
8.32
222
6.93
259
2.19
238
1.94
257
6.40
214
5.42
274
7.43
204
10.74
232
1.29
236
2.39
263
1.53
219
5.02
263
23.63
299
8.74
261
MFN_U_SF_RVCtwo views4.44
229
1.91
249
1.83
238
2.19
247
1.82
245
2.38
253
4.61
263
2.39
246
1.94
238
4.48
271
11.47
293
3.74
244
2.50
228
4.72
276
20.32
245
3.66
221
1.91
227
1.83
253
11.50
258
3.25
261
7.86
211
6.73
171
1.25
232
3.20
288
1.86
240
3.84
256
2.83
201
3.94
234
STTRV1_RVCtwo views4.49
230
1.26
214
1.01
161
1.62
228
1.11
194
1.76
236
1.25
205
1.50
164
1.40
207
1.75
188
1.60
191
2.72
229
3.31
245
1.00
222
2.61
141
1.77
162
11.19
280
0.96
173
41.25
289
9.01
295
9.10
234
8.68
193
1.19
228
1.66
229
1.68
231
1.59
195
3.90
243
5.32
246
RainbowNettwo views4.65
231
3.75
277
2.70
267
4.56
272
2.98
272
4.16
269
8.75
278
2.05
225
2.01
241
1.90
196
1.12
166
3.61
242
3.00
240
3.60
273
2.70
151
1.89
167
2.97
247
1.54
243
15.27
266
8.73
292
11.07
254
11.30
247
10.70
299
2.22
253
1.73
232
2.30
237
2.76
198
6.13
253
S-Stereotwo views4.68
232
1.15
196
1.74
235
1.75
232
1.63
229
1.65
231
2.24
241
2.75
260
2.15
243
3.32
246
11.59
294
5.97
260
1.74
218
0.88
210
19.04
243
16.28
296
1.81
219
2.39
276
5.64
203
9.35
298
7.13
201
12.52
274
1.61
250
2.64
271
1.24
178
2.08
230
2.88
204
3.26
225
MADNet+two views4.78
233
2.02
253
1.87
242
2.01
242
2.36
254
1.47
225
4.28
261
2.47
249
1.99
240
2.66
226
2.13
209
3.56
237
2.85
238
2.34
258
41.14
262
5.66
254
3.48
252
1.53
242
4.54
185
3.38
263
13.07
271
7.34
180
1.72
252
3.48
290
2.93
257
2.17
234
3.24
219
3.29
227
ADCReftwo views4.84
234
1.42
230
1.01
161
0.78
150
1.77
238
1.21
211
1.62
220
0.99
95
5.58
282
1.85
194
1.08
162
1.02
128
0.91
178
1.17
237
54.35
303
1.92
170
1.10
167
1.04
193
3.49
170
1.32
193
1.80
122
3.27
114
2.13
258
0.87
194
2.30
247
4.60
260
2.48
172
29.71
299
SQANettwo views4.87
235
4.55
283
2.13
254
19.76
292
2.63
258
4.99
278
3.29
250
1.63
185
1.45
210
1.20
149
1.40
187
3.22
235
2.40
226
2.76
260
3.09
175
1.20
83
5.19
261
1.07
199
19.89
271
1.28
189
12.48
260
10.73
230
11.37
302
1.49
226
1.57
223
2.32
239
2.66
196
5.86
251
FBW_ROBtwo views4.93
236
2.40
259
2.44
261
2.67
253
2.86
266
2.30
250
4.71
264
1.79
197
1.10
187
2.54
223
2.92
216
4.12
247
5.31
251
6.61
282
50.17
283
1.18
77
1.44
205
0.95
171
8.76
249
1.43
201
8.26
224
5.68
155
4.20
273
1.75
236
1.42
203
1.95
222
1.81
108
2.20
202
ADCP+two views5.07
237
1.54
236
1.72
232
1.08
188
1.54
225
1.18
207
2.02
237
1.02
97
2.72
256
4.05
265
2.23
212
2.24
213
0.61
108
0.94
218
54.46
304
1.52
139
0.83
102
0.95
171
3.94
176
0.87
147
2.22
132
2.57
106
0.71
178
0.62
143
2.48
253
11.25
283
7.85
272
23.66
290
CBMVpermissivetwo views5.08
238
1.41
227
1.15
194
1.44
223
1.42
220
1.24
213
0.78
162
2.27
242
1.47
214
3.04
240
6.44
258
7.74
271
9.07
263
0.60
164
12.81
231
13.79
284
1.99
233
1.29
231
9.56
251
1.15
181
9.82
238
12.54
275
0.82
208
1.84
239
1.44
207
1.83
215
4.39
249
25.76
293
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
otakutwo views5.09
239
5.20
284
2.27
256
18.45
290
2.89
267
5.73
280
3.63
256
1.44
159
1.46
212
1.31
160
1.42
188
3.59
240
2.63
232
3.22
267
3.07
172
1.30
94
5.55
263
1.14
212
20.28
272
1.49
208
13.81
280
11.25
246
11.85
304
1.91
241
1.56
222
2.06
227
2.52
178
6.49
255
ACVNet_1two views5.24
240
3.87
279
3.60
280
13.80
286
3.48
281
6.00
285
10.57
283
1.60
181
1.79
230
1.55
174
1.30
177
4.40
252
2.80
237
5.43
279
2.42
125
1.39
107
11.59
281
1.72
250
20.91
276
1.50
211
14.41
294
8.16
186
7.22
285
2.84
281
1.73
232
2.19
235
2.61
190
2.72
213
Ntrotwo views5.35
241
6.19
289
2.38
260
8.06
281
2.91
269
4.88
276
6.70
272
1.40
155
1.53
218
1.44
170
1.19
170
3.58
239
2.73
234
3.12
266
3.66
192
1.17
75
6.56
271
1.19
218
32.62
281
1.60
218
14.27
291
11.82
256
11.41
303
2.54
268
1.64
228
2.30
237
2.45
170
5.00
241
EKT-Stereotwo views5.41
242
0.97
165
1.10
180
0.72
133
0.74
145
0.87
169
1.17
201
2.02
221
1.00
175
1.41
168
2.92
216
1.11
145
0.81
161
0.46
120
72.33
313
14.74
289
1.14
175
1.37
236
5.61
201
7.76
285
9.80
237
10.61
225
0.53
114
0.61
142
1.39
198
1.11
138
2.56
185
1.08
132
pmcnntwo views5.52
243
1.54
236
1.51
221
2.64
251
3.13
274
2.07
243
10.40
282
2.61
254
2.65
252
2.55
224
6.41
257
6.23
264
15.93
287
0.58
156
6.75
219
14.92
291
3.87
255
3.34
289
7.45
241
7.76
285
13.60
279
10.19
211
6.30
283
2.29
260
1.57
223
3.30
252
4.69
251
4.80
238
DPSNettwo views5.60
244
1.54
236
1.19
200
1.76
233
2.44
257
2.08
244
1.81
230
1.95
211
2.93
258
2.09
206
5.15
242
9.82
281
6.09
253
8.98
286
14.30
235
12.14
281
4.12
259
3.60
290
17.82
268
8.28
289
12.18
257
14.58
292
3.71
270
3.09
285
2.30
247
2.42
240
2.52
178
2.24
205
ADCMidtwo views5.63
245
2.23
256
2.63
264
1.42
221
2.89
267
2.37
251
3.73
257
1.92
208
2.97
259
1.91
197
3.16
221
2.33
218
2.31
224
1.48
248
50.97
290
3.74
222
1.84
224
1.86
255
7.38
240
1.99
240
4.66
161
5.18
146
2.70
262
1.38
222
2.33
250
8.75
279
6.81
268
21.02
286
ADCLtwo views5.69
246
1.88
246
1.63
228
1.29
212
1.40
219
1.59
230
2.22
240
1.23
122
5.20
280
3.04
240
2.01
205
1.14
149
0.84
168
1.04
230
50.40
285
1.63
153
1.45
206
1.79
251
2.94
153
1.38
196
3.19
144
2.35
100
1.23
231
1.07
208
9.47
287
11.74
285
11.34
280
29.10
298
SANettwo views5.69
246
2.22
255
1.77
236
1.84
234
2.37
255
2.28
248
1.43
213
4.49
282
7.61
289
2.05
202
4.86
239
8.34
277
11.81
274
1.70
252
43.86
270
1.62
152
5.96
265
1.51
241
4.43
184
1.70
224
8.97
232
8.28
187
1.20
229
2.60
269
1.94
243
6.02
272
3.42
227
9.29
264
SPS-STEREOcopylefttwo views5.78
248
1.73
244
1.86
240
2.48
250
1.67
232
2.19
246
1.60
219
2.72
259
1.76
228
3.63
256
6.80
268
4.12
247
2.19
223
1.21
239
13.01
232
12.86
282
2.91
246
2.01
261
47.66
298
2.04
242
14.17
286
13.06
287
1.43
244
2.27
259
2.40
251
1.94
221
3.66
235
2.80
214
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views5.79
249
3.52
272
2.90
270
21.94
295
3.38
279
4.55
271
8.18
276
1.84
202
1.76
228
1.84
192
1.98
201
3.88
245
3.20
243
3.03
264
2.85
160
1.46
128
12.77
287
1.56
244
33.59
282
1.68
223
10.81
252
7.91
184
6.79
284
2.68
277
3.13
260
2.65
245
3.23
217
3.11
222
edge stereotwo views5.88
250
1.88
246
3.14
274
2.14
245
1.80
243
2.47
256
2.43
242
4.51
283
3.45
267
3.97
263
4.84
238
6.45
265
17.40
288
1.04
230
5.09
214
14.91
290
1.80
217
1.66
247
37.39
286
6.28
281
5.99
181
12.74
278
1.44
245
2.02
247
2.12
245
2.11
233
3.75
236
5.99
252
Deantwo views5.89
251
3.71
276
2.59
262
34.77
300
3.99
286
4.60
274
10.86
285
2.26
241
2.39
249
2.16
210
1.55
189
4.68
255
4.76
249
3.30
269
3.03
167
1.76
161
12.09
284
1.65
246
9.86
254
2.04
242
14.16
285
9.89
205
7.35
286
2.66
276
3.36
264
2.91
249
3.53
232
3.13
224
AnyNet_C32two views6.05
252
1.43
231
1.39
214
1.26
209
1.64
230
1.36
219
2.92
247
1.55
177
5.28
281
2.67
228
4.61
236
1.90
193
1.29
208
1.29
243
55.18
305
3.43
217
1.96
231
2.08
264
3.65
172
1.91
233
6.94
198
8.77
196
1.20
229
1.68
231
6.02
274
14.92
291
6.12
261
20.86
285
DDVStwo views6.06
253
1.18
201
1.31
210
1.12
192
1.54
225
1.18
207
1.01
186
2.45
247
1.75
227
3.31
245
80.70
310
6.22
263
1.76
219
1.15
236
3.67
195
6.50
257
2.01
234
1.29
231
5.56
200
4.99
273
10.09
245
12.94
285
0.81
204
1.16
213
1.11
161
1.53
190
4.71
252
2.62
210
G-Nettwo views6.29
254
1.69
242
1.86
240
1.42
221
1.70
235
1.45
224
1.19
204
4.71
284
8.56
290
3.16
242
4.70
237
7.94
272
6.89
255
0.85
206
15.45
238
8.15
269
1.92
228
2.75
283
5.41
195
6.49
282
9.16
235
11.23
245
1.46
246
2.81
280
1.81
236
19.84
296
6.51
266
30.80
300
TRStereotwo views6.31
255
1.25
211
1.93
243
0.85
162
0.61
117
2.29
249
0.86
174
2.21
236
0.54
107
4.40
269
1.34
180
2.24
213
0.75
148
0.45
116
4.08
206
6.55
258
0.80
89
0.85
138
6.04
210
1.45
205
7.60
205
12.13
259
0.55
122
0.49
95
1.44
207
103.74
316
3.24
219
1.61
174
HBP-ISPtwo views6.40
256
1.33
223
2.30
258
1.91
240
1.51
223
1.65
231
0.79
165
2.50
251
1.29
200
4.91
280
6.80
268
1.37
167
0.74
144
14.59
297
52.98
300
19.59
300
1.24
187
1.10
201
6.08
211
8.03
288
12.73
262
16.75
298
0.79
195
1.19
215
1.81
236
2.06
227
3.90
243
2.87
216
SGM-ForestMtwo views6.44
257
10.17
299
6.98
298
4.69
273
2.91
269
6.90
288
9.70
281
7.26
293
4.59
278
4.81
276
6.31
256
9.50
280
9.35
265
0.78
196
3.65
191
1.30
94
6.50
269
0.89
151
11.21
257
1.44
203
6.08
182
6.02
162
1.58
249
1.68
231
9.47
287
11.34
284
12.07
285
16.58
280
CBMV_ROBtwo views6.60
258
1.41
227
1.59
227
2.38
248
1.74
236
1.90
239
1.86
232
6.44
289
1.69
225
5.02
284
7.03
278
9.95
287
11.26
271
0.65
176
38.55
256
7.04
260
2.78
244
1.12
208
9.67
253
2.45
251
9.46
236
11.60
254
0.80
200
1.37
221
4.92
269
12.01
286
4.73
253
18.79
283
ADCStwo views6.69
259
1.97
251
1.94
244
1.41
219
2.24
249
1.84
238
3.00
248
2.08
227
3.97
270
2.66
226
3.26
223
3.01
233
11.48
272
2.01
257
53.18
301
11.65
279
2.72
243
2.59
280
5.10
190
2.24
246
10.43
248
8.65
192
1.76
253
1.97
244
2.57
255
10.58
281
7.51
270
18.68
282
anonymitytwo views6.71
260
0.80
92
1.73
234
1.09
189
0.88
167
0.79
159
0.68
155
2.17
232
0.90
163
3.78
261
97.20
311
1.95
196
0.93
183
0.44
115
2.57
138
7.16
261
0.95
142
0.83
131
6.70
225
1.07
172
7.93
213
12.47
272
0.67
168
0.57
123
1.51
217
1.60
198
20.99
298
2.80
214
ADCPNettwo views7.09
261
1.18
201
3.04
273
1.33
215
3.12
273
1.36
219
8.88
279
2.15
230
3.24
263
4.23
267
7.84
285
1.96
197
15.92
286
1.71
253
49.61
282
3.53
220
1.89
226
1.25
229
19.14
270
3.03
260
5.96
179
4.75
133
4.72
274
1.29
220
3.95
266
5.33
266
3.87
241
27.01
295
IMH-64-1two views7.17
262
3.27
267
3.53
277
4.69
273
3.29
276
4.58
272
5.71
268
3.51
269
3.09
260
1.39
166
1.98
201
4.90
256
10.92
267
4.82
277
52.00
292
4.78
238
3.66
253
2.27
269
12.32
259
1.96
237
6.91
194
10.55
222
7.77
292
2.22
253
6.05
275
4.73
261
13.45
289
9.13
262
IMH-64two views7.17
262
3.27
267
3.53
277
4.69
273
3.29
276
4.58
272
5.71
268
3.51
269
3.09
260
1.39
166
1.98
201
4.90
256
10.92
267
4.82
277
52.00
292
4.78
238
3.66
253
2.27
269
12.32
259
1.96
237
6.91
194
10.55
222
7.77
292
2.22
253
6.05
275
4.73
261
13.45
289
9.13
262
AnyNet_C01two views7.20
264
2.24
257
2.27
256
2.95
263
1.92
247
1.58
229
5.39
267
3.73
277
5.63
283
3.17
243
4.41
232
4.59
254
6.09
253
1.88
256
58.66
307
14.24
285
5.46
262
3.69
291
4.79
188
3.02
259
8.40
226
10.33
219
2.45
259
2.24
257
5.77
272
2.65
245
8.81
276
17.99
281
WAO-6two views7.36
265
2.83
264
2.64
265
8.38
283
2.78
264
3.59
266
8.61
277
3.51
269
3.36
266
1.84
192
2.45
213
5.99
261
8.70
262
3.06
265
50.70
287
2.35
188
13.44
291
1.82
252
8.79
250
2.15
245
14.26
289
12.40
271
3.35
268
2.64
271
7.87
281
5.84
269
4.30
248
11.17
271
WAO-7two views8.11
266
2.98
265
5.46
292
29.83
298
2.32
252
3.09
261
9.23
280
2.48
250
4.20
274
4.67
275
7.60
281
7.98
273
11.78
273
1.64
250
22.32
248
2.11
182
12.00
283
2.79
286
44.95
295
2.13
244
10.06
244
10.12
209
1.37
243
2.49
267
2.97
259
4.35
259
2.94
208
5.06
243
AIO-Stereo-zeroshot1permissivetwo views8.38
267
1.15
196
1.98
246
1.25
208
1.24
206
1.74
235
1.31
208
2.17
232
7.44
288
3.47
250
7.09
279
2.38
219
2.08
222
0.37
73
3.49
189
11.36
278
1.39
204
0.99
180
136.53
312
6.21
280
8.35
225
12.33
267
0.55
122
0.88
195
1.22
174
1.95
222
2.35
157
4.96
240
SGM_RVCbinarytwo views8.49
268
2.77
263
1.77
236
2.88
258
2.31
251
3.42
264
2.70
243
7.78
298
3.92
269
5.57
298
8.42
286
9.89
283
12.92
278
0.68
180
3.72
197
2.10
181
6.63
272
1.11
205
40.78
287
5.93
278
9.99
241
10.27
217
1.97
256
2.17
250
8.79
286
2.97
250
27.36
301
40.51
307
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SFCPSMtwo views8.92
269
1.34
225
1.05
167
1.13
194
1.12
195
1.10
197
0.89
177
1.28
132
1.79
230
2.71
229
5.63
246
4.32
251
7.90
257
1.01
223
5.47
216
5.23
246
1.80
217
1.19
218
162.18
314
4.49
267
7.79
207
9.52
203
0.81
204
1.64
228
1.33
192
1.76
210
3.30
221
3.06
220
ELAS_RVCcopylefttwo views9.07
270
3.30
269
5.65
293
4.08
267
3.41
280
7.21
290
4.01
260
7.69
295
3.75
268
4.97
282
7.74
282
9.89
283
11.00
269
3.00
263
47.69
278
4.33
235
6.53
270
9.70
299
9.64
252
2.89
256
13.54
278
15.79
295
2.75
263
4.07
293
18.38
296
23.86
298
4.94
256
5.18
245
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
271
3.31
270
3.55
279
4.46
270
3.30
278
4.60
274
6.29
271
3.48
267
3.12
262
1.42
169
1.88
197
5.38
258
15.63
285
51.61
310
52.03
294
3.06
205
3.92
256
2.32
272
20.77
274
2.01
241
6.25
185
9.58
204
8.07
296
2.21
252
7.69
280
5.96
271
3.77
237
10.35
269
PWCKtwo views9.19
272
3.84
278
2.76
268
4.81
277
3.48
281
7.14
289
7.79
274
3.92
278
4.66
279
4.66
274
5.84
251
24.68
297
8.47
259
3.24
268
10.95
227
3.27
212
9.48
278
2.36
274
72.75
305
4.94
272
14.76
297
6.95
175
3.68
269
2.40
264
8.01
282
7.55
275
6.35
262
9.51
266
MADNet++two views9.22
273
4.13
282
6.16
295
4.32
269
5.78
295
3.96
267
8.14
275
7.09
292
6.83
287
5.28
293
7.83
284
7.65
270
8.62
261
12.90
292
19.42
244
21.00
303
7.04
274
6.27
294
10.40
255
7.97
287
14.29
292
18.67
301
3.96
271
5.12
297
5.80
273
22.29
297
9.32
277
8.69
260
MeshStereopermissivetwo views9.30
274
2.68
260
2.31
259
4.19
268
2.81
265
4.05
268
1.96
235
8.24
300
9.28
291
5.13
287
8.64
287
11.19
290
12.84
277
0.78
196
52.26
296
15.80
295
4.59
260
1.92
256
22.33
277
1.58
217
15.40
301
19.41
302
1.06
227
2.12
249
8.69
285
5.55
267
10.68
278
15.59
277
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views10.16
275
3.54
273
5.12
291
4.49
271
4.32
290
5.01
279
4.33
262
6.88
291
4.09
272
4.97
282
7.74
282
9.90
285
11.01
270
3.51
272
52.19
295
4.52
237
7.15
275
9.65
298
8.69
248
2.38
249
13.33
274
14.95
294
2.75
263
3.64
292
17.76
295
27.24
303
13.13
288
21.93
287
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views10.31
276
13.11
300
4.84
286
18.55
291
6.95
299
7.98
293
14.39
294
3.69
276
3.28
264
2.90
235
2.15
210
30.28
299
43.63
298
4.40
275
9.01
223
2.66
196
12.71
285
2.73
282
42.35
291
2.87
255
14.87
298
10.21
212
7.77
292
3.03
283
2.66
256
2.98
251
3.46
228
4.84
239
JetBluetwo views10.90
277
9.40
297
6.23
296
8.34
282
6.82
298
10.07
298
10.58
284
5.04
287
3.97
270
2.95
237
4.09
230
9.83
282
9.32
264
8.12
284
48.65
280
14.50
286
6.76
273
5.08
293
7.66
243
3.76
264
13.23
272
17.58
300
8.19
297
3.58
291
11.41
290
18.49
294
12.08
286
28.49
297
LVEtwo views10.96
278
3.63
275
2.68
266
55.15
309
4.03
289
7.50
291
88.91
313
1.93
209
2.44
250
2.26
214
1.69
193
4.48
253
4.75
248
3.42
271
3.44
187
2.21
185
6.03
267
1.84
254
50.68
301
1.97
239
10.14
246
12.19
262
5.54
275
3.12
286
3.75
265
2.46
242
2.99
210
6.76
258
XX-Stereotwo views11.10
279
0.72
57
1.24
206
1.04
184
0.52
94
0.80
160
0.84
170
1.13
108
0.51
96
4.53
273
6.79
266
1.54
181
1.06
199
0.42
102
2.78
156
5.82
255
0.96
144
0.94
165
6.43
215
0.91
151
6.26
186
8.36
189
0.58
140
0.43
70
237.38
316
1.38
169
2.64
192
3.61
229
DGSMNettwo views11.16
280
1.98
252
1.98
246
1.90
239
1.52
224
2.46
255
1.47
214
3.07
264
2.11
242
12.67
304
102.10
312
3.59
240
18.94
291
18.97
302
16.50
241
15.09
292
12.73
286
10.36
301
13.79
262
4.57
268
12.99
269
14.32
291
7.77
292
3.43
289
1.75
234
6.25
273
3.48
231
5.53
248
ACVNet-4btwo views11.58
281
3.99
280
2.60
263
44.40
305
2.71
263
4.98
277
62.31
309
1.85
203
1.79
230
1.63
179
1.25
175
4.22
250
58.75
306
3.34
270
2.27
118
1.21
84
13.33
290
1.70
249
49.50
299
1.93
235
14.47
296
13.72
290
7.40
287
3.13
287
1.55
221
1.89
218
2.20
140
4.61
237
LSM0two views11.61
282
1.70
243
2.94
271
2.71
254
2.41
256
2.76
257
6.88
273
4.22
280
4.26
275
3.67
258
7.57
280
7.41
269
9.43
266
0.98
221
64.90
312
78.60
314
3.43
251
2.37
275
20.39
273
4.80
271
14.29
292
16.21
297
1.30
238
3.06
284
3.29
262
12.44
287
6.06
260
25.31
292
UNDER WATER-64two views11.75
283
7.29
295
4.90
287
17.03
289
7.40
300
8.44
294
16.49
297
8.25
301
4.32
276
4.51
272
3.21
222
17.72
293
15.23
283
8.81
285
46.52
276
10.69
276
13.57
298
3.01
288
12.74
261
8.66
291
14.20
287
12.82
280
11.01
300
4.40
294
6.45
278
18.67
295
8.71
275
22.29
288
SGM+DAISYtwo views11.81
284
3.22
266
3.47
275
3.83
266
3.15
275
4.25
270
3.52
255
7.70
296
10.88
297
5.57
298
9.00
291
9.94
286
13.12
280
1.74
254
22.71
250
18.99
299
3.23
249
2.28
271
15.35
267
8.91
294
15.05
299
17.02
299
1.32
240
4.58
295
24.50
301
31.01
306
32.60
307
41.83
310
MDST_ROBtwo views12.03
285
32.81
306
1.72
232
20.74
294
2.64
260
5.90
284
1.72
224
4.06
279
1.35
206
3.76
260
6.53
259
2.75
230
42.83
297
0.54
144
50.83
289
1.22
87
1.08
166
0.75
105
18.95
269
1.00
164
12.75
265
11.49
249
1.29
236
1.26
218
22.72
300
11.17
282
31.24
304
31.81
302
WAO-8two views12.07
286
5.33
285
4.83
284
26.48
296
4.01
287
6.22
286
11.73
291
3.65
274
6.39
285
28.97
309
41.01
304
8.08
274
18.91
289
20.68
305
3.75
198
3.24
209
9.46
276
2.01
261
53.81
302
5.76
276
9.83
239
11.16
242
6.04
281
2.43
265
8.05
283
7.74
276
6.36
263
9.95
267
Venustwo views12.07
286
5.33
285
4.83
284
26.48
296
4.01
287
6.22
286
11.73
291
3.65
274
6.39
285
28.97
309
41.01
304
8.08
274
18.91
289
20.68
305
3.75
198
3.24
209
9.46
276
2.01
261
53.81
302
5.76
276
9.83
239
11.16
242
6.04
281
2.43
265
8.05
283
7.74
276
6.36
263
9.95
267
JetRedtwo views12.50
288
6.96
294
7.76
299
4.77
276
6.78
297
9.35
296
10.92
286
5.31
288
4.54
277
5.85
300
3.28
225
8.17
276
7.48
256
9.74
289
50.80
288
15.21
293
10.30
279
7.93
295
7.83
244
5.44
275
18.10
304
24.48
305
11.12
301
4.60
296
11.97
291
25.85
301
24.78
300
28.17
296
TorneroNet-64two views13.24
289
6.25
290
5.07
290
34.05
299
3.72
284
9.38
297
16.75
298
3.49
268
12.26
300
2.27
216
5.98
252
17.67
292
34.24
295
14.37
295
47.92
279
3.76
223
13.18
289
2.40
277
36.34
285
9.15
297
13.85
282
12.35
270
5.65
276
2.64
271
14.28
294
14.51
290
3.41
225
12.48
272
ACV-stereotwo views13.36
290
1.90
248
1.63
228
2.10
243
1.15
200
2.97
258
1.36
211
1.72
193
1.86
237
2.96
238
4.89
240
3.67
243
43.88
299
1.13
234
54.14
302
17.43
297
2.38
240
1.31
233
170.74
315
4.64
269
12.73
262
14.68
293
0.97
221
1.83
238
1.25
181
1.49
183
3.53
232
2.32
206
MANEtwo views14.22
291
9.62
298
6.93
297
4.94
279
5.72
294
7.88
292
11.48
288
7.38
294
9.90
293
4.92
281
6.89
274
8.98
279
12.13
276
3.67
274
50.37
284
17.85
298
11.82
282
20.17
306
10.46
256
6.55
283
12.22
258
12.86
282
1.77
254
11.33
302
24.83
302
30.99
305
31.42
305
40.73
308
DispFullNettwo views15.85
292
3.61
274
5.00
289
3.30
264
2.93
271
3.51
265
3.20
249
6.49
290
2.71
255
5.17
288
6.80
268
90.79
309
15.55
284
2.73
259
28.89
253
23.38
305
4.02
257
3.86
292
138.92
313
28.91
306
12.60
261
11.86
257
2.69
261
2.31
261
4.30
267
2.71
247
6.80
267
5.05
242
UNDER WATERtwo views16.39
293
7.86
296
4.99
288
15.68
288
10.73
305
8.76
295
38.30
304
8.07
299
6.02
284
4.25
268
2.98
218
18.63
294
96.18
311
14.44
296
32.70
254
10.29
274
13.91
299
2.75
283
43.73
293
8.62
290
16.83
303
12.33
267
17.08
306
5.55
298
6.06
277
14.49
289
6.37
265
15.05
276
STStereotwo views16.49
294
3.48
271
5.91
294
44.25
304
5.60
293
39.03
308
13.11
293
7.74
297
10.72
296
5.19
290
8.92
288
24.73
298
30.22
294
1.03
229
59.92
310
11.74
280
2.59
241
1.26
230
40.79
288
2.25
247
10.02
242
8.79
197
2.06
257
11.31
301
22.61
299
16.05
292
20.57
297
35.39
304
PSMNet_ROBtwo views16.63
295
5.59
287
2.97
272
3.47
265
2.63
258
5.86
283
6.18
270
2.20
235
2.29
246
5.39
295
141.45
314
97.59
310
6.02
252
33.78
307
3.23
183
1.58
149
4.09
258
1.69
248
20.81
275
2.75
253
12.93
268
7.08
177
63.80
314
2.60
269
2.95
258
3.67
255
2.77
199
3.66
230
DGTPSM_ROBtwo views17.21
296
6.49
291
18.05
302
4.91
278
8.87
301
5.73
280
11.48
288
5.02
285
12.05
298
5.03
286
9.34
292
12.62
291
56.51
305
15.29
298
43.82
269
20.47
301
19.26
302
16.28
303
24.70
278
20.05
302
13.50
275
22.25
303
6.00
279
12.55
303
12.71
292
32.01
308
14.20
291
35.61
306
KSHMRtwo views20.05
297
6.71
293
4.01
281
99.31
313
5.91
296
17.09
301
71.12
311
3.62
273
9.75
292
3.59
254
3.39
226
6.07
262
84.38
310
17.14
300
22.70
249
3.97
227
6.29
268
2.76
285
90.60
308
2.83
254
12.73
262
10.14
210
9.05
298
2.74
278
21.08
298
5.85
270
8.10
273
10.46
270
DPSM_ROBtwo views21.05
298
17.19
301
22.69
304
10.13
284
9.29
303
13.96
299
14.50
295
11.66
302
15.25
302
9.00
301
8.97
289
10.35
288
13.24
281
19.90
303
59.73
308
26.35
306
18.76
300
21.26
307
14.74
264
15.50
300
28.56
307
27.85
307
7.42
288
16.13
306
34.05
306
39.30
311
37.97
309
44.48
311
DPSMtwo views21.05
298
17.19
301
22.69
304
10.13
284
9.29
303
13.96
299
14.50
295
11.66
302
15.25
302
9.00
301
8.97
289
10.35
288
13.24
281
19.90
303
59.73
308
26.35
306
18.76
300
21.26
307
14.74
264
15.50
300
28.56
307
27.85
307
7.42
288
16.13
306
34.05
306
39.30
311
37.97
309
44.48
311
MaskLacGwcNet_RVCtwo views21.23
300
1.32
221
1.63
228
1.89
238
1.69
233
1.93
240
3.75
258
2.27
242
2.66
253
5.02
284
29.10
299
216.12
315
51.87
304
5.44
280
3.66
192
4.09
231
5.59
264
13.75
302
28.77
279
1.47
207
14.44
295
12.86
282
0.98
222
2.33
262
1.88
242
7.40
274
145.78
316
5.57
249
DPSMNet_ROBtwo views22.61
301
6.50
292
18.06
303
4.95
280
8.88
302
5.76
282
11.54
290
5.02
285
12.08
299
5.17
288
28.67
298
19.69
295
163.24
316
15.38
299
43.87
271
20.66
302
19.56
303
16.59
304
35.50
283
20.17
303
13.82
281
22.26
304
6.02
280
12.56
304
12.82
293
32.01
308
14.23
292
35.60
305
DLNR_Zeroshot_testpermissivetwo views23.11
302
81.98
314
1.97
245
102.16
314
0.49
81
0.55
101
81.36
312
2.30
245
0.50
92
4.87
278
2.22
211
2.99
232
0.93
183
12.17
291
96.90
314
144.02
316
34.28
307
19.61
305
8.60
247
4.35
266
8.08
222
6.53
167
0.51
106
0.69
161
1.37
194
1.57
193
1.16
59
1.90
188
TorneroNettwo views24.73
303
6.18
288
3.52
276
95.34
312
3.93
285
27.05
304
29.02
301
4.44
281
18.13
304
2.20
211
37.99
303
77.85
308
72.31
307
18.15
301
41.78
265
3.07
206
13.11
288
2.35
273
87.85
306
9.06
296
15.44
302
12.17
261
5.94
278
2.64
271
52.32
310
8.18
278
3.59
234
14.11
274
LRCNet_RVCtwo views25.94
304
30.78
305
14.74
301
35.18
302
31.16
308
36.52
307
29.93
303
23.08
307
12.70
301
36.15
311
33.37
300
37.24
300
28.56
293
37.11
308
17.47
242
7.61
265
31.06
305
26.75
310
67.49
304
29.07
307
23.47
306
10.73
230
39.23
309
30.61
310
7.37
279
2.53
244
11.22
279
9.31
265
ktntwo views26.84
305
3.99
280
95.18
316
14.39
287
5.44
292
18.02
302
17.50
299
19.69
306
67.27
313
2.84
231
5.30
243
171.03
314
80.75
309
7.72
283
10.93
226
3.48
219
20.95
304
2.71
281
90.26
307
29.10
308
15.05
299
10.23
213
7.60
291
2.93
282
5.12
270
5.83
268
4.73
253
6.62
256
LE_ROBtwo views28.97
306
25.29
304
36.16
308
34.90
301
56.86
314
18.61
303
58.99
308
32.08
309
41.72
308
5.37
294
27.57
297
46.00
302
49.67
302
13.72
294
14.83
236
3.84
226
5.96
265
1.22
222
46.43
296
36.35
310
10.19
247
11.19
244
48.45
310
22.49
308
30.18
304
31.59
307
31.60
306
40.87
309
PMLtwo views39.07
307
38.06
308
12.06
300
39.32
303
29.04
307
40.62
309
11.06
287
14.14
304
100.08
314
27.87
308
166.26
316
107.74
311
159.39
315
13.53
293
15.41
237
10.75
277
35.75
308
8.64
296
42.84
292
10.61
299
14.22
288
16.14
296
5.89
277
7.21
300
53.08
311
13.95
288
42.26
311
19.02
284
CasAABBNettwo views42.72
308
34.60
307
45.66
309
20.17
293
18.55
306
28.05
305
29.13
302
23.25
308
30.69
305
18.73
306
18.11
295
20.72
296
37.90
296
39.93
309
120.54
316
52.80
313
37.72
309
42.56
312
29.30
280
30.56
309
57.58
314
56.66
315
14.58
305
32.34
311
68.46
313
79.09
315
76.31
312
89.48
315
HaxPigtwo views44.53
309
46.75
310
47.32
310
47.72
306
48.79
310
47.60
310
48.40
305
49.50
310
47.10
309
49.76
312
50.31
306
49.00
303
45.26
300
54.49
311
41.50
263
40.24
309
50.15
311
52.05
313
44.74
294
43.04
311
46.61
311
44.38
313
51.78
311
45.43
312
33.92
305
25.30
299
28.66
302
22.43
289
AVERAGE_ROBtwo views46.12
310
48.49
311
48.31
311
49.34
307
50.25
311
48.63
311
49.80
306
50.74
312
48.67
310
51.68
313
52.55
307
50.28
304
47.20
301
55.70
312
43.00
268
40.99
310
52.42
312
54.59
314
47.27
297
45.45
312
48.77
312
44.06
312
52.90
312
46.98
313
35.80
308
26.72
302
30.77
303
23.81
291
HanzoNettwo views47.37
311
45.54
309
75.64
314
62.53
310
47.97
309
62.03
313
90.57
315
55.02
314
58.34
312
15.60
305
22.00
296
75.72
307
107.47
312
172.14
316
23.65
252
13.02
283
62.42
314
9.26
297
134.39
311
22.45
304
19.74
305
25.78
306
31.84
308
5.57
299
9.72
289
9.49
280
8.54
274
12.61
273
MEDIAN_ROBtwo views49.56
312
51.66
312
50.91
312
52.80
308
53.76
312
52.08
312
53.35
307
54.28
313
52.25
311
54.89
314
55.89
308
53.59
305
50.09
303
58.85
313
46.45
275
44.55
311
55.81
313
57.90
315
50.55
300
48.85
313
52.07
313
46.79
314
56.69
313
50.01
314
39.10
309
30.23
304
33.56
308
31.26
301
BEATNet-Init1two views52.60
313
76.96
313
24.06
306
87.02
311
56.48
313
86.86
314
68.77
310
49.65
311
34.71
307
11.93
303
56.24
309
64.63
306
78.72
308
9.65
288
58.40
306
51.35
312
32.72
306
23.00
309
101.24
309
71.98
315
46.49
310
39.72
311
28.67
307
24.23
309
59.12
312
38.23
310
77.99
313
61.49
313
DPSimNet_ROBtwo views111.84
314
179.62
316
74.81
313
195.40
316
165.93
316
136.63
316
98.05
316
126.48
316
138.79
316
82.31
315
148.57
315
159.77
312
157.57
314
78.29
314
64.65
311
40.10
308
142.61
316
34.98
311
195.20
316
69.76
314
154.10
315
32.63
310
82.12
315
98.24
315
71.10
314
51.68
313
117.83
315
122.56
316
ASD4two views121.33
315
129.06
315
88.33
315
102.62
315
80.04
315
113.84
315
90.39
314
120.07
315
107.64
315
132.47
316
137.43
313
163.16
313
128.65
313
95.21
315
111.50
315
121.28
315
132.67
315
105.33
316
131.08
310
144.81
316
247.71
316
229.55
316
96.05
316
105.89
316
113.24
315
67.78
314
92.86
314
87.27
314
FADEtwo views18.09
303
30.60
307
2.84
257
3.65
283
28.71
306
17.79
300
15.65
305
31.19
306
23.58
307
34.50
301
24.85
292
9.63
287
13.75
233
14.56
287
43.43
310
10.05
300
41.89
290
25.16
305
36.12
309
31.14
309
7.48
290
15.57
305
20.22
297
17.05
293
15.03
294
33.84
303