This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.34
40
0.13
1
0.25
7
1.28
395
0.30
230
0.46
139
0.38
191
0.48
12
0.47
62
0.34
16
0.52
47
0.24
1
0.19
2
0.29
1
0.27
37
0.69
386
0.08
1
0.12
2
0.08
1
0.12
9
0.15
111
panettwo views0.27
7
0.14
2
0.23
1
0.28
2
0.15
1
0.37
90
0.23
19
0.52
22
0.72
136
0.42
41
0.51
41
0.34
24
0.26
20
0.39
15
0.25
11
0.15
81
0.11
59
0.12
2
0.08
1
0.11
1
0.10
3
CEStwo views0.28
11
0.14
2
0.23
1
0.30
5
0.70
377
0.37
90
0.27
48
0.48
12
0.46
59
0.34
16
0.48
33
0.27
3
0.22
7
0.39
15
0.23
5
0.13
13
0.11
59
0.12
2
0.08
1
0.13
21
0.17
168
MoCha-V2two views0.25
3
0.15
4
0.29
11
0.40
114
0.18
8
0.27
26
0.26
41
0.49
14
0.27
3
0.36
19
0.27
4
0.33
20
0.35
81
0.49
53
0.22
1
0.12
4
0.10
9
0.12
2
0.10
11
0.13
21
0.11
10
LoStwo views0.29
16
0.15
4
0.30
13
0.29
3
0.18
8
0.33
71
0.29
62
0.51
19
0.72
136
0.34
16
0.52
47
0.41
48
0.28
36
0.47
47
0.28
47
0.15
81
0.11
59
0.13
11
0.09
7
0.11
1
0.11
10
CREStereo++_RVCtwo views0.32
32
0.15
4
0.23
1
0.31
7
0.24
90
0.27
26
0.22
8
0.46
9
0.88
218
0.46
51
0.80
129
0.30
6
0.26
20
0.36
6
0.33
91
0.13
13
0.09
2
0.13
11
0.51
381
0.13
21
0.09
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.36
70
0.15
4
0.24
4
0.34
12
0.15
1
0.77
263
0.29
62
0.80
171
0.83
190
0.56
74
0.57
59
0.43
60
0.40
114
0.57
95
0.33
91
0.12
4
0.10
9
0.14
19
0.09
7
0.14
48
0.09
1
TANstereotwo views0.30
28
0.15
4
0.31
15
0.30
5
0.17
4
0.55
170
0.23
19
0.44
7
0.55
81
0.59
79
0.68
85
0.37
37
0.26
20
0.35
5
0.27
37
0.15
81
0.16
235
0.12
2
0.10
11
0.13
21
0.14
92
CREStereotwo views0.28
11
0.15
4
0.24
4
0.27
1
0.17
4
0.37
90
0.25
35
0.51
19
0.72
136
0.42
41
0.51
41
0.32
12
0.26
20
0.38
13
0.25
11
0.16
115
0.11
59
0.12
2
0.08
1
0.12
9
0.11
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
Any-RAFTtwo views0.35
52
0.16
10
0.30
13
0.34
12
0.21
31
0.52
155
0.22
8
0.88
197
0.73
143
0.53
68
0.73
94
0.64
151
0.28
36
0.46
40
0.24
7
0.15
81
0.10
9
0.13
11
0.10
11
0.13
21
0.12
35
LoS_RVCtwo views0.27
7
0.16
10
0.27
9
0.32
9
0.30
230
0.44
132
0.34
124
0.41
5
0.33
10
0.31
9
0.51
41
0.29
5
0.32
65
0.36
6
0.28
47
0.11
1
0.10
9
0.11
1
0.08
1
0.11
1
0.19
211
EGLCR-Stereotwo views0.25
3
0.16
10
0.33
23
0.34
12
0.20
22
0.35
82
0.20
1
0.52
22
0.36
23
0.28
4
0.27
4
0.41
48
0.18
1
0.45
33
0.26
28
0.14
33
0.10
9
0.16
64
0.14
76
0.13
21
0.11
10
ffftwo views0.37
85
0.16
10
0.41
87
0.34
12
0.19
11
0.29
40
0.30
75
0.69
114
1.06
305
0.69
135
0.78
118
0.42
54
0.63
225
0.46
40
0.34
101
0.14
33
0.10
9
0.14
19
0.11
18
0.11
1
0.13
60
ADStereo(finetuned)two views0.37
85
0.16
10
0.49
188
0.34
12
0.19
11
0.30
47
0.30
75
0.68
105
0.91
235
0.70
141
0.77
110
0.43
60
0.69
259
0.45
33
0.33
91
0.14
33
0.10
9
0.14
19
0.11
18
0.13
21
0.12
35
test-3two views0.34
40
0.16
10
0.43
115
0.39
90
0.21
31
0.43
128
0.22
8
0.63
66
0.78
170
0.71
147
0.45
23
0.64
151
0.27
27
0.43
26
0.31
71
0.12
4
0.09
2
0.17
89
0.13
53
0.12
9
0.10
3
test_1two views0.34
40
0.16
10
0.43
115
0.39
90
0.21
31
0.43
128
0.23
19
0.63
66
0.78
170
0.68
130
0.45
23
0.64
151
0.27
27
0.43
26
0.31
71
0.12
4
0.09
2
0.17
89
0.13
53
0.12
9
0.10
3
DCANettwo views0.36
70
0.16
10
0.41
87
0.34
12
0.19
11
0.30
47
0.30
75
0.68
105
0.91
235
0.70
141
0.77
110
0.43
60
0.57
192
0.45
33
0.34
101
0.14
33
0.10
9
0.14
19
0.11
18
0.13
21
0.12
35
csctwo views0.37
85
0.16
10
0.41
87
0.34
12
0.19
11
0.29
40
0.30
75
0.69
114
1.06
305
0.69
135
0.78
118
0.42
54
0.63
225
0.46
40
0.34
101
0.14
33
0.10
9
0.14
19
0.11
18
0.11
1
0.13
60
cscssctwo views0.37
85
0.16
10
0.41
87
0.34
12
0.19
11
0.29
40
0.30
75
0.69
114
1.06
305
0.69
135
0.78
118
0.42
54
0.63
225
0.46
40
0.34
101
0.14
33
0.10
9
0.14
19
0.11
18
0.11
1
0.13
60
PMTNettwo views0.32
32
0.16
10
0.24
4
0.29
3
0.18
8
0.45
137
0.22
8
0.56
32
0.63
102
0.46
51
0.54
51
0.39
42
0.34
79
0.48
52
0.24
7
0.75
388
0.10
9
0.12
2
0.08
1
0.12
9
0.11
10
LargeStereotwo views0.24
1
0.17
21
0.31
15
0.38
69
0.22
44
0.24
7
0.22
8
0.50
18
0.23
1
0.28
4
0.35
18
0.30
6
0.22
7
0.31
3
0.28
47
0.14
33
0.10
9
0.13
11
0.10
11
0.13
21
0.13
60
MSKI-zero shottwo views0.32
32
0.17
21
0.34
30
0.39
90
0.21
31
0.32
67
0.22
8
0.61
57
0.43
50
0.52
65
0.64
73
0.61
137
0.20
4
0.74
220
0.25
11
0.14
33
0.10
9
0.14
19
0.10
11
0.12
9
0.12
35
MIF-Stereotwo views0.27
7
0.17
21
0.37
49
0.40
114
0.27
178
0.30
47
0.28
55
0.39
2
0.31
7
0.29
7
0.46
27
0.27
3
0.25
14
0.47
47
0.34
101
0.17
148
0.13
156
0.13
11
0.12
32
0.14
48
0.12
35
MIM_Stereotwo views0.38
100
0.17
21
0.53
218
0.37
47
0.24
90
0.27
26
0.24
28
0.70
128
0.54
77
0.72
158
1.00
223
0.63
144
0.29
46
0.64
162
0.38
152
0.13
13
0.14
183
0.17
89
0.16
127
0.14
48
0.11
10
AEACVtwo views0.27
7
0.17
21
0.31
15
0.34
12
0.45
336
0.26
18
0.28
55
0.37
1
0.32
9
0.30
8
0.46
27
0.31
10
0.37
94
0.36
6
0.24
7
0.14
33
0.10
9
0.15
45
0.12
32
0.13
21
0.11
10
MC-Stereotwo views0.28
11
0.17
21
0.32
20
0.38
69
0.20
22
0.26
18
0.26
41
0.49
14
0.37
33
0.37
20
0.61
68
0.41
48
0.31
61
0.55
77
0.25
11
0.13
13
0.09
2
0.14
19
0.12
32
0.12
9
0.11
10
RCA-Stereotwo views0.35
52
0.17
21
0.34
30
0.38
69
0.22
44
0.31
57
0.34
124
0.68
105
1.24
339
0.45
49
0.65
75
0.47
74
0.43
128
0.38
13
0.27
37
0.13
13
0.10
9
0.14
19
0.11
18
0.11
1
0.11
10
HHNettwo views0.41
137
0.17
21
0.41
87
0.34
12
0.37
289
0.33
71
0.34
124
0.69
114
0.75
150
0.86
233
1.30
310
0.52
88
0.32
65
0.52
66
0.35
116
0.15
81
0.11
59
0.19
160
0.15
98
0.15
81
0.24
270
DEmStereotwo views0.48
189
0.17
21
0.50
200
0.38
69
0.25
116
0.59
200
0.34
124
0.63
66
0.74
148
0.89
252
1.66
352
0.58
114
1.06
345
0.60
132
0.42
170
0.14
33
0.11
59
0.16
64
0.16
127
0.14
48
0.15
111
DRafttwo views0.49
205
0.17
21
0.47
162
0.37
47
0.25
116
0.58
191
0.40
217
0.65
77
0.85
200
1.02
308
1.75
360
0.50
83
0.82
304
0.63
155
0.40
163
0.13
13
0.11
59
0.16
64
0.16
127
0.14
48
0.15
111
RAFT-RH_RVCtwo views0.56
259
0.17
21
0.41
87
0.37
47
0.23
72
0.57
189
0.24
28
0.60
51
0.70
125
1.19
341
3.94
407
0.56
101
0.38
97
0.65
169
0.36
132
0.13
13
0.11
59
0.20
184
0.14
76
0.12
9
0.13
60
XX-Stereotwo views0.37
85
0.17
21
0.45
136
0.55
329
0.36
284
0.38
104
0.20
1
0.60
51
0.30
5
0.46
51
1.30
310
0.73
202
0.26
20
0.56
85
0.26
28
0.16
115
0.11
59
0.17
89
0.16
127
0.14
48
0.10
3
111two views0.40
126
0.17
21
0.41
87
0.34
12
0.19
11
0.52
155
0.28
55
0.74
146
1.16
326
0.50
60
0.91
182
0.63
144
0.48
150
0.61
139
0.35
116
0.14
33
0.10
9
0.14
19
0.12
32
0.13
21
0.13
60
RAFT-Stereo + iAFFtwo views0.36
70
0.17
21
0.41
87
0.35
30
0.19
11
0.33
71
0.29
62
0.65
77
0.73
143
0.68
130
1.01
226
0.56
101
0.40
114
0.42
23
0.30
64
0.11
1
0.09
2
0.15
45
0.14
76
0.13
21
0.10
3
CFNet-RSSMtwo views0.34
40
0.17
21
0.45
136
0.39
90
0.22
44
0.35
82
0.23
19
0.73
144
0.84
193
0.65
112
0.54
51
0.57
106
0.28
36
0.46
40
0.26
28
0.13
13
0.10
9
0.14
19
0.12
32
0.13
21
0.11
10
Gwc-CoAtRStwo views0.34
40
0.17
21
0.44
125
0.39
90
0.23
72
0.34
77
0.22
8
0.70
128
0.75
150
0.60
83
0.59
64
0.58
114
0.29
46
0.45
33
0.26
28
0.14
33
0.11
59
0.14
19
0.12
32
0.12
9
0.12
35
StereoIMtwo views0.26
5
0.18
37
0.36
38
0.36
38
0.26
153
0.27
26
0.27
48
0.43
6
0.35
18
0.27
2
0.26
3
0.41
48
0.28
36
0.40
18
0.28
47
0.16
115
0.14
183
0.16
64
0.13
53
0.14
48
0.12
35
IGEV_Zeroshot_testtwo views0.34
40
0.18
37
0.67
277
0.39
90
0.28
197
0.30
47
0.25
35
0.74
146
0.31
7
0.62
89
0.57
59
0.54
96
0.25
14
0.53
72
0.27
37
0.14
33
0.10
9
0.15
45
0.14
76
0.14
48
0.12
35
MIF-Stereo (partial)two views0.31
30
0.18
37
0.37
49
0.41
139
0.31
247
0.28
35
0.23
19
0.47
10
0.42
48
0.31
9
0.63
70
0.36
35
0.35
81
0.57
95
0.31
71
0.17
148
0.13
156
0.19
160
0.17
167
0.18
163
0.14
92
RAFT-Testtwo views0.34
40
0.18
37
0.37
49
0.38
69
0.23
72
0.50
148
0.23
19
0.69
114
0.40
41
0.60
83
0.85
158
0.61
137
0.28
36
0.46
40
0.27
37
0.14
33
0.11
59
0.14
19
0.11
18
0.13
21
0.12
35
4D-IteraStereotwo views0.33
39
0.18
37
0.40
82
0.40
114
0.24
90
0.32
67
0.27
48
0.58
39
0.72
136
0.65
112
0.54
51
0.42
54
0.23
9
0.45
33
0.28
47
0.14
33
0.09
2
0.19
160
0.16
127
0.16
112
0.11
10
Selective-IGEVtwo views0.24
1
0.18
37
0.35
33
0.35
30
0.19
11
0.27
26
0.25
35
0.55
31
0.23
1
0.27
2
0.25
2
0.34
24
0.19
2
0.58
112
0.22
1
0.12
4
0.10
9
0.14
19
0.11
18
0.12
9
0.10
3
DCREtwo views0.37
85
0.18
37
0.46
152
0.45
230
0.32
260
0.42
126
0.37
171
0.63
66
0.51
67
0.47
54
0.94
190
0.56
101
0.36
91
0.52
66
0.32
79
0.14
33
0.13
156
0.15
45
0.14
76
0.14
48
0.13
60
test_4two views0.36
70
0.18
37
0.31
15
0.44
209
0.25
116
0.20
1
0.34
124
0.56
32
0.41
44
0.59
79
1.45
337
0.43
60
0.25
14
0.63
155
0.28
47
0.12
4
0.10
9
0.17
89
0.19
215
0.15
81
0.11
10
CrosDoStereotwo views0.50
218
0.18
37
0.45
136
0.38
69
0.24
90
0.40
108
1.18
381
0.67
96
0.86
205
0.94
276
1.37
320
0.63
144
0.77
289
0.65
169
0.45
194
0.15
81
0.12
101
0.17
89
0.18
190
0.14
48
0.14
92
DeepStereo_LLtwo views0.50
218
0.18
37
0.45
136
0.38
69
0.24
90
0.40
108
1.18
381
0.67
96
0.86
205
0.94
276
1.37
320
0.63
144
0.77
289
0.65
169
0.45
194
0.15
81
0.12
101
0.17
89
0.18
190
0.14
48
0.14
92
THIR-Stereotwo views0.50
218
0.18
37
0.45
136
0.38
69
0.23
72
0.75
260
0.67
324
0.66
86
0.87
214
1.02
308
1.40
326
0.72
192
0.76
285
0.62
145
0.42
170
0.15
81
0.11
59
0.17
89
0.18
190
0.14
48
0.15
111
PFNettwo views0.42
143
0.18
37
0.58
239
0.43
194
0.24
90
0.43
128
0.32
108
0.74
146
0.78
170
1.00
301
0.74
103
0.68
172
0.39
109
0.72
208
0.37
144
0.16
115
0.10
9
0.20
184
0.15
98
0.16
112
0.13
60
RAFT-345two views0.40
126
0.18
37
0.40
82
0.38
69
0.22
44
0.33
71
0.26
41
0.61
57
0.51
67
0.74
171
1.79
361
0.45
66
0.33
73
0.66
174
0.36
132
0.14
33
0.11
59
0.18
123
0.14
76
0.13
21
0.13
60
R-Stereo Traintwo views0.39
114
0.18
37
0.42
106
0.42
176
0.26
153
0.40
108
0.32
108
0.72
137
0.34
11
0.89
252
1.28
306
0.57
106
0.35
81
0.42
23
0.32
79
0.15
81
0.12
101
0.14
19
0.12
32
0.14
48
0.13
60
RAFT-Stereopermissivetwo views0.39
114
0.18
37
0.42
106
0.42
176
0.26
153
0.40
108
0.32
108
0.72
137
0.34
11
0.89
252
1.28
306
0.57
106
0.35
81
0.42
23
0.32
79
0.15
81
0.12
101
0.14
19
0.12
32
0.14
48
0.13
60
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MGS-Stereotwo views0.28
11
0.19
52
0.40
82
0.36
38
0.23
72
0.37
90
0.30
75
0.39
2
0.44
54
0.31
9
0.51
41
0.40
45
0.24
12
0.43
26
0.26
28
0.15
81
0.12
101
0.15
45
0.13
53
0.14
48
0.13
60
DisPMtwo views0.39
114
0.19
52
0.44
125
0.41
139
0.27
178
0.24
7
0.31
92
0.65
77
0.57
86
0.87
240
0.87
165
0.60
133
0.32
65
0.76
227
0.32
79
0.18
176
0.12
101
0.19
160
0.17
167
0.15
81
0.20
231
iRaft-Stereo_20wtwo views0.39
114
0.19
52
0.57
235
0.37
47
0.27
178
0.31
57
0.24
28
1.44
364
0.29
4
0.69
135
0.53
49
0.60
133
0.42
121
0.83
254
0.27
37
0.14
33
0.11
59
0.14
19
0.13
53
0.15
81
0.13
60
GLC_STEREOtwo views0.29
16
0.19
52
0.27
9
0.44
209
0.19
11
0.31
57
0.26
41
0.47
10
0.43
50
0.37
20
0.47
32
0.41
48
0.23
9
0.50
57
0.34
101
0.14
33
0.18
260
0.19
160
0.16
127
0.16
112
0.13
60
GMOStereotwo views0.37
85
0.19
52
0.38
58
0.43
194
0.24
90
0.37
90
0.38
191
0.52
22
0.62
92
0.87
240
0.84
149
0.64
151
0.35
81
0.37
9
0.28
47
0.13
13
0.11
59
0.20
184
0.18
190
0.15
81
0.11
10
error versiontwo views0.37
85
0.19
52
0.38
58
0.43
194
0.24
90
0.37
90
0.38
191
0.52
22
0.62
92
0.87
240
0.84
149
0.64
151
0.35
81
0.37
9
0.28
47
0.13
13
0.11
59
0.20
184
0.18
190
0.15
81
0.11
10
test-vtwo views0.37
85
0.19
52
0.38
58
0.43
194
0.24
90
0.37
90
0.38
191
0.52
22
0.62
92
0.87
240
0.84
149
0.64
151
0.35
81
0.37
9
0.28
47
0.13
13
0.11
59
0.20
184
0.18
190
0.15
81
0.11
10
test_3two views0.36
70
0.19
52
0.44
125
0.44
209
0.23
72
0.48
143
0.36
159
0.66
86
0.82
185
0.64
105
0.45
23
0.68
172
0.25
14
0.41
21
0.31
71
0.12
4
0.10
9
0.18
123
0.16
127
0.15
81
0.11
10
PFNet+two views0.40
126
0.19
52
0.49
188
0.39
90
0.25
116
0.28
35
0.23
19
0.64
76
0.70
125
0.85
228
0.79
127
0.64
151
0.35
81
0.72
208
0.34
101
0.19
205
0.14
183
0.23
251
0.20
237
0.16
112
0.20
231
ASMatchtwo views0.48
189
0.19
52
0.45
136
0.39
90
0.28
197
0.37
90
0.26
41
0.74
146
0.68
120
0.76
179
2.34
376
0.61
137
0.52
168
0.62
145
0.37
144
0.14
33
0.12
101
0.17
89
0.15
98
0.14
48
0.21
244
SST-Stereotwo views0.40
126
0.19
52
0.45
136
0.42
176
0.25
116
0.25
16
0.21
4
0.66
86
0.47
62
1.08
328
0.79
127
0.72
192
0.43
128
0.77
234
0.35
116
0.16
115
0.11
59
0.20
184
0.16
127
0.19
197
0.15
111
RAFT_R40two views0.40
126
0.19
52
0.44
125
0.43
194
0.25
116
0.23
5
0.26
41
0.67
96
0.67
119
0.98
293
0.78
118
0.72
192
0.43
128
0.76
227
0.35
116
0.16
115
0.11
59
0.20
184
0.16
127
0.18
163
0.14
92
GrayStereotwo views0.49
205
0.19
52
0.42
106
0.46
249
0.28
197
0.53
161
0.67
324
0.69
114
0.63
102
1.02
308
1.47
340
0.78
222
0.76
285
0.56
85
0.33
91
0.14
33
0.12
101
0.17
89
0.17
167
0.15
81
0.29
300
test-2two views0.37
85
0.19
52
0.38
58
0.43
194
0.24
90
0.37
90
0.38
191
0.52
22
0.62
92
0.87
240
0.84
149
0.64
151
0.35
81
0.37
9
0.28
47
0.13
13
0.11
59
0.20
184
0.18
190
0.15
81
0.11
10
test-1two views0.36
70
0.19
52
0.71
293
0.46
249
0.26
153
0.44
132
0.36
159
0.60
51
0.59
88
0.48
56
0.67
83
0.53
92
0.36
91
0.40
18
0.29
59
0.14
33
0.11
59
0.16
64
0.14
76
0.15
81
0.16
150
GMM-Stereotwo views0.44
155
0.19
52
0.36
38
0.42
176
0.25
116
0.51
152
0.47
253
0.71
133
0.53
73
0.76
179
1.37
320
0.76
215
0.38
97
0.60
132
0.33
91
0.15
81
0.10
9
0.20
184
0.19
215
0.16
112
0.27
287
Prome-Stereotwo views0.46
171
0.19
52
0.35
33
0.44
209
0.26
153
0.40
108
0.45
245
0.68
105
0.44
54
0.96
284
1.84
363
0.59
128
0.67
249
0.61
139
0.32
79
0.14
33
0.11
59
0.16
64
0.14
76
0.16
112
0.29
300
iRaftStereo_RVCtwo views0.32
32
0.19
52
0.37
49
0.39
90
0.22
44
0.31
57
0.29
62
0.68
105
0.51
67
0.49
57
0.66
79
0.37
37
0.23
9
0.45
33
0.33
91
0.14
33
0.10
9
0.18
123
0.17
167
0.15
81
0.12
35
raft+_RVCtwo views0.38
100
0.19
52
0.35
33
0.37
47
0.25
116
0.45
137
0.37
171
0.78
165
0.89
228
0.51
62
0.78
118
0.50
83
0.29
46
0.53
72
0.40
163
0.15
81
0.12
101
0.17
89
0.15
98
0.14
48
0.12
35
raftrobusttwo views0.34
40
0.19
52
0.36
38
0.41
139
0.27
178
0.30
47
0.25
35
0.71
133
0.63
102
0.58
77
0.55
56
0.45
66
0.46
143
0.51
61
0.29
59
0.16
115
0.12
101
0.14
19
0.12
32
0.12
9
0.13
60
AFF-stereotwo views0.38
100
0.19
52
0.39
75
0.37
47
0.21
31
0.27
26
0.31
92
0.65
77
0.66
117
0.64
105
1.13
273
0.76
215
0.39
109
0.55
77
0.33
91
0.11
1
0.09
2
0.16
64
0.16
127
0.13
21
0.11
10
EAI-Stereotwo views0.34
40
0.19
52
0.44
125
0.39
90
0.21
31
0.31
57
0.30
75
1.15
289
0.30
5
0.49
57
0.75
104
0.36
35
0.28
36
0.62
145
0.27
37
0.14
33
0.11
59
0.14
19
0.13
53
0.13
21
0.12
35
H2IRNETtwo views0.37
85
0.20
74
0.33
23
0.38
69
0.25
116
0.27
26
0.23
19
0.59
41
0.72
136
0.39
32
0.90
179
0.74
207
0.55
185
0.52
66
0.43
175
0.15
81
0.13
156
0.18
123
0.20
237
0.16
112
0.13
60
MyStereo8two views0.40
126
0.20
74
0.54
221
0.41
139
0.29
220
0.53
161
0.29
62
0.65
77
0.49
64
0.71
147
0.98
216
0.58
114
0.43
128
0.50
57
0.51
223
0.15
81
0.12
101
0.16
64
0.14
76
0.19
197
0.19
211
CoDeXtwo views0.47
181
0.20
74
0.49
188
0.42
176
0.25
116
0.75
260
0.36
159
1.27
333
0.80
178
0.82
208
0.96
201
0.62
143
0.57
192
0.60
132
0.36
132
0.17
148
0.12
101
0.17
89
0.15
98
0.16
112
0.14
92
test crocotwo views0.31
30
0.20
74
0.50
200
0.39
90
0.29
220
0.27
26
0.30
75
0.44
7
0.35
18
0.31
9
0.66
79
0.30
6
0.31
61
0.65
169
0.31
71
0.17
148
0.13
156
0.20
184
0.15
98
0.17
145
0.12
35
CASnettwo views0.30
28
0.20
74
0.33
23
0.41
139
0.16
3
0.26
18
0.24
28
0.52
22
0.53
73
0.52
65
0.54
51
0.39
42
0.24
12
0.40
18
0.26
28
0.14
33
0.10
9
0.22
236
0.18
190
0.18
163
0.11
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
HHtwo views0.35
52
0.20
74
0.47
162
0.40
114
0.25
116
0.33
71
0.31
92
0.76
157
0.38
37
0.43
44
0.57
59
0.79
223
0.44
136
0.71
203
0.25
11
0.15
81
0.11
59
0.15
45
0.14
76
0.14
48
0.12
35
HanStereotwo views0.35
52
0.20
74
0.47
162
0.40
114
0.25
116
0.33
71
0.31
92
0.76
157
0.38
37
0.43
44
0.57
59
0.79
223
0.44
136
0.71
203
0.25
11
0.15
81
0.11
59
0.15
45
0.14
76
0.14
48
0.12
35
anonymousdsp2two views0.35
52
0.20
74
0.43
115
0.37
47
0.24
90
0.48
143
0.31
92
0.86
185
0.65
114
0.55
72
0.50
36
0.50
83
0.34
79
0.56
85
0.31
71
0.14
33
0.10
9
0.14
19
0.10
11
0.16
112
0.14
92
knoymoustwo views0.36
70
0.20
74
0.31
15
0.31
7
0.22
44
0.36
88
0.29
62
0.61
57
0.64
109
0.67
124
0.70
88
0.60
133
0.40
114
0.58
112
0.34
101
0.17
148
0.11
59
0.20
184
0.11
18
0.17
145
0.18
183
anonymousatwo views0.49
205
0.20
74
0.42
106
0.38
69
0.23
72
0.91
298
0.35
141
0.75
152
0.62
92
0.85
228
1.54
345
1.06
298
0.66
246
0.51
61
0.43
175
0.16
115
0.13
156
0.19
160
0.21
255
0.16
112
0.14
92
riskmintwo views0.38
100
0.20
74
0.39
75
0.32
9
0.23
72
0.53
161
0.30
75
0.63
66
0.80
178
0.49
57
0.56
58
0.73
202
0.58
199
0.55
77
0.36
132
0.17
148
0.11
59
0.19
160
0.13
53
0.19
197
0.20
231
DCANet-4two views0.36
70
0.20
74
0.48
178
0.34
12
0.19
11
0.29
40
0.30
75
0.66
86
0.92
240
0.69
135
0.78
118
0.40
45
0.47
146
0.45
33
0.34
101
0.14
33
0.10
9
0.14
19
0.11
18
0.11
1
0.13
60
tttwo views6.20
418
0.20
74
5.89
410
3.55
422
2.07
411
11.26
423
19.21
424
11.74
426
5.46
412
2.69
399
2.04
372
4.87
411
6.25
418
3.70
409
7.09
415
8.32
427
11.17
432
4.93
423
5.41
426
5.74
425
2.37
419
RAFT_CTSACEtwo views0.45
165
0.20
74
0.44
125
0.45
230
0.27
178
0.34
77
0.39
211
0.60
51
0.73
143
0.76
179
1.44
334
0.83
235
0.38
97
1.08
322
0.26
28
0.12
4
0.13
156
0.18
123
0.16
127
0.15
81
0.11
10
IPLGtwo views0.39
114
0.20
74
0.59
240
0.40
114
0.24
90
0.54
165
0.27
48
0.75
152
0.63
102
0.84
227
0.81
136
0.32
12
0.32
65
0.60
132
0.45
194
0.13
13
0.11
59
0.16
64
0.13
53
0.13
21
0.12
35
LCNettwo views0.41
137
0.20
74
0.32
20
0.44
209
0.24
90
0.47
141
0.29
62
0.67
96
0.53
73
0.72
158
1.03
238
0.66
166
0.60
209
0.58
112
0.34
101
0.14
33
0.10
9
0.19
160
0.19
215
0.21
228
0.36
332
AAGNettwo views1.43
380
0.20
74
0.48
178
0.44
209
0.25
116
0.29
40
0.31
92
0.65
77
0.68
120
0.97
289
0.86
161
0.67
171
0.62
219
0.64
162
20.63
426
0.16
115
0.11
59
0.19
160
0.15
98
0.19
197
0.12
35
STrans-v2two views0.46
171
0.20
74
0.48
178
0.40
114
0.24
90
0.55
170
0.50
269
1.07
261
0.73
143
0.65
112
1.05
246
0.72
192
0.69
259
0.72
208
0.33
91
0.14
33
0.10
9
0.17
89
0.14
76
0.13
21
0.12
35
TransformOpticalFlowtwo views0.44
155
0.20
74
0.47
162
0.41
139
0.23
72
0.37
90
0.47
253
0.94
215
0.76
156
0.65
112
1.14
275
0.73
202
0.56
191
0.76
227
0.32
79
0.15
81
0.10
9
0.17
89
0.15
98
0.14
48
0.13
60
NF-Stereotwo views0.38
100
0.20
74
0.45
136
0.41
139
0.25
116
0.26
18
0.31
92
0.69
114
0.70
125
0.65
112
0.77
110
0.57
106
0.30
57
0.67
184
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.16
112
0.27
287
OCTAStereotwo views0.38
100
0.20
74
0.46
152
0.41
139
0.25
116
0.26
18
0.31
92
0.69
114
0.70
125
0.65
112
0.77
110
0.58
114
0.30
57
0.67
184
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.16
112
0.27
287
PSM-softLosstwo views0.38
100
0.20
74
0.48
178
0.41
139
0.26
153
0.30
47
0.35
141
0.69
114
0.46
59
0.62
89
0.82
139
0.59
128
0.33
73
0.70
198
0.39
158
0.19
205
0.12
101
0.20
184
0.18
190
0.16
112
0.22
257
KMStereotwo views0.38
100
0.20
74
0.48
178
0.41
139
0.26
153
0.30
47
0.35
141
0.69
114
0.46
59
0.62
89
0.82
139
0.59
128
0.33
73
0.70
198
0.39
158
0.19
205
0.12
101
0.20
184
0.18
190
0.16
112
0.22
257
NRIStereotwo views0.36
70
0.20
74
0.45
136
0.41
139
0.23
72
0.34
77
0.26
41
0.65
77
0.55
81
0.64
105
0.63
70
0.56
101
0.37
94
0.65
169
0.37
144
0.15
81
0.11
59
0.18
123
0.15
98
0.17
145
0.14
92
PSM-AADtwo views0.48
189
0.20
74
0.37
49
0.43
194
0.23
72
0.56
185
0.50
269
0.65
77
0.70
125
1.07
325
1.12
267
0.58
114
0.92
325
0.61
139
0.32
79
0.15
81
0.11
59
0.25
276
0.26
313
0.18
163
0.43
359
FTStereotwo views0.56
259
0.20
74
0.37
49
0.41
139
0.25
116
0.40
108
0.79
351
0.66
86
0.43
50
1.09
330
3.27
396
0.70
178
0.73
278
0.55
77
0.33
91
0.14
33
0.13
156
0.19
160
0.17
167
0.15
81
0.30
307
KYRafttwo views0.48
189
0.20
74
0.38
58
0.44
209
0.23
72
0.44
132
0.37
171
0.66
86
0.41
44
0.94
276
1.73
356
0.79
223
0.41
120
0.63
155
0.31
71
0.16
115
0.11
59
0.18
123
0.22
270
0.16
112
0.78
387
RE-Stereotwo views0.38
100
0.20
74
0.46
152
0.41
139
0.25
116
0.26
18
0.31
92
0.69
114
0.70
125
0.65
112
0.77
110
0.58
114
0.30
57
0.67
184
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.16
112
0.27
287
Pruner-Stereotwo views0.38
100
0.20
74
0.45
136
0.40
114
0.25
116
0.22
4
0.24
28
0.67
96
0.55
81
0.89
252
0.76
106
0.68
172
0.29
46
0.62
145
0.35
116
0.18
176
0.12
101
0.20
184
0.17
167
0.17
145
0.18
183
TVStereotwo views0.38
100
0.20
74
0.46
152
0.41
139
0.25
116
0.26
18
0.31
92
0.69
114
0.70
125
0.65
112
0.77
110
0.58
114
0.30
57
0.67
184
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.16
112
0.27
287
IRAFT_RVCtwo views0.42
143
0.20
74
0.48
178
0.44
209
0.24
90
0.27
26
0.54
293
0.74
146
0.77
163
0.76
179
0.80
129
0.73
202
0.51
166
0.70
198
0.36
132
0.17
148
0.10
9
0.21
224
0.16
127
0.16
112
0.14
92
cross-rafttwo views0.34
40
0.20
74
0.37
49
0.44
209
0.23
72
0.32
67
0.35
141
0.74
146
0.40
41
0.60
83
0.77
110
0.57
106
0.27
27
0.43
26
0.28
47
0.12
4
0.10
9
0.15
45
0.13
53
0.15
81
0.11
10
MyStereo06two views0.38
100
0.21
106
0.61
247
0.41
139
0.28
197
0.41
121
0.50
269
0.95
221
0.35
18
0.62
89
0.54
51
0.76
215
0.27
27
0.50
57
0.29
59
0.14
33
0.13
156
0.18
123
0.17
167
0.17
145
0.15
111
MyStereo05two views0.44
155
0.21
106
0.45
136
0.41
139
0.28
197
0.41
121
0.50
269
0.93
211
1.09
316
0.76
179
0.61
68
0.51
86
0.57
192
0.73
213
0.42
170
0.14
33
0.13
156
0.18
123
0.17
167
0.17
145
0.15
111
AE-Stereotwo views0.34
40
0.21
106
0.42
106
0.48
263
0.31
247
0.48
143
0.35
141
0.61
57
0.62
92
0.32
14
0.55
56
0.52
88
0.27
27
0.47
47
0.29
59
0.13
13
0.13
156
0.18
123
0.16
127
0.15
81
0.12
35
11t1two views0.36
70
0.21
106
0.42
106
0.35
30
0.22
44
0.62
214
0.29
62
0.69
114
0.43
50
0.60
83
0.53
49
0.53
92
0.48
150
0.56
85
0.40
163
0.18
176
0.14
183
0.16
64
0.13
53
0.17
145
0.17
168
ff7two views0.29
16
0.21
106
0.38
58
0.36
38
0.26
153
0.31
57
0.35
141
0.62
61
0.34
11
0.38
24
0.33
11
0.32
12
0.29
46
0.58
112
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
fffftwo views0.29
16
0.21
106
0.38
58
0.36
38
0.26
153
0.31
57
0.35
141
0.62
61
0.34
11
0.38
24
0.33
11
0.32
12
0.29
46
0.58
112
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
11ttwo views0.29
16
0.21
106
0.38
58
0.36
38
0.26
153
0.31
57
0.35
141
0.62
61
0.34
11
0.38
24
0.33
11
0.32
12
0.29
46
0.58
112
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
anonymousdsptwo views0.29
16
0.21
106
0.38
58
0.37
47
0.25
116
0.30
47
0.35
141
0.63
66
0.35
18
0.39
32
0.33
11
0.33
20
0.28
36
0.59
126
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
ProNettwo views0.29
16
0.21
106
0.38
58
0.35
30
0.24
90
0.32
67
0.43
237
0.57
35
0.37
33
0.33
15
0.30
7
0.32
12
0.28
36
0.57
95
0.26
28
0.13
13
0.11
59
0.16
64
0.13
53
0.13
21
0.13
60
ccc-4two views0.29
16
0.21
106
0.38
58
0.36
38
0.26
153
0.31
57
0.35
141
0.62
61
0.34
11
0.38
24
0.33
11
0.32
12
0.29
46
0.58
112
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
IGEV-Stereopermissivetwo views0.29
16
0.21
106
0.38
58
0.37
47
0.25
116
0.30
47
0.35
141
0.63
66
0.35
18
0.39
32
0.33
11
0.33
20
0.28
36
0.59
126
0.25
11
0.14
33
0.10
9
0.17
89
0.12
32
0.14
48
0.15
111
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.45
165
0.21
106
0.48
178
0.42
176
0.28
197
0.31
57
0.54
293
0.63
66
0.62
92
0.62
89
0.89
176
1.01
284
0.69
259
0.75
224
0.66
261
0.13
13
0.12
101
0.17
89
0.15
98
0.14
48
0.15
111
CIPLGtwo views0.41
137
0.21
106
0.63
258
0.45
230
0.33
269
0.52
155
0.33
117
0.65
77
0.60
90
0.82
208
0.96
201
0.46
72
0.32
65
0.55
77
0.44
188
0.16
115
0.12
101
0.15
45
0.14
76
0.13
21
0.14
92
IPLGR_Ctwo views0.40
126
0.21
106
0.64
263
0.45
230
0.33
269
0.52
155
0.34
124
0.66
86
0.62
92
0.82
208
0.92
186
0.45
66
0.32
65
0.52
66
0.46
204
0.17
148
0.12
101
0.15
45
0.14
76
0.13
21
0.14
92
MIPNettwo views0.37
85
0.21
106
0.59
240
0.39
90
0.25
116
0.50
148
0.28
55
0.77
160
0.70
125
0.65
112
0.60
65
0.40
45
0.49
153
0.44
32
0.37
144
0.14
33
0.11
59
0.16
64
0.13
53
0.14
48
0.13
60
IPLGRtwo views0.39
114
0.21
106
0.63
258
0.39
90
0.22
44
0.49
147
0.29
62
0.76
157
0.74
148
0.78
187
0.77
110
0.44
65
0.42
121
0.47
47
0.38
152
0.13
13
0.12
101
0.16
64
0.14
76
0.15
81
0.13
60
ACREtwo views0.40
126
0.21
106
0.65
268
0.45
230
0.33
269
0.51
152
0.33
117
0.66
86
0.63
102
0.80
191
0.92
186
0.45
66
0.32
65
0.52
66
0.45
194
0.16
115
0.12
101
0.15
45
0.14
76
0.13
21
0.14
92
IIG-Stereotwo views0.43
149
0.21
106
0.44
125
0.50
292
0.25
116
0.44
132
0.21
4
0.71
133
0.76
156
0.83
220
0.95
197
0.83
235
0.43
128
0.90
279
0.35
116
0.15
81
0.12
101
0.19
160
0.14
76
0.15
81
0.11
10
DeepStereo_RVCtwo views0.36
70
0.21
106
0.47
162
0.40
114
0.24
90
0.26
18
0.22
8
0.60
51
0.38
37
0.69
135
0.67
83
0.57
106
0.51
166
0.56
85
0.39
158
0.16
115
0.12
101
0.18
123
0.15
98
0.19
197
0.18
183
rafts_anoytwo views0.37
85
0.21
106
0.36
38
0.41
139
0.26
153
0.30
47
0.33
117
0.67
96
0.90
230
0.58
77
0.66
79
0.45
66
0.33
73
0.47
47
0.39
158
0.16
115
0.11
59
0.21
224
0.23
281
0.17
145
0.14
92
RALCasStereoNettwo views0.36
70
0.21
106
0.37
49
0.42
176
0.26
153
0.35
82
0.38
191
0.63
66
0.64
109
0.50
60
0.72
90
0.51
86
0.29
46
0.59
126
0.36
132
0.16
115
0.14
183
0.15
45
0.13
53
0.17
145
0.16
150
test_xeample3two views0.29
16
0.21
106
0.41
87
0.35
30
0.26
153
0.35
82
0.32
108
0.56
32
0.36
23
0.43
44
0.32
10
0.34
24
0.28
36
0.54
75
0.23
5
0.14
33
0.11
59
0.16
64
0.12
32
0.14
48
0.13
60
test_xeamplepermissivetwo views1.01
348
0.21
106
0.42
106
0.35
30
0.21
31
0.71
252
0.39
211
1.23
320
0.86
205
0.81
199
1.04
242
0.69
176
0.61
214
0.69
195
10.93
418
0.19
205
0.15
208
0.18
123
0.17
167
0.18
163
0.17
168
SFCPSMtwo views0.47
181
0.21
106
0.55
226
0.40
114
0.27
178
0.87
296
0.37
171
1.33
344
0.77
163
0.80
191
0.84
149
0.54
96
0.49
153
0.57
95
0.37
144
0.18
176
0.13
156
0.18
123
0.20
237
0.16
112
0.15
111
GANet-RSSMtwo views0.47
181
0.21
106
0.37
49
0.38
69
0.25
116
0.58
191
0.36
159
1.07
261
0.78
170
0.68
130
1.01
226
0.86
243
0.67
249
0.62
145
0.44
188
0.21
241
0.15
208
0.18
123
0.18
190
0.18
163
0.17
168
DIP-Stereotwo views0.39
114
0.21
106
0.50
200
0.41
139
0.28
197
0.62
214
0.27
48
0.77
160
0.40
41
0.64
105
0.86
161
0.52
88
0.33
73
0.66
174
0.42
170
0.15
81
0.13
156
0.17
89
0.14
76
0.15
81
0.15
111
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
iResNet_ROBtwo views0.52
234
0.21
106
0.53
218
0.37
47
0.21
31
0.61
207
0.29
62
1.51
373
1.32
351
0.90
259
1.02
234
0.80
231
0.62
219
0.76
227
0.43
175
0.16
115
0.12
101
0.13
11
0.09
7
0.15
81
0.18
183
MyStereo07two views0.32
32
0.22
133
0.34
30
0.42
176
0.28
197
0.40
108
0.50
269
0.72
137
0.37
33
0.37
20
0.34
17
0.32
12
0.31
61
0.59
126
0.27
37
0.14
33
0.13
156
0.18
123
0.17
167
0.17
145
0.16
150
MyStereo04two views0.44
155
0.22
133
0.44
125
0.42
176
0.28
197
0.40
108
0.50
269
1.00
235
1.08
314
0.62
89
0.58
63
0.55
99
0.57
192
0.71
203
0.44
188
0.14
33
0.13
156
0.18
123
0.17
167
0.17
145
0.16
150
IGEVStereo-DCAtwo views0.29
16
0.22
133
0.38
58
0.35
30
0.27
178
0.37
90
0.35
141
0.62
61
0.34
11
0.38
24
0.30
7
0.35
30
0.27
27
0.51
61
0.22
1
0.15
81
0.12
101
0.16
64
0.12
32
0.13
21
0.15
111
rrrtwo views0.29
16
0.22
133
0.41
87
0.35
30
0.27
178
0.37
90
0.32
108
0.52
22
0.42
48
0.38
24
0.30
7
0.35
30
0.27
27
0.51
61
0.22
1
0.15
81
0.12
101
0.16
64
0.13
53
0.13
21
0.14
92
1111xtwo views0.55
248
0.22
133
0.46
152
0.38
69
0.20
22
0.66
237
0.43
237
1.23
320
0.99
270
0.71
147
0.99
221
0.95
270
0.69
259
0.90
279
1.08
346
0.18
176
0.17
249
0.18
123
0.19
215
0.20
210
0.18
183
CBFPSMtwo views0.59
277
0.22
133
1.31
366
0.38
69
0.27
178
1.12
337
0.65
321
0.79
167
0.82
185
0.80
191
0.81
136
1.35
345
0.87
316
0.67
184
0.76
283
0.16
115
0.15
208
0.15
45
0.16
127
0.17
145
0.22
257
GwcNet-ADLtwo views0.44
155
0.22
133
0.48
178
0.45
230
0.30
230
0.40
108
0.37
171
0.92
209
0.97
261
0.71
147
0.78
118
0.61
137
0.42
121
0.62
145
0.50
215
0.19
205
0.14
183
0.15
45
0.14
76
0.18
163
0.18
183
OMP-Stereotwo views0.42
143
0.22
133
0.46
152
0.52
315
0.24
90
0.36
88
0.25
35
0.71
133
0.78
170
0.77
184
0.64
73
0.89
257
0.39
109
0.91
286
0.35
116
0.15
81
0.12
101
0.20
184
0.15
98
0.15
81
0.12
35
CroCo-Stereocopylefttwo views0.26
5
0.22
133
0.36
38
0.48
263
0.22
44
0.20
1
0.29
62
0.51
19
0.44
54
0.28
4
0.23
1
0.42
54
0.26
20
0.29
1
0.26
28
0.15
81
0.13
156
0.13
11
0.11
18
0.16
112
0.12
35
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.45
165
0.22
133
0.45
136
0.47
258
0.26
153
0.54
165
0.47
253
0.66
86
0.58
87
0.80
191
0.82
139
0.94
268
0.57
192
0.75
224
0.34
101
0.17
148
0.15
208
0.22
236
0.20
237
0.16
112
0.12
35
222two views1.18
367
0.22
133
0.44
125
0.37
47
0.22
44
0.79
270
0.37
171
1.31
341
0.89
228
0.92
272
1.08
258
0.72
192
0.71
273
0.66
174
13.89
421
0.20
227
0.15
208
0.17
89
0.16
127
0.18
163
0.19
211
xxxxtwo views1.01
348
0.22
133
0.43
115
0.36
38
0.21
31
0.82
286
0.36
159
1.32
342
0.88
218
0.71
147
0.94
190
0.97
274
0.63
225
0.64
162
10.58
417
0.20
227
0.16
235
0.18
123
0.17
167
0.19
197
0.19
211
FENettwo views0.42
143
0.22
133
0.38
58
0.39
90
0.24
90
0.55
170
0.32
108
0.79
167
0.70
125
0.71
147
0.72
90
0.63
144
0.57
192
0.62
145
0.44
188
0.19
205
0.13
156
0.19
160
0.17
167
0.18
163
0.19
211
ac_64two views0.52
234
0.22
133
0.50
200
0.45
230
0.28
197
0.80
273
0.45
245
1.02
245
0.61
91
0.91
264
0.83
144
1.07
303
0.68
255
0.74
220
0.70
271
0.21
241
0.18
260
0.20
184
0.19
215
0.18
163
0.15
111
PSMNet-RSSMtwo views0.48
189
0.22
133
0.38
58
0.42
176
0.25
116
0.50
148
0.37
171
1.10
270
0.77
163
0.70
141
1.06
252
0.84
239
0.64
235
0.62
145
0.47
209
0.23
264
0.15
208
0.23
251
0.25
303
0.20
210
0.19
211
RASNettwo views0.53
237
0.22
133
0.52
212
0.38
69
0.22
44
0.68
243
0.38
191
0.97
227
0.88
218
0.73
165
1.04
242
1.03
291
0.92
325
0.90
279
0.86
302
0.16
115
0.14
183
0.14
19
0.17
167
0.15
81
0.13
60
HSM-Net_RVCpermissivetwo views0.53
237
0.22
133
0.35
33
0.37
47
0.21
31
0.85
292
0.37
171
1.23
320
0.93
245
0.90
259
1.15
280
1.26
325
0.63
225
0.72
208
0.48
212
0.17
148
0.13
156
0.16
64
0.15
98
0.17
145
0.15
111
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
DispNOtwo views0.47
181
0.23
150
0.71
293
0.39
90
0.31
247
0.60
205
0.38
191
0.89
199
0.77
163
0.75
173
0.84
149
0.72
192
0.54
182
0.73
213
0.46
204
0.19
205
0.14
183
0.20
184
0.18
190
0.16
112
0.17
168
SMFormertwo views0.51
225
0.23
150
0.62
250
0.34
12
0.20
22
0.62
214
0.34
124
1.21
308
1.02
284
0.81
199
1.01
226
0.71
182
0.65
241
0.84
259
0.55
240
0.19
205
0.15
208
0.18
123
0.16
127
0.18
163
0.18
183
ttatwo views0.51
225
0.23
150
0.62
250
0.34
12
0.20
22
0.62
214
0.34
124
1.21
308
1.02
284
0.81
199
1.01
226
0.71
182
0.65
241
0.84
259
0.55
240
0.19
205
0.15
208
0.18
123
0.16
127
0.15
81
0.14
92
qqq1two views0.49
205
0.23
150
0.62
250
0.34
12
0.20
22
0.62
214
0.34
124
1.21
308
1.02
284
0.81
199
1.01
226
0.71
182
0.65
241
0.84
259
0.34
101
0.19
205
0.15
208
0.14
19
0.12
32
0.15
81
0.14
92
fff1two views0.49
205
0.23
150
0.62
250
0.34
12
0.20
22
0.62
214
0.34
124
1.21
308
1.02
284
0.81
199
1.01
226
0.71
182
0.65
241
0.84
259
0.34
101
0.19
205
0.15
208
0.14
19
0.12
32
0.15
81
0.14
92
ACVNet-DCAtwo views0.35
52
0.23
150
0.33
23
0.41
139
0.22
44
0.55
170
0.38
191
0.85
182
0.54
77
0.41
36
0.50
36
0.34
24
0.49
153
0.57
95
0.25
11
0.16
115
0.10
9
0.19
160
0.13
53
0.18
163
0.17
168
xx1two views0.39
114
0.23
150
0.33
23
0.41
139
0.22
44
0.55
170
0.38
191
0.67
96
1.06
305
0.41
36
0.50
36
0.65
161
0.53
171
0.57
95
0.25
11
0.16
115
0.10
9
0.20
184
0.19
215
0.18
163
0.17
168
1test111two views0.36
70
0.23
150
0.33
23
0.41
139
0.22
44
0.55
170
0.38
191
0.85
182
0.54
77
0.41
36
0.50
36
0.34
24
0.49
153
0.55
77
0.45
194
0.16
115
0.10
9
0.19
160
0.13
53
0.18
163
0.17
168
cc1two views0.37
85
0.23
150
0.33
23
0.41
139
0.22
44
0.55
170
0.38
191
0.67
96
1.06
305
0.41
36
0.50
36
0.34
24
0.49
153
0.57
95
0.25
11
0.16
115
0.10
9
0.19
160
0.13
53
0.16
112
0.15
111
EKT-Stereotwo views0.35
52
0.23
150
0.39
75
0.43
194
0.29
220
0.38
104
0.31
92
0.69
114
0.64
109
0.45
49
0.63
70
0.49
82
0.27
27
0.56
85
0.33
91
0.18
176
0.14
183
0.18
123
0.15
98
0.16
112
0.16
150
gwcnet-sptwo views0.48
189
0.23
150
0.70
290
0.40
114
0.26
153
0.81
278
0.41
229
0.89
199
0.84
193
0.91
264
0.76
106
0.66
166
0.61
214
0.66
174
0.50
215
0.18
176
0.17
249
0.18
123
0.18
190
0.18
163
0.18
183
scenettwo views0.48
189
0.23
150
0.70
290
0.40
114
0.26
153
0.81
278
0.41
229
0.89
199
0.84
193
0.91
264
0.76
106
0.66
166
0.61
214
0.66
174
0.50
215
0.18
176
0.17
249
0.18
123
0.18
190
0.18
163
0.18
183
Selective-RAFTtwo views0.35
52
0.23
150
0.51
207
0.44
209
0.21
31
0.64
229
0.27
48
0.59
41
0.63
102
0.40
35
0.38
20
0.55
99
0.40
114
0.57
95
0.35
116
0.13
13
0.11
59
0.14
19
0.12
32
0.16
112
0.13
60
ssnettwo views0.48
189
0.23
150
0.70
290
0.40
114
0.26
153
0.81
278
0.41
229
0.89
199
0.84
193
0.91
264
0.76
106
0.66
166
0.61
214
0.66
174
0.50
215
0.18
176
0.17
249
0.18
123
0.18
190
0.18
163
0.18
183
TestStereo1two views0.43
149
0.23
150
0.41
87
0.51
304
0.24
90
0.34
77
0.40
217
0.77
160
0.90
230
0.68
130
0.96
201
0.48
78
0.46
143
0.91
286
0.32
79
0.16
115
0.13
156
0.18
123
0.15
98
0.14
48
0.13
60
IERtwo views0.46
171
0.23
150
0.50
200
0.38
69
0.28
197
0.69
245
0.35
141
0.80
171
0.66
117
0.83
220
0.94
190
0.75
209
0.77
289
0.60
132
0.42
170
0.17
148
0.14
183
0.17
89
0.17
167
0.17
145
0.15
111
raft_robusttwo views0.41
137
0.23
150
0.36
38
0.42
176
0.21
31
0.40
108
0.33
117
0.79
167
0.98
265
0.79
189
0.87
165
0.39
42
0.33
73
0.84
259
0.29
59
0.13
13
0.12
101
0.16
64
0.17
167
0.15
81
0.12
35
RAFT+CT+SAtwo views0.39
114
0.23
150
0.36
38
0.51
304
0.27
178
0.29
40
0.46
248
0.75
152
0.80
178
0.51
62
0.89
176
0.41
48
0.40
114
0.78
238
0.32
79
0.14
33
0.11
59
0.18
123
0.18
190
0.15
81
0.14
92
SA-5Ktwo views0.43
149
0.23
150
0.41
87
0.51
304
0.24
90
0.34
77
0.40
217
0.77
160
0.90
230
0.68
130
0.96
201
0.48
78
0.46
143
0.91
286
0.32
79
0.16
115
0.13
156
0.18
123
0.15
98
0.14
48
0.13
60
AACVNettwo views0.50
218
0.23
150
0.49
188
0.46
249
0.29
220
0.52
155
0.38
191
0.90
204
0.55
81
0.81
199
1.03
238
1.00
281
0.70
269
0.83
254
0.54
236
0.21
241
0.18
260
0.24
265
0.18
190
0.23
254
0.20
231
Patchmatch Stereo++two views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.22
8
0.59
41
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.58
112
0.36
132
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.31
92
0.59
41
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.56
85
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
ROB_FTStereo_v2two views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.31
92
0.59
41
0.36
23
0.63
96
0.73
94
0.57
106
0.38
97
0.57
95
0.36
132
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
ROB_FTStereotwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.25
16
0.21
4
0.59
41
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.57
95
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
HUI-Stereotwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.22
8
0.60
51
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.50
57
0.35
116
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
iGMRVCtwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.30
75
0.59
41
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.58
112
0.36
132
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
iRAFTtwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.22
8
0.59
41
0.36
23
0.63
96
0.73
94
0.58
114
0.38
97
0.58
112
0.36
132
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
CRE-IMPtwo views0.36
70
0.23
150
0.49
188
0.42
176
0.24
90
0.41
121
0.21
4
0.57
35
0.41
44
0.65
112
0.72
90
0.53
92
0.37
94
0.61
139
0.38
152
0.17
148
0.11
59
0.19
160
0.15
98
0.21
228
0.18
183
RAFT-IKPtwo views0.35
52
0.23
150
0.47
162
0.41
139
0.22
44
0.24
7
0.28
55
0.59
41
0.36
23
0.63
96
0.73
94
0.57
106
0.38
97
0.58
112
0.36
132
0.18
176
0.12
101
0.20
184
0.16
127
0.20
210
0.15
111
RALAANettwo views0.38
100
0.23
150
0.48
178
0.42
176
0.29
220
0.35
82
0.25
35
0.86
185
0.64
109
0.67
124
0.65
75
0.60
133
0.29
46
0.60
132
0.34
101
0.15
81
0.12
101
0.17
89
0.15
98
0.21
228
0.13
60
GEStwo views0.44
155
0.23
150
0.57
235
0.40
114
0.30
230
0.59
200
0.36
159
0.96
223
0.68
120
0.74
171
0.83
144
0.47
74
0.48
150
0.67
184
0.43
175
0.22
259
0.16
235
0.17
89
0.16
127
0.18
163
0.23
264
ACVNettwo views0.46
171
0.23
150
0.36
38
0.39
90
0.28
197
0.58
191
0.40
217
0.87
192
0.80
178
0.64
105
0.96
201
0.79
223
0.60
209
0.63
155
0.67
264
0.17
148
0.15
208
0.16
64
0.15
98
0.18
163
0.15
111
acv_fttwo views0.51
225
0.23
150
0.56
232
0.44
209
0.28
197
0.86
295
0.39
211
0.91
208
0.80
178
0.97
289
0.96
201
0.79
223
0.59
205
0.63
155
0.87
306
0.17
148
0.15
208
0.16
64
0.15
98
0.17
145
0.15
111
cf-rtwo views0.47
181
0.23
150
0.41
87
0.39
90
0.23
72
0.59
200
0.37
171
0.88
197
0.85
200
0.72
158
1.05
246
0.94
268
0.62
219
0.56
85
0.54
236
0.21
241
0.14
183
0.17
89
0.19
215
0.15
81
0.15
111
CFNet-ftpermissivetwo views0.48
189
0.23
150
0.36
38
0.40
114
0.26
153
0.64
229
0.37
171
0.87
192
0.85
200
0.64
105
1.00
223
1.01
284
0.64
235
0.61
139
0.53
233
0.23
264
0.15
208
0.24
265
0.21
255
0.23
254
0.18
183
CFNet_RVCtwo views0.48
189
0.23
150
0.36
38
0.40
114
0.26
153
0.64
229
0.37
171
0.87
192
0.85
200
0.64
105
1.00
223
1.01
284
0.64
235
0.61
139
0.53
233
0.23
264
0.15
208
0.24
265
0.21
255
0.23
254
0.18
183
CAS++two views0.32
32
0.24
186
0.36
38
0.37
47
0.26
153
0.28
35
0.23
19
0.87
192
0.50
65
0.47
54
0.45
23
0.26
2
0.21
5
0.49
53
0.24
7
0.23
264
0.19
274
0.22
236
0.17
167
0.21
228
0.16
150
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024
tt1two views0.36
70
0.24
186
0.32
20
0.41
139
0.22
44
0.54
165
0.38
191
0.68
105
1.04
293
0.41
36
0.46
27
0.35
30
0.45
140
0.57
95
0.25
11
0.16
115
0.10
9
0.19
160
0.13
53
0.16
112
0.16
150
PCWNet_CMDtwo views0.48
189
0.24
186
0.52
212
0.39
90
0.27
178
0.63
223
0.30
75
0.95
221
0.96
258
0.86
233
1.07
255
0.79
223
0.44
136
0.57
95
0.43
175
0.17
148
0.12
101
0.21
224
0.16
127
0.24
264
0.19
211
CFNet_ucstwo views0.50
218
0.24
186
0.55
226
0.38
69
0.31
247
0.58
191
0.33
117
0.98
230
0.93
245
0.88
248
1.19
293
0.80
231
0.49
153
0.63
155
0.43
175
0.21
241
0.15
208
0.26
290
0.18
190
0.26
276
0.22
257
LL-Strereo2two views0.35
52
0.24
186
0.48
178
0.41
139
0.26
153
0.35
82
0.24
28
0.67
96
0.44
54
0.54
70
0.51
41
0.66
166
0.25
14
0.66
174
0.30
64
0.14
33
0.12
101
0.23
251
0.20
237
0.18
163
0.13
60
CroCo-Stereo Lap2two views0.28
11
0.24
186
0.39
75
0.50
292
0.29
220
0.20
1
0.31
92
0.49
14
0.38
37
0.24
1
0.27
4
0.46
72
0.31
61
0.39
15
0.30
64
0.14
33
0.15
208
0.16
64
0.13
53
0.16
112
0.15
111
xtwo views0.39
114
0.24
186
0.41
87
0.34
12
0.23
72
0.52
155
0.32
108
0.86
185
0.52
70
0.57
76
0.70
88
0.59
128
0.50
163
0.49
53
0.46
204
0.17
148
0.15
208
0.17
89
0.15
98
0.17
145
0.16
150
test_5two views0.43
149
0.24
186
0.43
115
0.52
315
0.28
197
0.28
35
0.42
236
0.72
137
0.82
185
0.62
89
0.91
182
0.72
192
0.55
185
0.79
241
0.35
116
0.14
33
0.11
59
0.18
123
0.18
190
0.18
163
0.16
150
Sa-1000two views0.48
189
0.24
186
0.41
87
0.45
230
0.25
116
0.59
200
0.34
124
0.81
174
0.93
245
0.82
208
1.50
341
0.53
92
0.45
140
0.92
289
0.30
64
0.15
81
0.12
101
0.21
224
0.19
215
0.15
81
0.13
60
CFNet_pseudotwo views0.46
171
0.24
186
0.52
212
0.37
47
0.27
178
0.58
191
0.30
75
0.86
185
0.88
218
0.82
208
1.03
238
0.75
209
0.47
146
0.58
112
0.44
188
0.17
148
0.12
101
0.24
265
0.16
127
0.24
264
0.19
211
ARAFTtwo views0.47
181
0.24
186
0.79
314
0.42
176
0.25
116
0.55
170
0.55
297
0.75
152
0.81
184
0.89
252
0.75
104
0.73
202
0.47
146
0.88
272
0.37
144
0.15
81
0.12
101
0.23
251
0.22
270
0.14
48
0.13
60
delettwo views0.55
248
0.24
186
0.55
226
0.44
209
0.33
269
1.07
328
0.50
269
1.00
235
0.86
205
0.85
228
0.96
201
0.90
261
0.63
225
0.83
254
0.74
281
0.18
176
0.18
260
0.20
184
0.21
255
0.16
112
0.15
111
UPFNettwo views0.53
237
0.24
186
0.51
207
0.45
230
0.38
297
0.84
291
0.49
265
0.99
232
0.75
150
0.87
240
0.88
172
0.86
243
0.64
235
0.80
242
0.71
275
0.20
227
0.20
283
0.20
184
0.20
237
0.19
197
0.15
111
GwcNet-RSSMtwo views0.49
205
0.24
186
0.42
106
0.40
114
0.23
72
0.55
170
0.38
191
0.93
211
0.93
245
0.71
147
1.16
285
0.86
243
0.60
209
0.62
145
0.66
261
0.21
241
0.14
183
0.19
160
0.20
237
0.16
112
0.15
111
MSMDNettwo views0.48
189
0.24
186
0.52
212
0.39
90
0.27
178
0.63
223
0.30
75
0.96
223
0.96
258
0.86
233
1.07
255
0.79
223
0.44
136
0.57
95
0.43
175
0.17
148
0.12
101
0.20
184
0.16
127
0.23
254
0.19
211
ccs_robtwo views0.46
171
0.24
186
0.52
212
0.37
47
0.27
178
0.58
191
0.31
92
0.86
185
0.88
218
0.82
208
1.02
234
0.75
209
0.47
146
0.58
112
0.44
188
0.17
148
0.12
101
0.24
265
0.16
127
0.24
264
0.19
211
MLCVtwo views0.47
181
0.24
186
0.61
247
0.37
47
0.17
4
0.61
207
0.33
117
0.80
171
0.87
214
0.94
276
1.13
273
0.72
192
0.43
128
0.89
277
0.51
223
0.13
13
0.10
9
0.13
11
0.11
18
0.14
48
0.12
35
HSMtwo views0.51
225
0.24
186
0.41
87
0.39
90
0.24
90
0.75
260
0.40
217
1.22
316
0.75
150
0.81
199
0.91
182
1.21
321
0.69
259
0.87
269
0.46
204
0.17
148
0.13
156
0.17
89
0.14
76
0.17
145
0.17
168
LE_ROBtwo views4.42
414
0.24
186
2.75
398
0.42
176
0.23
72
1.57
373
0.90
364
1.71
387
17.88
430
16.56
432
4.88
415
5.17
412
18.85
431
1.63
373
14.62
422
0.17
148
0.14
183
0.16
64
0.16
127
0.19
197
0.17
168
ttttwo views0.51
225
0.25
205
0.43
115
0.38
69
0.24
90
0.65
234
0.38
191
1.18
300
1.05
298
0.72
158
1.08
258
0.63
144
0.49
153
0.84
259
0.59
247
0.24
274
0.21
290
0.22
236
0.20
237
0.24
264
0.24
270
BUStwo views0.45
165
0.25
205
0.43
115
0.45
230
0.28
197
0.70
247
0.34
124
0.94
215
0.76
156
0.75
173
0.80
129
0.65
161
0.49
153
0.64
162
0.51
223
0.20
227
0.14
183
0.22
236
0.19
215
0.18
163
0.18
183
BSDual-CNNtwo views0.46
171
0.25
205
0.43
115
0.45
230
0.28
197
0.77
263
0.40
217
0.94
215
0.76
156
0.75
173
0.80
129
0.76
215
0.54
182
0.64
162
0.43
175
0.20
227
0.14
183
0.22
236
0.19
215
0.18
163
0.18
183
hknettwo views0.49
205
0.25
205
0.51
207
0.45
230
0.29
220
0.77
263
0.40
217
0.94
215
0.83
190
0.75
173
0.80
129
0.97
274
0.61
214
0.73
213
0.45
194
0.18
176
0.14
183
0.22
236
0.19
215
0.18
163
0.18
183
SAtwo views0.44
155
0.25
205
0.46
152
0.46
249
0.24
90
0.43
128
0.36
159
0.75
152
0.96
258
0.59
79
1.03
238
0.48
78
0.52
168
0.94
301
0.32
79
0.16
115
0.12
101
0.21
224
0.19
215
0.15
81
0.13
60
psmgtwo views0.49
205
0.25
205
0.43
115
0.41
139
0.28
197
0.85
292
0.43
237
0.99
232
0.76
156
0.91
264
0.94
190
0.76
215
0.54
182
0.64
162
0.43
175
0.20
227
0.15
208
0.20
184
0.20
237
0.18
163
0.18
183
DAStwo views0.51
225
0.25
205
0.60
245
0.48
263
0.31
247
0.58
191
0.41
229
0.83
176
0.97
261
0.89
252
1.12
267
0.70
178
0.75
282
0.82
247
0.43
175
0.17
148
0.13
156
0.18
123
0.15
98
0.20
210
0.18
183
SepStereotwo views0.51
225
0.25
205
0.60
245
0.48
263
0.31
247
0.58
191
0.41
229
0.83
176
0.97
261
0.89
252
1.12
267
0.70
178
0.75
282
0.93
294
0.43
175
0.17
148
0.13
156
0.18
123
0.15
98
0.20
210
0.18
183
AASNettwo views0.53
237
0.25
205
0.52
212
0.49
278
0.32
260
0.74
257
0.40
217
1.50
370
0.86
205
0.86
233
0.92
186
0.64
151
0.59
205
0.59
126
0.79
288
0.23
264
0.19
274
0.20
184
0.16
127
0.21
228
0.19
211
GANet-ADLtwo views0.42
143
0.25
205
0.45
136
0.43
194
0.29
220
0.54
165
0.35
141
0.89
199
0.86
205
0.63
96
0.72
90
0.68
172
0.42
121
0.52
66
0.41
166
0.21
241
0.14
183
0.15
45
0.13
53
0.18
163
0.19
211
ADLNet2two views0.55
248
0.25
205
0.65
268
0.47
258
0.30
230
0.83
288
0.50
269
1.05
257
0.95
257
0.80
191
0.98
216
0.99
278
0.69
259
0.77
234
0.73
278
0.20
227
0.16
235
0.17
89
0.18
190
0.21
228
0.21
244
ICVPtwo views0.46
171
0.25
205
0.38
58
0.48
263
0.28
197
0.58
191
0.43
237
1.00
235
0.70
125
0.67
124
0.95
197
0.75
209
0.55
185
0.53
72
0.54
236
0.23
264
0.17
249
0.19
160
0.17
167
0.19
197
0.20
231
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
MMNettwo views0.55
248
0.25
205
0.61
247
0.43
194
0.34
276
1.07
328
0.39
211
0.87
192
0.91
235
0.91
264
0.93
189
0.86
243
0.76
285
0.81
245
0.76
283
0.15
81
0.14
183
0.18
123
0.19
215
0.20
210
0.16
150
DSFCAtwo views0.55
248
0.25
205
0.62
250
0.40
114
0.36
284
0.74
257
0.52
286
1.04
252
0.82
185
1.06
322
0.84
149
0.89
257
0.63
225
0.99
304
0.58
243
0.25
284
0.21
290
0.21
224
0.21
255
0.21
228
0.19
211
DualNettwo views0.47
181
0.26
219
0.49
188
0.37
47
0.25
116
0.55
170
0.37
171
0.68
105
1.04
293
0.73
165
0.96
201
0.71
182
0.53
171
0.57
95
0.88
309
0.16
115
0.10
9
0.25
276
0.21
255
0.16
112
0.16
150
ffmtwo views0.44
155
0.26
219
0.49
188
0.37
47
0.25
116
0.55
170
0.37
171
0.68
105
1.04
293
0.73
165
0.96
201
0.71
182
0.53
171
0.57
95
0.25
11
0.16
115
0.10
9
0.25
276
0.21
255
0.16
112
0.16
150
ff1two views0.49
205
0.26
219
0.49
188
0.37
47
0.25
116
0.55
170
0.37
171
0.68
105
1.04
293
0.73
165
0.96
201
0.71
182
0.53
171
1.01
307
0.88
309
0.16
115
0.10
9
0.25
276
0.21
255
0.16
112
0.16
150
mmxtwo views0.53
237
0.26
219
0.49
188
0.37
47
0.25
116
0.55
170
0.37
171
1.16
292
1.03
289
0.73
165
0.96
201
0.71
182
0.53
171
1.01
307
0.88
309
0.20
227
0.15
208
0.25
276
0.21
255
0.22
245
0.20
231
xxxcopylefttwo views0.53
237
0.26
219
0.49
188
0.37
47
0.25
116
0.55
170
0.37
171
1.16
292
1.03
289
0.73
165
0.96
201
0.71
182
0.53
171
1.01
307
0.88
309
0.20
227
0.15
208
0.25
276
0.21
255
0.22
245
0.20
231
iinet-ftwo views0.67
290
0.26
219
2.15
394
0.39
90
0.31
247
1.19
347
0.56
302
0.84
179
0.84
193
0.80
191
1.17
287
1.05
297
0.84
310
0.71
203
1.21
356
0.20
227
0.18
260
0.17
89
0.15
98
0.20
210
0.20
231
qqqtwo views0.40
126
0.26
219
0.44
125
0.36
38
0.22
44
0.46
139
0.36
159
0.85
182
0.54
77
0.56
74
0.69
86
0.65
161
0.53
171
0.55
77
0.45
194
0.17
148
0.16
235
0.20
184
0.19
215
0.18
163
0.17
168
psm_uptwo views0.55
248
0.26
219
0.47
162
0.49
278
0.32
260
0.65
234
0.56
302
1.04
252
0.82
185
0.82
208
0.88
172
1.01
284
0.94
331
0.74
220
0.61
251
0.21
241
0.25
321
0.26
290
0.23
281
0.21
228
0.20
231
UNettwo views0.54
247
0.26
219
0.66
273
0.44
209
0.40
307
0.99
315
0.41
229
0.98
230
0.75
150
0.83
220
0.89
176
1.04
293
0.72
277
0.73
213
0.62
253
0.19
205
0.14
183
0.20
184
0.17
167
0.20
210
0.17
168
DMCAtwo views0.45
165
0.26
219
0.50
200
0.38
69
0.28
197
0.51
152
0.34
124
0.93
211
0.68
120
0.75
173
0.83
144
0.79
223
0.53
171
0.51
61
0.54
236
0.21
241
0.16
235
0.21
224
0.16
127
0.19
197
0.21
244
UCFNet_RVCtwo views0.49
205
0.26
219
0.35
33
0.39
90
0.26
153
0.64
229
0.36
159
1.15
289
0.84
193
0.67
124
0.88
172
0.88
253
0.59
205
0.58
112
0.45
194
0.24
274
0.17
249
0.27
302
0.27
318
0.25
272
0.23
264
HITNettwo views0.41
137
0.26
219
0.45
136
0.33
11
0.17
4
0.63
223
0.30
75
0.93
211
0.64
109
0.71
147
0.82
139
0.64
151
0.52
168
0.59
126
0.43
175
0.14
33
0.10
9
0.15
45
0.13
53
0.19
197
0.12
35
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DISCOtwo views0.70
297
0.26
219
0.68
280
0.44
209
0.31
247
1.14
339
0.51
283
1.23
320
1.23
337
0.81
199
1.05
246
1.50
359
0.85
311
1.82
382
1.03
340
0.19
205
0.15
208
0.18
123
0.16
127
0.24
264
0.23
264
DN-CSS_ROBtwo views0.43
149
0.26
219
0.62
250
0.40
114
0.29
220
0.44
132
0.27
48
0.77
160
0.75
150
0.72
158
1.09
262
0.48
78
0.43
128
0.69
195
0.37
144
0.15
81
0.12
101
0.21
224
0.19
215
0.18
163
0.16
150
Former-RAFT_DAM_RVCtwo views0.34
40
0.27
233
0.45
136
0.36
38
0.25
116
0.48
143
0.30
75
0.58
39
0.90
230
0.42
41
0.36
19
0.30
6
0.29
46
0.49
53
0.30
64
0.16
115
0.14
183
0.18
123
0.15
98
0.18
163
0.15
111
mmmtwo views0.44
155
0.27
233
0.46
152
0.38
69
0.24
90
0.61
207
0.35
141
0.94
215
0.53
73
0.72
158
1.05
246
0.63
144
0.50
163
0.57
95
0.45
194
0.18
176
0.15
208
0.23
251
0.20
237
0.20
210
0.18
183
LL-Strereotwo views0.57
264
0.27
233
0.68
280
0.48
263
0.34
276
0.39
107
0.48
259
0.94
215
0.97
261
0.83
220
0.78
118
1.10
309
1.18
357
1.33
352
0.49
214
0.17
148
0.14
183
0.22
236
0.19
215
0.16
112
0.17
168
CASStwo views0.45
165
0.27
233
0.42
106
0.48
263
0.22
44
0.61
207
0.34
124
0.97
227
0.62
92
0.71
147
0.85
158
0.61
137
0.55
185
0.57
95
0.41
166
0.29
313
0.16
235
0.22
236
0.18
190
0.22
245
0.28
294
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
ToySttwo views0.49
205
0.27
233
0.75
304
0.40
114
0.27
178
0.64
229
0.49
265
0.84
179
0.77
163
0.60
83
0.83
144
0.88
253
0.66
246
0.70
198
0.56
242
0.16
115
0.17
249
0.21
224
0.20
237
0.21
228
0.19
211
CRFU-Nettwo views0.57
264
0.27
233
0.57
235
0.46
249
0.30
230
1.20
348
0.52
286
1.10
270
0.56
85
1.00
301
0.98
216
1.06
298
0.79
296
0.81
245
0.71
275
0.21
241
0.19
274
0.18
123
0.16
127
0.18
163
0.19
211
CSP-Nettwo views0.56
259
0.27
233
0.49
188
0.41
139
0.28
197
1.22
349
0.50
269
1.23
320
0.72
136
0.95
283
0.95
197
0.89
257
0.62
219
0.83
254
0.62
253
0.26
294
0.17
249
0.17
89
0.17
167
0.18
163
0.17
168
PSMNet-ADLtwo views0.48
189
0.27
233
0.40
82
0.48
263
0.30
230
0.68
243
0.37
171
0.90
204
0.80
178
0.61
88
0.80
129
0.92
265
0.62
219
0.72
208
0.63
256
0.23
264
0.18
260
0.18
123
0.20
237
0.22
245
0.20
231
TRStereotwo views0.37
85
0.27
233
0.59
240
0.47
258
0.41
314
0.29
40
0.30
75
0.84
179
0.59
88
0.52
65
0.41
21
0.52
88
0.26
20
0.73
213
0.27
37
0.17
148
0.12
101
0.19
160
0.19
215
0.13
21
0.11
10
Anonymoustwo views0.39
114
0.27
233
0.66
273
0.53
320
0.43
325
0.55
170
0.49
265
0.63
66
0.50
65
0.37
20
0.42
22
0.33
20
0.42
121
0.56
85
0.38
152
0.20
227
0.19
274
0.17
89
0.18
190
0.30
300
0.24
270
ADLNettwo views0.55
248
0.27
233
0.51
207
0.44
209
0.35
282
0.78
267
0.46
248
1.08
265
0.86
205
0.99
296
0.98
216
0.92
265
0.63
225
0.69
195
0.81
293
0.22
259
0.16
235
0.22
236
0.22
270
0.21
228
0.21
244
hitnet-ftcopylefttwo views0.55
248
0.27
233
0.39
75
0.41
139
0.28
197
0.78
267
0.40
217
0.92
209
0.90
230
0.82
208
1.01
226
1.13
316
0.70
269
0.78
238
0.67
264
0.28
307
0.20
283
0.28
309
0.22
270
0.29
291
0.26
280
iResNetv2_ROBtwo views0.52
234
0.27
233
0.69
286
0.38
69
0.25
116
0.62
214
0.35
141
1.17
297
1.01
281
0.99
296
1.06
252
0.88
253
0.67
249
0.66
174
0.39
158
0.19
205
0.13
156
0.15
45
0.11
18
0.18
163
0.16
150
MDST_ROBtwo views0.91
340
0.27
233
0.85
319
0.63
353
0.41
314
2.53
392
0.71
342
1.60
380
1.13
322
2.83
402
1.73
356
0.97
274
0.69
259
1.61
370
0.73
278
0.25
284
0.22
296
0.32
330
0.28
323
0.25
272
0.24
270
StereoVisiontwo views0.42
143
0.28
247
0.45
136
0.49
278
0.28
197
0.38
104
0.38
191
0.72
137
0.62
92
0.44
47
1.14
275
0.54
96
0.39
109
0.56
85
0.34
101
0.21
241
0.24
313
0.25
276
0.24
294
0.26
276
0.16
150
ssnet_v2two views0.58
270
0.28
247
0.56
232
0.43
194
0.29
220
0.95
306
0.59
308
1.13
280
0.99
270
0.93
273
0.80
129
0.99
278
0.64
235
0.82
247
0.94
326
0.25
284
0.22
296
0.23
251
0.24
294
0.20
210
0.19
211
Wz-Net-LNSev-Reftwo views0.63
284
0.28
247
0.99
335
0.40
114
0.30
230
1.03
322
0.56
302
1.10
270
0.99
270
0.97
289
1.22
295
1.06
298
0.69
259
1.07
320
0.95
329
0.19
205
0.11
59
0.16
64
0.13
53
0.22
245
0.21
244
pcwnet_v2two views0.58
270
0.28
247
0.84
318
0.45
230
0.35
282
0.61
207
0.35
141
1.27
333
1.21
334
0.99
296
1.27
304
0.72
192
0.58
199
0.67
184
0.48
212
0.27
301
0.21
290
0.24
265
0.23
281
0.29
291
0.29
300
sCroCo_RVCtwo views0.35
52
0.28
247
0.69
286
0.51
304
0.39
302
0.41
121
0.31
92
0.49
14
0.45
58
0.31
9
0.48
33
0.38
41
0.32
65
0.46
40
0.32
79
0.21
241
0.22
296
0.19
160
0.19
215
0.21
228
0.20
231
HGLStereotwo views0.56
259
0.28
247
0.57
235
0.50
292
0.37
289
0.80
273
0.45
245
1.02
245
0.78
170
0.86
233
1.14
275
0.89
257
0.82
304
0.76
227
0.73
278
0.21
241
0.20
283
0.19
160
0.18
190
0.19
197
0.21
244
DLCB_ROBtwo views0.58
270
0.28
247
0.47
162
0.49
278
0.32
260
0.77
263
0.50
269
0.99
232
0.92
240
1.04
317
1.14
275
1.21
321
0.69
259
0.88
272
0.69
268
0.20
227
0.20
283
0.22
236
0.22
270
0.21
228
0.18
183
SGM_RVCbinarytwo views0.97
345
0.28
247
0.41
87
0.39
90
0.22
44
1.55
371
0.73
344
1.51
373
1.25
343
2.25
392
1.92
366
2.58
389
1.56
378
2.02
389
1.19
355
0.27
301
0.27
331
0.27
302
0.25
303
0.25
272
0.25
276
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
NINENettwo views0.50
218
0.29
255
0.51
207
0.45
230
0.32
260
0.70
247
0.34
124
1.10
270
0.88
218
0.80
191
0.94
190
0.65
161
0.49
153
0.73
213
0.51
223
0.22
259
0.20
283
0.25
276
0.18
190
0.22
245
0.21
244
GEStereo_RVCtwo views0.55
248
0.29
255
0.63
258
0.49
278
0.31
247
0.70
247
0.54
293
1.22
316
0.92
240
0.82
208
0.85
158
0.85
241
0.63
225
0.90
279
0.65
259
0.24
274
0.16
235
0.19
160
0.16
127
0.21
228
0.22
257
RAFT + AFFtwo views0.53
237
0.29
255
0.75
304
0.51
304
0.32
260
0.63
223
0.60
310
1.00
235
0.91
235
0.78
187
0.87
165
0.83
235
0.58
199
0.80
242
0.47
209
0.17
148
0.20
283
0.23
251
0.22
270
0.18
163
0.18
183
CFNettwo views0.51
225
0.29
255
0.46
152
0.41
139
0.27
178
0.70
247
0.32
108
1.13
280
1.00
277
0.72
158
1.07
255
0.85
241
0.60
209
0.76
227
0.52
230
0.19
205
0.14
183
0.23
251
0.23
281
0.21
228
0.16
150
iResNettwo views0.49
205
0.29
255
0.79
314
0.42
176
0.21
31
0.61
207
0.40
217
0.82
175
0.99
270
0.87
240
1.12
267
0.69
176
0.53
171
0.78
238
0.51
223
0.15
81
0.11
59
0.14
19
0.12
32
0.17
145
0.15
111
pmcnntwo views1.23
370
0.29
255
0.96
332
0.40
114
0.23
72
0.95
306
0.69
333
1.16
292
1.28
347
1.67
373
2.33
375
11.15
424
0.86
313
0.93
294
0.88
309
0.15
81
0.12
101
0.12
2
0.10
11
0.15
81
0.15
111
whm_ethtwo views0.48
189
0.30
261
0.74
301
0.46
249
0.38
297
0.37
90
0.37
171
0.79
167
0.78
170
0.82
208
1.74
358
0.37
37
0.38
97
0.60
132
0.38
152
0.18
176
0.16
235
0.20
184
0.20
237
0.19
197
0.22
257
fast-acv-fttwo views0.64
285
0.30
261
0.73
297
0.45
230
0.34
276
1.17
344
0.49
265
0.86
185
0.98
265
1.02
308
1.36
317
1.29
329
0.85
311
0.76
227
0.81
293
0.21
241
0.23
306
0.23
251
0.23
281
0.21
228
0.20
231
LMCR-Stereopermissivemany views0.53
237
0.30
261
0.53
218
0.58
339
0.30
230
0.83
288
0.36
159
1.19
302
0.76
156
0.88
248
1.04
242
0.56
101
0.62
219
0.82
247
0.67
264
0.19
205
0.15
208
0.19
160
0.14
76
0.23
254
0.17
168
DMCA-RVCcopylefttwo views0.51
225
0.30
261
0.59
240
0.50
292
0.32
260
0.54
165
0.38
191
0.86
185
0.68
120
0.94
276
0.86
161
0.91
263
0.68
255
0.70
198
0.59
247
0.23
264
0.18
260
0.31
325
0.23
281
0.26
276
0.19
211
NVstereo2Dtwo views0.60
280
0.30
261
0.75
304
0.48
263
0.43
325
0.89
297
0.48
259
1.05
257
1.15
325
0.66
123
0.86
161
0.88
253
0.70
269
0.99
304
0.65
259
0.32
334
0.15
208
0.28
309
0.20
237
0.40
339
0.36
332
TestStereotwo views0.38
100
0.31
266
0.40
82
0.45
230
0.20
22
0.40
108
0.37
171
0.66
86
0.65
114
0.53
68
0.78
118
0.47
74
0.40
114
0.55
77
0.37
144
0.18
176
0.13
156
0.20
184
0.15
98
0.22
245
0.13
60
stereogantwo views0.80
319
0.31
266
0.71
293
0.59
342
0.50
347
1.72
381
0.48
259
1.35
349
1.37
354
1.00
301
1.46
339
1.56
365
0.95
334
1.29
348
0.84
297
0.28
307
0.29
338
0.29
317
0.25
303
0.38
336
0.38
344
BEATNet_4xtwo views0.46
171
0.32
268
0.56
232
0.37
47
0.19
11
0.63
223
0.35
141
1.01
242
0.72
136
0.77
184
0.83
144
0.70
178
0.59
205
0.68
192
0.53
233
0.16
115
0.12
101
0.16
64
0.14
76
0.24
264
0.16
150
NLCA_NET_v2_RVCtwo views0.53
237
0.32
268
0.64
263
0.44
209
0.30
230
0.66
237
0.44
243
1.04
252
0.88
218
0.91
264
0.91
182
0.99
278
0.60
209
0.68
192
0.60
250
0.21
241
0.17
249
0.22
236
0.22
270
0.21
228
0.21
244
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AANet_RVCtwo views0.57
264
0.32
268
0.54
221
0.45
230
0.27
178
0.57
189
0.48
259
1.00
235
1.28
347
0.86
233
1.33
314
0.87
248
0.58
199
1.07
320
0.75
282
0.18
176
0.12
101
0.15
45
0.13
53
0.18
163
0.18
183
AdaStereotwo views0.50
218
0.32
268
0.47
162
0.48
263
0.25
116
0.67
241
0.32
108
1.17
297
0.88
218
0.75
173
0.99
221
0.75
209
0.49
153
0.67
184
0.46
204
0.27
301
0.12
101
0.28
309
0.18
190
0.23
254
0.18
183
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
SGM-ForestMtwo views4.04
412
0.32
268
0.46
152
0.43
194
0.27
178
7.50
419
1.45
402
3.84
412
4.24
411
8.19
423
6.76
419
19.00
430
9.08
419
10.74
424
6.62
413
0.31
322
0.33
360
0.32
330
0.32
342
0.29
291
0.29
300
StereoDRNet-Refinedtwo views0.58
270
0.32
268
0.54
221
0.46
249
0.30
230
0.96
309
0.40
217
1.00
235
0.94
252
1.12
334
1.08
258
0.96
272
0.67
249
0.90
279
0.89
320
0.17
148
0.13
156
0.22
236
0.21
255
0.20
210
0.19
211
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
DRN-Testtwo views0.66
289
0.32
268
0.66
273
0.50
292
0.39
302
1.15
341
0.61
315
1.49
369
1.01
281
1.12
334
1.08
258
1.06
298
0.69
259
0.77
234
0.94
326
0.23
264
0.17
249
0.26
290
0.25
303
0.25
272
0.21
244
SGM-Foresttwo views0.62
283
0.32
268
0.39
75
0.43
194
0.30
230
1.02
319
0.55
297
1.09
269
1.05
298
1.06
322
1.18
289
1.10
309
0.67
249
0.88
272
0.62
253
0.31
322
0.33
360
0.33
335
0.30
329
0.30
300
0.28
294
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
FAT-Stereotwo views0.73
307
0.33
276
0.75
304
0.49
278
0.37
289
0.71
252
0.59
308
1.36
352
1.30
349
1.03
316
1.40
326
1.59
368
1.15
353
0.87
269
0.86
302
0.28
307
0.28
333
0.28
309
0.23
281
0.28
288
0.38
344
FADNet-RVC-Resampletwo views0.56
259
0.33
276
1.16
349
0.49
278
0.34
276
0.71
252
0.43
237
1.01
242
0.93
245
0.82
208
0.87
165
0.74
207
0.67
249
0.73
213
0.45
194
0.18
176
0.18
260
0.26
290
0.27
318
0.26
276
0.27
287
TDLMtwo views0.57
264
0.33
276
0.49
188
0.51
304
0.30
230
0.66
237
0.73
344
1.03
249
1.01
281
0.82
208
1.10
264
0.84
239
0.70
269
0.86
268
0.58
243
0.28
307
0.17
249
0.25
276
0.22
270
0.26
276
0.19
211
CVANet_RVCtwo views0.57
264
0.33
276
0.44
125
0.47
258
0.32
260
0.67
241
0.61
315
1.05
257
0.93
245
0.85
228
1.04
242
1.01
284
0.73
278
0.83
254
0.52
230
0.29
313
0.19
274
0.27
302
0.25
303
0.31
305
0.21
244
StereoDRNettwo views0.64
285
0.33
276
0.68
280
0.51
304
0.43
325
1.03
322
0.53
289
1.47
366
0.99
270
1.10
332
0.87
165
1.07
303
0.71
273
0.82
247
0.88
309
0.23
264
0.19
274
0.25
276
0.23
281
0.27
286
0.19
211
SACVNettwo views0.58
270
0.34
281
0.55
226
0.55
329
0.36
284
0.63
223
0.48
259
1.13
280
0.77
163
1.02
308
1.06
252
1.02
289
0.74
280
0.90
279
0.51
223
0.27
301
0.21
290
0.25
276
0.24
294
0.29
291
0.36
332
Anonymous3two views0.46
171
0.34
281
0.86
324
0.50
292
0.37
289
0.81
278
0.50
269
0.72
137
0.65
114
0.51
62
0.65
75
0.45
66
0.45
140
0.64
162
0.38
152
0.24
274
0.24
313
0.22
236
0.21
255
0.23
254
0.23
264
HCRNettwo views0.44
155
0.34
281
0.41
87
0.53
320
0.26
153
0.53
161
0.29
62
0.83
176
0.63
102
0.71
147
0.81
136
0.77
221
0.50
163
0.66
174
0.36
132
0.24
274
0.16
235
0.24
265
0.20
237
0.21
228
0.18
183
DeepPruner_ROBtwo views0.53
237
0.34
281
0.59
240
0.41
139
0.30
230
0.50
148
0.43
237
1.19
302
0.70
125
0.85
228
1.05
246
0.86
243
0.55
185
0.84
259
0.51
223
0.29
313
0.23
306
0.22
236
0.22
270
0.26
276
0.25
276
S-Stereotwo views0.74
308
0.35
285
0.96
332
0.56
332
0.45
336
0.82
286
0.60
310
1.24
327
1.60
375
0.96
284
1.41
328
1.12
313
0.94
331
0.80
242
1.04
343
0.26
294
0.31
351
0.28
309
0.25
303
0.32
310
0.47
369
ADCP+two views1.06
356
0.35
285
1.51
381
0.49
278
0.51
350
1.45
366
0.55
297
1.25
330
1.03
289
1.16
338
1.15
280
1.10
309
1.07
347
1.56
367
6.75
414
0.19
205
0.16
235
0.23
251
0.21
255
0.28
288
0.21
244
RYNettwo views0.72
305
0.35
285
0.64
263
0.53
320
0.67
373
1.31
356
0.67
324
1.20
306
1.18
329
1.05
319
0.87
165
1.27
326
0.93
330
0.93
294
1.27
362
0.22
259
0.16
235
0.26
290
0.23
281
0.40
339
0.39
346
XPNet_ROBtwo views0.70
297
0.35
285
0.68
280
0.52
315
0.40
307
0.79
270
0.85
360
1.16
292
0.94
252
1.33
355
1.15
280
1.38
347
0.83
308
1.03
314
0.90
322
0.32
334
0.25
321
0.26
290
0.24
294
0.31
305
0.28
294
CBMVpermissivetwo views0.64
285
0.35
285
0.41
87
0.42
176
0.25
116
1.01
317
0.77
348
1.13
280
1.09
316
1.17
339
1.22
295
1.04
293
0.75
282
0.88
272
0.63
256
0.28
307
0.30
341
0.34
337
0.30
329
0.26
276
0.26
280
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
GwcNetcopylefttwo views0.69
295
0.36
290
1.10
343
0.51
304
0.42
320
1.08
332
0.50
269
1.21
308
1.16
326
1.00
301
1.37
320
1.06
298
0.79
296
0.92
289
0.94
326
0.25
284
0.24
313
0.24
265
0.22
270
0.23
254
0.26
280
RPtwo views0.76
311
0.36
290
0.63
258
0.66
362
0.58
367
0.80
273
0.55
297
1.14
286
1.22
336
0.97
289
1.65
350
1.43
352
1.32
367
1.01
307
0.84
297
0.33
340
0.30
341
0.36
342
0.30
329
0.34
322
0.34
325
WCMA_ROBtwo views1.14
362
0.36
290
0.76
309
0.49
278
0.44
332
1.23
351
0.67
324
1.11
275
1.23
337
2.84
403
3.95
408
3.28
399
1.83
389
1.25
342
0.99
336
0.44
365
0.34
362
0.34
337
0.37
351
0.41
345
0.40
349
SDNRtwo views0.86
331
0.37
293
1.47
379
0.40
114
0.38
297
3.38
408
0.33
117
0.90
204
0.98
265
0.99
296
2.09
373
0.59
128
0.71
273
1.29
348
0.70
271
0.51
375
0.56
390
0.36
342
0.26
313
0.43
349
0.46
365
GMStereopermissivetwo views0.39
114
0.37
293
0.54
221
0.40
114
0.26
153
0.42
126
0.36
159
0.59
41
1.04
293
0.55
72
0.51
41
0.37
37
0.35
81
0.54
75
0.41
166
0.19
205
0.13
156
0.16
64
0.17
167
0.24
264
0.18
183
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
APVNettwo views0.71
301
0.37
293
0.89
327
0.56
332
0.45
336
1.18
346
0.68
329
1.41
360
0.85
200
0.81
199
1.15
280
1.04
293
0.81
300
1.10
325
1.17
353
0.26
294
0.28
333
0.32
330
0.31
336
0.29
291
0.30
307
FADNet_RVCtwo views0.55
248
0.37
293
1.17
354
0.44
209
0.31
247
0.56
185
0.34
124
1.06
260
0.88
218
0.67
124
0.90
179
0.61
137
0.65
241
0.93
294
0.70
271
0.21
241
0.18
260
0.26
290
0.23
281
0.31
305
0.28
294
STTStereotwo views0.55
248
0.37
293
0.76
309
0.44
209
0.31
247
0.60
205
0.44
243
0.96
223
0.86
205
0.99
296
0.90
179
0.96
272
0.58
199
0.71
203
0.61
251
0.25
284
0.23
306
0.26
290
0.32
342
0.24
264
0.23
264
SuperBtwo views1.04
353
0.37
293
4.81
409
0.43
194
0.31
247
0.99
315
0.46
248
1.02
245
2.09
386
1.09
330
1.09
262
0.75
209
0.81
300
1.06
317
1.76
374
0.19
205
0.15
208
0.17
89
0.15
98
2.82
417
0.26
280
GANettwo views0.70
297
0.37
293
0.55
226
0.51
304
0.34
276
0.94
303
0.96
368
1.08
265
0.94
252
1.04
317
1.98
369
1.13
316
0.88
319
1.12
328
0.66
261
0.25
284
0.26
327
0.27
302
0.22
270
0.31
305
0.22
257
CBMV_ROBtwo views0.59
277
0.37
293
0.38
58
0.39
90
0.28
197
0.74
257
0.28
55
1.00
235
0.98
265
0.94
276
1.25
302
0.81
233
0.78
294
0.87
269
0.50
215
0.36
353
0.37
367
0.43
357
0.40
361
0.33
315
0.30
307
PSMNet_ROBtwo views0.64
285
0.37
293
0.65
268
0.56
332
0.42
320
0.97
310
0.83
354
1.21
308
0.92
240
0.79
189
1.02
234
1.08
305
0.63
225
0.82
247
0.91
324
0.29
313
0.20
283
0.31
325
0.31
336
0.26
276
0.23
264
ddtwo views0.43
149
0.38
302
0.55
226
0.44
209
0.25
116
0.47
141
0.38
191
0.70
128
1.05
298
0.59
79
0.65
75
0.42
54
0.39
109
0.66
174
0.50
215
0.24
274
0.15
208
0.21
224
0.15
98
0.22
245
0.18
183
edge stereotwo views0.76
311
0.38
302
0.74
301
0.52
315
0.43
325
0.80
273
0.53
289
1.28
335
1.06
305
1.28
351
1.38
325
1.81
372
1.11
350
1.08
322
0.85
301
0.33
340
0.32
354
0.41
355
0.28
323
0.32
310
0.36
332
Nwc_Nettwo views0.78
315
0.38
302
0.73
297
0.60
347
0.55
358
1.05
327
0.55
297
1.67
385
1.05
298
0.88
248
1.86
365
1.40
350
1.09
348
1.10
325
0.87
306
0.30
319
0.25
321
0.36
342
0.38
354
0.29
291
0.29
300
ADCLtwo views1.04
353
0.38
302
1.35
370
0.50
292
0.39
302
1.61
375
0.89
362
1.29
336
1.39
357
1.29
352
1.50
341
1.24
324
1.24
362
1.37
360
4.87
407
0.21
241
0.19
274
0.25
276
0.25
303
0.29
291
0.27
287
sAnonymous2two views0.40
126
0.39
306
0.85
319
0.48
263
0.37
289
0.40
108
0.46
248
0.57
35
0.52
70
0.38
24
0.46
27
0.35
30
0.42
121
0.43
26
0.30
64
0.19
205
0.14
183
0.18
123
0.17
167
0.57
375
0.44
360
CroCo_RVCtwo views0.40
126
0.39
306
0.85
319
0.48
263
0.37
289
0.40
108
0.46
248
0.57
35
0.52
70
0.38
24
0.46
27
0.35
30
0.42
121
0.43
26
0.30
64
0.19
205
0.14
183
0.18
123
0.17
167
0.57
375
0.44
360
AF-Nettwo views0.81
322
0.39
306
0.68
280
0.64
354
0.54
356
0.91
298
0.51
283
1.61
381
1.31
350
0.96
284
2.02
370
1.46
353
1.26
365
1.11
327
0.99
336
0.32
334
0.24
313
0.39
351
0.27
318
0.30
300
0.25
276
NOSS_ROBtwo views0.57
264
0.39
306
0.39
75
0.44
209
0.30
230
0.73
256
0.54
293
1.03
249
1.08
314
0.67
124
0.87
165
0.76
215
0.57
192
0.77
234
0.47
209
0.38
357
0.38
369
0.44
360
0.42
367
0.37
332
0.34
325
Wz-Net-MNSevtwo views0.76
311
0.40
310
1.34
369
0.50
292
0.40
307
1.44
365
0.83
354
1.15
289
1.16
326
1.25
350
1.20
294
1.13
316
0.81
300
1.16
331
1.00
339
0.22
259
0.19
274
0.24
265
0.23
281
0.28
288
0.26
280
NCC-stereotwo views0.78
315
0.40
310
0.76
309
0.61
349
0.67
373
0.81
278
0.69
333
1.54
377
1.11
318
0.90
259
1.36
317
1.33
339
1.16
354
1.19
334
0.88
309
0.31
322
0.30
341
0.37
346
0.48
374
0.33
315
0.33
321
Abc-Nettwo views0.78
315
0.40
310
0.76
309
0.61
349
0.67
373
0.81
278
0.69
333
1.54
377
1.11
318
0.90
259
1.36
317
1.33
339
1.16
354
1.19
334
0.88
309
0.31
322
0.30
341
0.37
346
0.48
374
0.33
315
0.33
321
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
NCCL2two views0.72
305
0.41
313
0.65
268
0.64
354
0.44
332
0.98
314
1.20
383
1.11
275
1.00
277
0.98
293
0.96
201
1.49
358
0.87
316
0.90
279
0.79
288
0.31
322
0.26
327
0.39
351
0.39
358
0.32
310
0.32
317
SANettwo views1.07
358
0.41
313
1.06
340
0.48
263
0.30
230
1.41
362
0.94
366
1.42
361
3.36
405
1.58
364
2.43
379
2.33
385
1.70
384
1.34
354
1.07
345
0.28
307
0.24
313
0.26
290
0.23
281
0.34
322
0.30
307
FINETtwo views0.67
290
0.42
315
1.00
336
0.46
249
0.43
325
0.83
288
0.89
362
1.08
265
1.50
366
0.87
240
1.14
275
0.71
182
0.68
255
0.92
289
0.70
271
0.36
353
0.30
341
0.26
290
0.24
294
0.35
326
0.33
321
DPSNettwo views0.99
347
0.42
315
1.88
390
0.53
320
0.41
314
1.59
374
1.26
390
2.21
395
1.43
360
1.10
332
1.11
265
1.46
353
1.95
393
1.34
354
1.26
360
0.34
346
0.25
321
0.25
276
0.21
255
0.46
357
0.37
338
ADCReftwo views0.80
319
0.43
317
1.32
368
0.50
292
0.45
336
1.07
328
0.51
283
1.07
261
0.98
265
1.17
339
1.42
329
0.87
248
0.91
322
0.85
266
3.19
395
0.18
176
0.16
235
0.23
251
0.23
281
0.22
245
0.21
244
PA-Nettwo views0.67
290
0.43
317
0.83
317
0.50
292
0.53
354
0.94
303
0.68
329
1.10
270
1.14
324
0.80
191
0.88
172
0.87
248
0.77
289
1.02
312
0.88
309
0.24
274
0.41
376
0.29
317
0.44
368
0.26
276
0.34
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
LALA_ROBtwo views0.74
308
0.43
317
0.69
286
0.54
326
0.40
307
1.01
317
0.95
367
1.21
308
1.07
311
1.22
346
1.12
267
1.56
365
0.79
296
1.04
316
0.86
302
0.33
340
0.22
296
0.35
339
0.30
329
0.35
326
0.31
313
MeshStereopermissivetwo views1.34
374
0.43
317
0.54
221
0.44
209
0.34
276
1.66
377
0.60
310
1.94
389
1.37
354
4.47
416
3.25
394
4.71
407
1.94
392
1.92
385
1.17
353
0.35
350
0.35
364
0.37
346
0.31
336
0.32
310
0.32
317
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
GMStereo_Zeroshotpermissivetwo views0.49
205
0.44
321
0.74
301
0.49
278
0.27
178
0.56
185
0.29
62
0.73
144
0.76
156
0.86
233
0.94
190
0.91
263
0.36
91
0.74
220
0.43
175
0.26
294
0.14
183
0.26
290
0.15
98
0.36
330
0.18
183
Anonymous_2two views0.82
323
0.44
321
0.63
258
0.40
114
0.43
325
0.80
273
0.52
286
0.72
137
0.77
163
0.71
147
0.60
65
0.87
248
0.76
285
0.75
224
0.58
243
0.52
376
0.54
389
0.54
376
4.82
425
0.56
373
0.40
349
PS-NSSStwo views0.58
270
0.44
321
0.62
250
0.42
176
0.33
269
0.66
237
0.58
306
1.02
245
0.86
205
0.77
184
1.28
306
0.72
192
0.64
235
0.82
247
0.59
247
0.31
322
0.26
327
0.40
354
0.27
318
0.33
315
0.26
280
NaN_ROBtwo views0.69
295
0.44
321
0.69
286
0.51
304
0.33
269
0.97
310
1.06
375
1.22
316
1.19
331
1.24
349
0.96
201
1.08
305
0.78
294
1.20
336
0.67
264
0.24
274
0.30
341
0.23
251
0.24
294
0.23
254
0.25
276
HBP-ISPtwo views0.59
277
0.45
325
0.43
115
0.45
230
0.33
269
0.70
247
0.28
55
1.11
275
1.00
277
0.83
220
1.18
289
0.65
161
0.68
255
0.88
272
0.52
230
0.35
350
0.38
369
0.47
365
0.41
366
0.38
336
0.31
313
DANettwo views0.71
301
0.45
325
0.91
328
0.59
342
0.40
307
0.81
278
0.40
217
0.97
227
0.84
193
1.20
344
1.22
295
1.33
339
0.88
319
1.16
331
1.24
358
0.27
301
0.23
306
0.31
325
0.25
303
0.35
326
0.32
317
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
G-Nettwo views0.95
344
0.46
327
1.04
338
0.64
354
0.48
344
2.12
388
0.64
320
1.01
242
0.87
214
1.75
375
2.82
392
1.30
331
1.64
383
1.06
317
0.96
331
0.36
353
0.29
338
0.35
339
0.25
303
0.45
354
0.42
354
RTSCtwo views0.87
332
0.48
328
1.23
360
0.52
315
0.37
289
1.13
338
0.50
269
1.34
346
1.79
380
1.51
361
1.24
300
1.12
313
0.81
300
1.62
371
2.16
384
0.25
284
0.19
274
0.23
251
0.24
294
0.30
300
0.31
313
ADCPNettwo views1.03
352
0.48
328
2.70
397
0.54
326
0.42
320
1.40
360
0.75
346
1.13
280
1.07
311
1.22
346
1.42
329
1.68
370
1.09
348
1.36
359
3.45
399
0.30
319
0.28
333
0.29
317
0.32
342
0.37
332
0.35
330
PDISCO_ROBtwo views0.91
340
0.48
328
1.06
340
0.99
384
0.97
386
1.67
379
0.63
317
1.64
383
1.59
372
1.06
322
1.18
289
1.31
332
0.79
296
1.55
365
0.97
332
0.49
372
0.22
296
0.45
361
0.40
361
0.45
354
0.37
338
CSANtwo views0.83
329
0.49
331
0.77
313
0.60
347
0.41
314
1.14
339
1.06
375
1.19
302
1.46
364
1.32
353
1.43
332
1.37
346
1.19
359
1.27
346
0.86
302
0.39
359
0.31
351
0.36
342
0.37
351
0.35
326
0.34
325
ETE_ROBtwo views0.70
297
0.49
331
0.73
297
0.56
332
0.36
284
0.79
270
0.87
361
1.14
286
0.93
245
1.19
341
1.18
289
1.39
348
0.82
304
0.99
304
0.80
290
0.26
294
0.21
290
0.31
325
0.26
313
0.33
315
0.34
325
MSMD_ROBtwo views1.21
369
0.49
331
0.62
250
0.59
342
0.50
347
1.62
376
0.67
324
1.23
320
1.24
339
2.45
396
3.77
402
3.09
396
2.98
408
1.32
351
0.81
293
0.45
366
0.41
376
0.49
371
0.51
381
0.47
359
0.44
360
PWCDC_ROBbinarytwo views0.89
336
0.49
331
0.80
316
0.74
376
0.40
307
1.03
322
0.39
211
1.33
344
2.35
393
1.02
308
3.77
402
0.81
233
0.92
325
1.20
336
0.90
322
0.34
346
0.22
296
0.24
265
0.20
237
0.34
322
0.29
300
dadtwo views0.58
270
0.50
335
0.64
263
0.43
194
0.30
230
0.59
200
0.36
159
0.78
165
1.25
343
1.01
306
1.17
287
1.15
319
0.53
171
0.68
192
0.50
215
0.35
350
0.23
306
0.37
346
0.21
255
0.29
291
0.20
231
SHDtwo views0.93
343
0.50
335
1.18
355
0.59
342
0.46
343
0.97
310
0.48
259
1.70
386
2.15
387
1.58
364
1.37
320
1.42
351
1.19
359
1.31
350
1.60
369
0.31
322
0.26
327
0.32
330
0.33
345
0.40
339
0.42
354
FBW_ROBtwo views0.88
334
0.50
335
0.85
319
0.55
329
0.40
307
1.17
344
0.78
350
1.50
370
1.37
354
1.33
355
1.27
304
1.48
357
1.00
341
2.57
401
0.98
335
0.25
284
0.32
354
0.45
361
0.30
329
0.34
322
0.28
294
Wz-Net-LNSevtwo views0.71
301
0.51
338
1.36
374
0.50
292
0.41
314
1.15
341
0.69
333
1.21
308
1.07
311
1.02
308
1.12
267
1.08
305
0.87
316
0.89
277
0.89
320
0.24
274
0.22
296
0.21
224
0.19
215
0.26
276
0.26
280
Syn2CoExtwo views0.71
301
0.51
338
0.95
330
0.64
354
0.45
336
0.91
298
0.53
289
1.48
367
1.13
322
0.93
273
1.35
316
1.02
289
0.99
339
0.92
289
0.80
290
0.30
319
0.27
331
0.28
309
0.24
294
0.23
254
0.24
270
psmorigintwo views0.82
323
0.51
338
2.09
392
0.49
278
0.41
314
0.85
292
0.50
269
1.04
252
0.88
218
1.45
359
1.43
332
1.50
359
1.06
345
1.22
339
0.97
332
0.31
322
0.32
354
0.27
302
0.27
318
0.33
315
0.42
354
FADNettwo views0.61
282
0.51
338
1.10
343
0.45
230
0.44
332
0.65
234
0.41
229
1.19
302
1.05
298
0.70
141
0.84
149
0.98
277
0.66
246
0.82
247
0.50
215
0.29
313
0.30
341
0.27
302
0.30
329
0.46
357
0.35
330
MANEtwo views4.13
413
0.51
338
0.64
263
0.66
362
0.56
361
6.89
418
0.99
371
7.55
421
12.04
419
6.68
421
8.57
422
10.69
423
9.45
420
7.59
421
6.39
412
0.49
372
0.43
381
0.48
368
0.98
401
0.49
361
0.48
371
FC-DCNNcopylefttwo views1.59
385
0.51
338
0.66
273
0.61
349
0.49
346
1.56
372
0.70
338
1.66
384
1.53
368
4.64
417
4.62
414
5.85
414
3.34
411
1.84
383
1.11
348
0.46
367
0.42
378
0.47
365
0.46
369
0.48
360
0.46
365
ADCMidtwo views1.14
362
0.52
344
2.23
395
0.53
320
0.43
325
1.07
328
0.75
346
1.23
320
1.05
298
2.15
389
1.44
334
1.50
359
1.43
373
1.56
367
5.01
408
0.26
294
0.24
313
0.29
317
0.31
336
0.37
332
0.33
321
DeepPrunerFtwo views0.89
336
0.52
344
3.43
402
0.68
369
0.81
378
0.72
255
0.72
343
1.22
316
1.99
385
0.93
273
1.01
226
0.87
248
0.86
313
1.08
322
0.95
329
0.34
346
0.28
333
0.43
357
0.39
358
0.30
300
0.32
317
PWC_ROBbinarytwo views0.87
332
0.52
344
1.28
363
0.50
292
0.32
260
0.91
298
0.37
171
1.36
352
1.46
364
1.61
367
2.59
385
1.16
320
1.01
342
1.34
354
1.40
367
0.25
284
0.18
260
0.28
309
0.20
237
0.29
291
0.28
294
XX-TBDtwo views0.32
32
0.53
347
0.26
8
0.51
304
0.20
22
0.37
90
0.24
28
0.40
4
0.73
143
0.54
70
0.69
86
0.31
10
0.25
14
0.32
4
0.27
37
0.16
115
0.10
9
0.12
2
0.09
7
0.13
21
0.11
10
FADNet-RVCtwo views0.60
280
0.53
347
1.14
348
0.46
249
0.39
302
0.61
207
0.39
211
1.12
279
0.87
214
0.70
141
0.84
149
1.04
293
0.55
185
0.94
301
0.69
268
0.26
294
0.25
321
0.28
309
0.28
323
0.31
305
0.31
313
Anonymous Stereotwo views0.75
310
0.54
349
1.78
387
0.57
337
0.56
361
0.62
214
1.25
389
0.96
223
0.99
270
0.96
284
0.95
197
0.83
235
0.58
199
1.27
346
1.21
356
0.31
322
0.30
341
0.31
325
0.33
345
0.33
315
0.36
332
DGSMNettwo views0.76
311
0.55
350
1.29
365
0.58
339
0.62
370
0.94
303
0.70
338
1.26
331
1.11
318
0.83
220
1.24
300
1.00
281
0.71
273
1.03
314
0.81
293
0.34
346
0.29
338
0.41
355
0.40
361
0.57
375
0.55
380
FCDSN-DCtwo views1.39
379
0.56
351
0.65
268
0.74
376
0.59
368
1.38
359
0.63
317
1.35
349
1.39
357
3.26
410
4.50
413
4.61
405
2.63
403
1.58
369
1.03
340
0.46
367
0.42
378
0.48
368
0.47
372
0.50
363
0.50
375
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
aanetorigintwo views0.83
329
0.56
351
1.87
389
0.49
278
0.38
297
0.56
185
0.66
322
0.70
128
1.00
277
2.42
395
2.02
370
1.31
332
1.18
357
0.93
294
1.13
352
0.20
227
0.18
260
0.20
184
0.19
215
0.27
286
0.30
307
ccnettwo views0.82
323
0.57
353
0.75
304
0.54
326
0.59
368
1.09
333
0.66
322
1.38
355
0.94
252
1.12
334
1.44
334
1.29
329
0.92
325
0.95
303
1.24
358
0.49
372
0.42
378
0.50
373
0.47
372
0.51
364
0.46
365
MFN_U_SF_DS_RVCtwo views1.02
351
0.57
353
1.51
381
0.67
365
0.50
347
2.57
393
1.66
405
1.20
306
1.43
360
1.38
357
1.57
347
1.33
339
0.92
325
1.64
374
0.88
309
0.37
356
0.39
373
0.46
364
0.60
386
0.41
345
0.40
349
WZ-Nettwo views1.19
368
0.59
355
4.07
406
0.62
352
0.51
350
1.34
357
1.31
394
1.32
342
1.74
379
1.53
363
1.65
350
1.74
371
1.28
366
2.25
395
2.01
381
0.27
301
0.21
290
0.23
251
0.25
303
0.40
339
0.39
346
MFN_U_SF_RVCtwo views1.09
360
0.59
355
1.97
391
0.67
365
0.44
332
1.93
385
0.60
310
1.85
388
1.36
352
1.61
367
1.54
345
1.95
378
1.37
369
1.64
374
1.73
372
0.40
363
0.37
367
0.45
361
0.48
374
0.44
350
0.44
360
RGCtwo views0.79
318
0.59
355
0.71
293
0.65
359
0.65
372
0.92
302
0.58
306
1.29
336
1.05
298
1.07
325
1.45
337
1.47
356
1.03
343
1.21
338
0.88
309
0.32
334
0.30
341
0.48
368
0.40
361
0.37
332
0.37
338
STTRV1_RVCtwo views0.82
323
0.59
355
1.16
349
0.67
365
0.81
378
1.11
334
0.63
317
1.30
339
1.11
318
0.98
293
1.33
314
1.08
305
0.95
334
1.26
343
0.87
306
0.55
381
0.25
321
0.43
357
0.39
358
0.58
378
0.40
349
ADCStwo views1.51
383
0.61
359
3.42
401
0.59
342
0.51
350
1.27
354
1.08
378
1.59
379
1.81
381
1.91
383
1.66
352
1.51
362
1.42
372
1.94
387
8.60
416
0.33
340
0.32
354
0.33
335
0.36
350
0.44
350
0.42
354
ELAS_RVCcopylefttwo views1.60
386
0.61
359
1.01
337
0.70
372
0.56
361
2.00
387
1.89
412
1.96
390
2.65
396
3.33
411
3.26
395
3.03
393
3.41
412
2.49
399
2.09
383
0.52
376
0.45
384
0.50
373
0.48
374
0.54
371
0.52
377
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.63
388
0.61
359
0.95
330
0.68
369
0.55
358
3.01
406
1.55
403
2.39
397
2.33
392
3.64
413
3.89
406
2.75
391
2.90
407
2.15
393
2.27
390
0.52
376
0.45
384
0.50
373
0.48
374
0.54
371
0.52
377
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
AnyNet_C32two views1.16
366
0.62
362
2.40
396
0.57
337
0.55
358
1.41
362
1.34
395
1.18
300
1.24
339
1.49
360
1.42
329
1.39
348
1.20
361
1.55
365
4.82
406
0.29
313
0.28
333
0.29
317
0.34
347
0.38
336
0.42
354
PASMtwo views0.90
339
0.64
363
1.69
383
0.69
371
0.69
376
0.78
267
0.84
357
1.03
249
1.26
346
1.19
341
1.15
280
1.31
332
0.98
338
1.24
341
1.03
340
0.52
376
0.56
390
0.59
381
0.66
388
0.56
373
0.54
379
SAMSARAtwo views1.07
358
0.65
364
1.19
356
1.06
389
0.90
381
1.76
382
1.76
409
1.46
365
1.44
362
1.51
361
1.16
285
2.00
379
1.14
352
1.48
363
1.31
364
0.39
359
0.44
383
0.35
339
0.38
354
0.49
361
0.49
374
XQCtwo views0.89
336
0.65
364
1.31
366
0.67
365
0.52
353
1.22
349
0.68
329
1.26
331
1.52
367
1.14
337
1.11
265
1.28
328
1.04
344
1.40
362
1.77
375
0.38
357
0.24
313
0.37
346
0.31
336
0.53
369
0.47
369
PVDtwo views1.28
373
0.67
366
1.28
363
0.74
376
0.62
370
1.50
368
0.84
357
1.99
391
2.96
399
2.18
390
2.36
378
1.85
375
1.95
393
1.92
385
1.94
379
0.39
359
0.36
366
0.49
371
0.37
351
0.51
364
0.64
382
GASNettwo views0.67
290
0.72
367
0.96
332
0.70
372
0.48
344
0.62
214
0.47
253
1.08
265
1.03
289
0.94
276
0.82
139
0.93
267
0.83
308
1.33
352
0.80
290
0.31
322
0.22
296
0.29
317
0.28
323
0.44
350
0.24
270
Wz-Net-SNSevtwo views0.91
340
0.73
368
2.13
393
0.56
332
0.45
336
0.95
306
1.13
380
1.34
346
1.24
339
1.02
308
1.30
310
1.46
353
0.86
313
1.81
381
1.50
368
0.25
284
0.23
306
0.25
276
0.26
313
0.32
310
0.29
300
SQANettwo views0.82
323
0.74
369
0.67
277
1.13
390
0.98
388
1.11
334
0.47
253
1.07
261
0.83
190
0.91
264
1.05
246
1.03
291
0.74
280
1.01
307
0.64
258
0.61
383
0.24
313
1.03
390
0.35
349
1.18
394
0.58
381
GANetREF_RVCpermissivetwo views0.80
319
0.75
370
0.86
324
0.66
362
0.42
320
1.15
341
0.98
369
1.14
286
1.19
331
1.01
306
1.02
234
1.10
309
0.90
321
1.15
330
0.76
283
0.48
370
0.39
373
0.57
378
0.38
354
0.63
381
0.46
365
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
UDGNettwo views0.48
189
0.77
371
0.50
200
0.48
263
0.31
247
0.41
121
0.34
124
0.70
128
0.92
240
0.65
112
0.60
65
0.58
114
0.43
128
0.63
155
0.41
166
0.32
334
0.15
208
0.66
382
0.19
215
0.36
330
0.21
244
LSMtwo views4.74
416
0.77
371
10.16
416
0.70
372
56.56
440
1.02
319
1.00
373
1.24
327
1.62
376
2.04
385
2.34
376
1.33
339
1.17
356
1.38
361
1.09
347
0.33
340
0.49
387
0.39
351
0.46
369
0.51
364
10.09
427
EDNetEfficienttwo views1.46
381
0.80
373
6.12
411
0.47
258
0.39
302
0.69
245
0.83
354
0.90
204
2.77
398
3.50
412
1.96
368
1.66
369
2.03
395
1.26
343
4.18
404
0.21
241
0.18
260
0.21
224
0.20
237
0.41
345
0.39
346
Consistency-Rafttwo views1.01
348
0.81
374
1.24
361
0.84
379
0.97
386
0.81
278
0.84
357
1.30
339
1.59
372
1.05
319
1.68
355
1.12
313
0.91
322
0.92
289
1.11
348
0.65
384
0.74
397
0.79
385
0.90
397
1.06
392
0.79
389
AnonymousMtwo views0.41
137
0.81
374
0.29
11
0.34
12
0.22
44
0.28
35
0.38
191
0.53
30
0.41
44
0.70
141
0.49
35
0.47
74
0.27
27
0.41
21
0.31
71
0.15
81
0.12
101
1.51
394
0.26
313
0.12
9
0.10
3
MaskLacGwcNet_RVCtwo views0.67
290
0.81
374
0.73
297
0.53
320
0.37
289
1.40
360
0.53
289
1.04
252
0.79
177
0.88
248
0.94
190
0.95
270
0.53
171
0.93
294
0.58
243
0.39
359
0.30
341
0.57
378
0.31
336
0.53
369
0.30
307
UDGtwo views0.88
334
0.82
377
0.67
277
1.00
386
0.96
385
1.02
319
0.57
305
1.13
280
0.99
270
0.90
259
0.97
215
1.31
332
0.99
339
0.85
266
0.84
297
0.54
380
0.32
354
1.77
397
0.40
361
0.94
387
0.66
384
BEATNet-Init1two views15.13
425
0.82
377
50.86
442
0.72
375
0.53
354
38.10
436
7.03
422
11.83
427
14.25
424
29.78
441
30.17
440
48.21
444
22.64
433
26.78
435
18.11
424
0.42
364
0.38
369
0.47
365
0.46
369
0.51
364
0.48
371
MSC_U_SF_DS_RVCtwo views1.34
374
0.87
379
1.76
386
0.86
380
0.56
361
4.29
412
1.79
410
1.50
370
1.98
384
1.61
367
1.85
364
1.84
373
1.41
371
1.89
384
1.36
365
0.48
370
0.40
375
0.56
377
0.57
384
0.69
382
0.48
371
anonymitytwo views0.97
345
0.89
380
1.05
339
0.92
382
1.03
391
0.97
310
0.81
353
1.29
336
0.91
235
1.07
325
0.98
216
1.00
281
0.95
334
1.02
312
0.92
325
0.96
394
0.95
412
0.90
387
0.91
400
0.92
386
0.94
394
NVStereoNet_ROBtwo views1.24
371
0.90
381
1.13
347
0.86
380
0.88
380
1.11
334
0.99
371
1.42
361
1.53
368
1.59
366
2.48
380
2.24
382
1.53
375
1.96
388
1.30
363
0.76
389
0.70
394
0.78
384
1.00
402
0.71
383
0.88
392
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
otakutwo views1.04
353
0.93
382
0.88
326
1.33
396
1.05
393
1.66
377
0.70
338
1.40
359
1.18
329
1.08
328
1.32
313
1.33
339
0.91
322
1.23
340
0.76
283
0.72
387
0.46
386
1.24
392
0.50
379
1.40
395
0.75
385
SPS-STEREOcopylefttwo views1.25
372
0.93
382
1.06
340
1.04
388
1.03
391
1.41
362
0.91
365
1.51
373
1.19
331
2.09
387
1.83
362
1.94
377
1.39
370
1.62
371
1.39
366
0.97
395
0.94
411
0.90
387
0.89
396
0.96
389
0.96
397
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM+DAISYtwo views1.35
376
0.94
384
1.25
362
0.96
383
1.00
390
1.52
370
1.02
374
1.34
346
1.21
334
2.64
398
2.65
387
2.44
386
1.56
378
1.64
374
1.26
360
0.97
395
0.95
412
0.90
387
0.90
397
0.94
387
0.96
397
RTStwo views1.98
394
0.96
385
11.36
418
0.65
359
0.57
365
2.77
398
1.40
398
1.39
356
2.26
388
1.89
380
2.56
382
1.32
337
1.25
363
5.20
414
4.05
402
0.31
322
0.22
296
0.29
317
0.29
327
0.40
339
0.37
338
RTSAtwo views1.98
394
0.96
385
11.36
418
0.65
359
0.57
365
2.77
398
1.40
398
1.39
356
2.26
388
1.89
380
2.56
382
1.32
337
1.25
363
5.20
414
4.05
402
0.31
322
0.22
296
0.29
317
0.29
327
0.40
339
0.37
338
CC-Net-ROBtwo views0.82
323
0.96
385
0.85
319
0.58
339
0.45
336
1.27
354
0.70
338
1.17
297
1.02
284
0.83
220
1.23
299
0.90
261
0.77
289
1.06
317
0.69
268
0.46
367
0.34
362
1.71
396
0.38
354
0.59
379
0.36
332
Ntrotwo views1.09
360
0.97
388
0.91
328
1.44
397
1.19
395
1.69
380
0.80
352
1.35
349
1.25
343
1.00
301
1.29
309
1.31
332
0.97
337
1.26
343
0.84
297
0.84
391
0.43
381
1.36
393
0.50
379
1.56
396
0.78
387
MFMNet_retwo views1.14
362
0.97
388
1.19
356
0.99
384
0.95
384
1.25
353
1.22
386
1.39
356
1.55
370
1.69
374
1.67
354
1.21
321
1.53
375
1.12
328
0.99
336
0.87
393
0.75
401
0.79
385
0.75
392
0.90
385
0.94
394
AnyNet_C01two views1.56
384
1.05
390
7.45
414
0.64
354
0.54
356
1.99
386
1.38
397
1.43
363
1.36
352
1.63
370
1.92
366
1.84
373
1.33
368
2.40
397
4.03
401
0.33
340
0.32
354
0.32
330
0.34
347
0.44
350
0.45
364
Wz-Net-TNSevtwo views1.14
362
1.06
391
4.32
408
0.49
278
0.42
320
1.51
369
1.11
379
1.48
367
1.40
359
1.22
346
1.26
303
1.58
367
1.43
373
1.76
379
1.70
371
0.32
334
0.31
351
0.26
290
0.30
329
0.41
345
0.41
353
EDNetEfficientorigintwo views9.93
421
1.15
392
175.16
444
0.48
263
0.36
284
1.04
326
0.68
329
1.24
327
2.69
397
3.17
409
2.50
381
2.30
383
2.07
396
1.76
379
2.21
385
0.20
227
0.18
260
0.24
265
0.19
215
0.51
364
0.50
375
WAO-7two views1.90
392
1.20
393
1.35
370
1.27
394
1.06
394
2.84
400
1.56
404
3.23
405
3.06
403
2.23
391
3.33
399
3.17
397
2.28
398
3.12
402
2.21
385
1.02
397
0.91
407
1.06
391
1.03
405
1.04
391
0.97
400
JetBluetwo views2.78
403
1.26
394
7.04
413
1.16
391
1.48
398
8.00
420
6.02
421
2.60
398
1.92
383
2.12
388
2.64
386
3.34
400
3.05
409
6.49
418
3.39
397
0.78
390
0.76
402
0.75
383
0.76
393
0.97
390
1.18
408
ACVNet_2two views1.65
389
1.27
395
1.41
377
1.75
400
1.62
400
2.22
389
1.20
383
2.30
396
2.62
395
1.78
377
2.56
382
3.03
393
1.61
380
1.54
364
1.12
351
1.06
398
0.58
392
1.82
398
0.70
391
1.82
400
0.96
397
ACVNet-4btwo views1.35
376
1.31
396
1.10
343
1.90
404
1.59
399
1.92
384
0.77
348
1.52
376
1.62
376
1.05
319
1.60
349
2.11
380
0.94
331
1.64
374
0.77
287
1.30
402
0.35
364
2.03
404
0.67
389
1.88
404
0.84
390
ACVNet_1two views1.46
381
1.33
397
1.12
346
1.91
405
1.62
400
1.83
383
0.98
369
2.00
392
1.85
382
1.39
358
1.53
344
2.32
384
1.53
375
1.34
354
1.11
348
1.30
402
0.50
388
2.06
406
0.58
385
1.93
406
0.95
396
Deantwo views1.98
394
1.36
398
1.36
374
2.12
407
1.81
407
2.74
395
1.36
396
3.37
409
3.80
409
2.08
386
3.32
398
3.21
398
1.82
387
1.71
378
1.67
370
1.27
399
0.77
403
1.99
400
0.90
397
1.86
401
1.03
401
LVEtwo views2.12
399
1.44
399
1.36
374
1.99
406
1.78
405
2.75
396
1.79
410
2.82
399
3.95
410
1.90
382
4.33
412
3.52
402
1.81
386
2.24
394
1.74
373
1.74
410
0.87
406
2.06
406
1.13
408
1.91
405
1.35
411
RainbowNettwo views1.35
376
1.49
400
1.19
356
1.88
403
1.45
397
1.48
367
1.07
377
1.61
381
1.55
370
1.20
344
1.59
348
1.54
363
1.13
351
1.34
354
0.97
332
1.36
405
0.70
394
1.82
398
0.79
394
1.71
398
1.07
402
WAO-6two views2.04
397
1.50
401
1.16
349
1.70
399
1.67
404
2.69
394
1.44
401
3.06
402
3.63
408
1.98
384
3.27
396
3.54
403
2.07
396
2.36
396
2.22
387
1.31
404
0.91
407
2.04
405
1.22
412
1.73
399
1.27
410
coex-fttwo views6.43
419
1.51
402
87.33
443
0.49
278
0.38
297
1.34
357
1.21
385
1.16
292
8.09
416
12.12
424
2.79
389
2.77
392
3.31
410
1.16
331
3.15
394
0.24
274
0.23
306
0.27
302
0.24
294
0.45
354
0.37
338
WAO-8two views2.92
404
1.55
403
1.35
370
1.79
401
1.63
402
5.23
414
1.22
386
4.58
416
12.56
421
2.84
403
4.07
410
4.83
408
2.72
405
3.49
406
2.25
388
1.27
399
0.91
407
1.99
400
1.15
410
1.86
401
1.15
404
Venustwo views2.92
404
1.55
403
1.35
370
1.79
401
1.63
402
5.23
414
1.22
386
4.58
416
12.56
421
2.84
403
4.06
409
4.83
408
2.72
405
3.49
406
2.25
388
1.27
399
0.91
407
1.99
400
1.15
410
1.86
401
1.15
404
IMH-64-1two views1.86
390
1.62
405
1.16
349
2.20
408
1.89
408
2.33
390
1.30
391
2.89
400
2.29
390
1.66
371
2.80
390
2.49
387
1.61
380
2.10
391
1.78
376
1.60
406
0.74
397
2.43
410
1.02
403
2.12
407
1.17
406
IMH-64two views1.86
390
1.62
405
1.16
349
2.20
408
1.89
408
2.33
390
1.30
391
2.89
400
2.29
390
1.66
371
2.80
390
2.49
387
1.61
380
2.10
391
1.78
376
1.60
406
0.74
397
2.43
410
1.02
403
2.12
407
1.17
406
IMHtwo views2.04
397
1.62
405
1.20
359
2.20
408
1.89
408
2.91
405
1.30
391
3.11
403
3.03
401
1.81
378
3.35
400
3.03
393
1.90
390
2.48
398
1.80
378
1.66
409
0.77
403
2.45
412
1.04
406
2.15
409
1.19
409
PWCKtwo views1.92
393
1.66
408
3.12
400
1.65
398
0.91
382
2.84
400
2.26
415
2.10
393
2.41
394
2.36
394
2.31
374
2.22
381
1.82
387
3.43
405
2.03
382
1.61
408
0.71
396
1.51
394
0.82
395
1.69
397
0.91
393
TorneroNet-64two views3.44
407
1.86
409
1.42
378
2.58
415
2.28
413
6.87
417
1.68
406
4.70
418
12.03
418
2.31
393
5.59
418
8.25
419
2.55
402
3.97
411
2.73
392
1.81
411
0.74
397
2.57
414
1.07
407
2.35
411
1.44
412
TorneroNettwo views4.53
415
1.89
410
1.48
380
2.55
413
2.27
412
13.78
425
1.69
407
4.84
420
23.73
435
2.89
406
7.70
421
7.06
418
2.69
404
4.26
413
3.42
398
1.84
412
0.77
403
2.68
416
1.13
408
2.42
412
1.47
413
KSHMRtwo views2.57
401
1.93
411
1.69
383
2.63
416
2.42
415
2.86
402
2.07
413
3.27
407
6.50
414
2.49
397
3.36
401
3.41
401
1.92
391
2.49
399
1.94
379
2.13
415
1.40
417
2.79
419
1.50
415
2.73
415
1.77
414
UNDER WATER-64two views3.53
409
2.01
412
3.94
405
3.22
421
2.49
417
5.41
416
2.60
418
3.43
410
12.41
420
3.03
408
2.68
388
6.07
416
4.04
414
3.79
410
3.33
396
2.02
413
1.24
416
2.63
415
1.46
414
2.78
416
2.08
418
FADEtwo views2.05
413
1.03
387
0.99
389
3.91
413
3.00
400
1.76
376
2.73
390
5.95
416
11.57
431
1.70
419
23.09
437
15.86
431
0.62
380
0.65
383
UNDER WATERtwo views3.46
408
2.07
414
3.64
404
3.09
419
2.48
416
3.75
410
2.42
417
3.31
408
13.77
423
2.90
407
2.95
393
5.84
413
3.69
413
3.69
408
3.48
400
2.07
414
1.11
414
2.70
417
1.40
413
2.84
418
1.98
416
ktntwo views2.98
406
2.25
415
1.73
385
2.84
417
2.53
418
3.76
411
2.15
414
3.70
411
5.47
413
2.75
400
5.17
417
5.94
415
2.48
400
3.23
403
2.46
391
2.34
419
1.44
418
2.78
418
2.03
418
2.45
413
2.01
417
notakertwo views2.76
402
2.29
416
1.80
388
2.96
418
2.58
419
2.90
404
1.75
408
3.24
406
3.05
402
2.78
401
4.24
411
6.15
417
2.51
401
3.34
404
2.75
393
2.31
417
1.18
415
3.00
420
1.65
416
2.84
418
1.97
415
MADNet+two views2.23
400
2.43
417
10.85
417
1.22
393
0.91
382
2.76
397
1.40
398
2.12
394
1.67
378
1.32
353
1.74
358
1.86
376
1.74
385
6.25
417
4.41
405
0.65
384
0.64
393
0.58
380
0.54
383
0.80
384
0.76
386
HanzoNettwo views6.76
420
2.45
418
4.22
407
3.19
420
2.94
421
3.62
409
2.28
416
4.79
419
7.20
415
14.00
428
13.19
426
17.49
428
22.30
432
13.25
426
6.19
411
4.20
423
1.93
420
3.10
421
2.56
420
3.35
421
2.88
422
DPSimNet_ROBtwo views3.58
410
2.45
418
8.57
415
2.53
412
2.37
414
2.88
403
3.77
420
3.14
404
3.23
404
4.71
418
3.86
405
4.68
406
4.87
417
4.07
412
5.62
409
2.33
418
2.33
421
2.47
413
2.52
419
2.51
414
2.64
420
DDUNettwo views1.06
356
2.56
420
0.68
280
1.21
392
1.26
396
1.03
322
0.69
333
1.11
275
0.94
252
0.96
284
1.22
295
1.27
326
0.82
304
0.93
294
0.72
277
0.84
391
0.38
369
1.99
400
0.60
386
1.10
393
0.85
391
DispFullNettwo views1.60
386
2.63
421
2.75
398
2.56
414
1.79
406
1.24
352
0.47
253
1.37
354
1.45
363
1.87
379
1.50
341
1.55
364
2.46
399
2.04
390
1.04
343
0.59
382
0.18
260
2.32
409
0.68
390
2.29
410
1.14
403
MADNet++two views4.03
411
2.70
422
3.44
403
3.72
423
3.44
422
4.44
413
3.52
419
3.95
414
3.61
407
4.46
415
4.98
416
4.10
404
4.58
416
7.00
420
5.89
410
3.74
420
3.67
424
3.27
422
2.71
421
3.70
423
3.66
424
SPstereotwo views24.26
430
4.19
423
6.66
412
4.29
424
3.79
423
45.68
437
78.09
443
63.52
445
33.36
444
27.50
440
26.65
432
39.53
443
33.55
442
42.77
445
51.02
438
3.90
421
3.72
425
5.95
427
4.66
423
3.15
420
3.30
423
JetRedtwo views5.27
417
5.84
424
12.81
421
2.36
411
2.83
420
12.23
424
10.50
423
4.46
415
3.60
406
3.86
414
3.83
404
4.85
410
4.18
415
6.78
419
11.96
419
2.17
416
2.96
423
2.18
408
1.97
417
3.38
422
2.68
421
DPSMNet_ROBtwo views12.08
424
8.00
425
21.00
424
8.97
428
16.79
427
10.67
421
30.89
430
9.02
424
15.17
426
6.51
420
15.41
430
9.04
421
14.85
423
9.27
423
21.67
427
4.58
425
8.57
427
5.09
425
9.29
428
5.90
426
10.95
428
DGTPSM_ROBtwo views12.07
423
8.00
425
20.99
423
8.93
427
16.78
426
10.67
421
30.87
429
9.01
423
15.16
425
6.50
419
15.41
430
9.04
421
14.85
423
9.25
422
21.67
427
4.57
424
8.57
427
5.08
424
9.28
427
5.90
426
10.95
428
ASD4two views9.96
422
8.86
427
17.78
422
7.17
425
9.80
424
16.08
426
28.92
428
9.77
425
8.20
417
7.02
422
7.08
420
8.47
420
9.57
421
11.17
425
20.26
425
4.12
422
4.14
426
5.57
426
4.74
424
5.53
424
4.90
426
Anonymous_1two views33.25
432
18.26
428
23.92
426
20.54
429
21.28
430
25.59
428
35.94
431
22.01
436
15.57
427
13.33
425
13.49
427
18.08
429
15.29
425
20.36
427
24.60
429
16.28
435
8.84
429
66.59
442
118.00
442
155.73
445
11.23
430
DPSM_ROBtwo views17.78
426
18.63
429
24.31
430
20.90
430
19.47
428
25.97
429
36.21
432
21.23
434
16.24
428
13.38
426
14.06
428
19.18
431
16.30
426
20.78
428
25.67
430
9.38
429
9.23
430
9.49
429
9.82
429
13.51
429
11.91
431
DPSMtwo views17.78
426
18.63
429
24.31
430
20.90
430
19.47
428
25.97
429
36.21
432
21.23
434
16.24
428
13.38
426
14.06
428
19.18
431
16.30
426
20.78
428
25.67
430
9.38
429
9.23
430
9.49
429
9.82
429
13.51
429
11.91
431
xxxxx1two views36.64
438
19.51
431
24.21
427
61.66
442
64.63
442
27.28
432
40.10
434
20.25
429
18.63
431
14.07
429
12.97
423
17.26
425
17.36
428
21.70
431
27.93
432
13.18
432
18.50
435
111.26
443
133.37
443
29.24
437
39.73
440
tt_lltwo views36.64
438
19.51
431
24.21
427
61.66
442
64.63
442
27.28
432
40.10
434
20.25
429
18.63
431
14.07
429
12.97
423
17.26
425
17.36
428
21.70
431
27.93
432
13.18
432
18.50
435
111.26
443
133.37
443
29.24
437
39.73
440
fftwo views36.64
438
19.51
431
24.21
427
61.66
442
64.63
442
27.28
432
40.10
434
20.25
429
18.63
431
14.07
429
12.97
423
17.26
425
17.36
428
21.70
431
27.93
432
13.18
432
18.50
435
111.26
443
133.37
443
29.24
437
39.73
440
PMLtwo views40.80
444
29.24
434
11.87
420
7.20
426
14.47
425
92.13
444
213.69
445
7.63
422
23.35
434
74.72
445
190.14
445
50.17
445
26.15
434
21.39
430
12.70
420
8.76
428
2.92
422
8.45
428
3.25
422
13.26
428
4.42
425
LRCNet_RVCtwo views21.24
429
31.15
435
21.41
425
28.98
433
23.82
431
3.13
407
0.60
310
20.96
433
1.59
372
25.58
433
28.15
435
21.99
433
14.79
422
21.94
434
16.41
423
28.89
442
14.87
433
33.53
438
31.28
438
29.51
440
26.16
438
DLNR_Zeroshot_testpermissivetwo views20.09
428
36.28
436
38.04
433
169.85
445
61.80
441
0.23
5
0.20
1
13.88
428
0.37
33
0.44
47
0.66
79
0.43
60
0.21
5
0.62
145
0.28
47
5.46
426
0.10
9
0.15
45
0.11
18
72.60
444
0.11
10
HaxPigtwo views31.96
431
37.24
437
34.27
432
24.37
432
24.88
432
18.26
427
19.86
425
20.64
432
28.52
436
35.97
442
38.75
441
25.57
434
28.72
435
33.88
436
34.39
435
35.94
443
38.87
443
37.80
439
40.48
439
39.68
441
41.15
443
CasAABBNettwo views35.74
433
37.43
438
48.72
437
42.22
439
39.20
438
52.24
438
73.12
439
42.61
442
32.62
441
26.78
434
27.95
433
38.58
440
32.60
436
41.67
442
51.65
443
18.74
436
18.57
438
19.15
435
19.77
433
27.20
434
23.98
436
Selective-RAFT-Errortwo views35.84
437
37.49
439
48.83
441
42.26
440
39.24
439
52.30
442
73.09
438
42.66
443
32.61
437
26.80
435
28.30
436
38.84
442
33.51
441
41.68
443
51.59
439
18.82
440
18.58
439
19.17
436
19.80
434
27.28
435
24.05
437
MyStereo03two views35.77
434
37.55
440
48.75
438
42.19
436
39.18
435
52.27
439
73.13
440
42.32
439
32.61
437
27.03
437
28.40
437
38.50
437
32.89
437
41.62
439
51.63
440
18.78
437
18.59
440
19.11
431
19.80
434
27.18
431
23.95
433
MyStereo02two views35.77
434
37.55
440
48.75
438
42.19
436
39.18
435
52.27
439
73.13
440
42.32
439
32.61
437
27.03
437
28.40
437
38.50
437
32.89
437
41.62
439
51.63
440
18.78
437
18.59
440
19.11
431
19.80
434
27.18
431
23.95
433
MyStereotwo views35.77
434
37.55
440
48.75
438
42.19
436
39.18
435
52.27
439
73.13
440
42.32
439
32.61
437
27.03
437
28.40
437
38.50
437
32.89
437
41.62
439
51.63
440
18.78
437
18.59
440
19.11
431
19.80
434
27.18
431
23.95
433
LSM0two views38.95
443
37.60
443
48.58
436
43.57
441
91.06
445
52.57
443
72.57
437
43.17
444
32.63
442
26.97
436
27.97
434
38.65
441
32.94
440
41.86
444
51.78
444
18.89
441
18.41
434
19.13
434
19.63
432
27.29
436
33.77
439
AVERAGE_ROBtwo views37.58
442
40.13
444
40.15
434
34.81
435
33.82
434
28.55
435
25.10
427
32.02
438
34.06
445
41.28
443
40.66
442
34.46
436
34.81
444
39.18
437
37.57
437
42.78
444
43.44
444
43.82
440
43.03
440
40.47
442
41.51
444
MEDIAN_ROBtwo views37.38
441
40.85
445
40.60
435
32.31
434
31.85
433
27.20
431
24.55
426
29.10
437
33.19
443
42.09
444
41.76
443
33.35
435
34.39
443
39.78
438
37.07
436
43.64
445
44.10
445
44.12
441
43.40
441
41.51
443
42.76
445
test_example2two views176.61
445
205.14
446
198.86
445
188.60
446
190.98
446
152.67
445
170.61
444
94.86
446
123.55
446
178.88
446
179.48
444
158.94
446
141.34
445
192.61
446
198.96
445
203.76
446
236.37
446
164.13
446
173.55
446
218.58
446
160.41
446