This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort by
CAStwo views0.63
121
0.18
1
0.37
2
2.27
396
0.84
353
0.57
78
0.54
195
0.79
15
0.62
25
0.48
20
0.70
33
0.36
2
0.26
1
0.45
3
0.35
29
2.24
397
0.10
1
0.14
1
0.09
1
0.15
6
1.06
387
RAFT-Stereo + iAFFtwo views0.54
66
0.25
38
0.68
93
0.43
9
0.24
11
0.40
10
0.34
47
1.04
85
1.09
171
1.32
251
1.60
288
0.80
99
0.68
131
0.67
34
0.39
58
0.13
1
0.10
1
0.18
39
0.17
78
0.17
26
0.13
4
4D-IteraStereotwo views0.48
36
0.24
21
0.76
160
0.50
75
0.44
208
0.66
122
0.31
30
0.87
27
1.02
142
1.03
116
0.72
38
0.78
94
0.32
9
0.64
29
0.37
41
0.17
33
0.11
3
0.23
155
0.19
112
0.19
75
0.13
4
MC-Stereotwo views0.43
17
0.23
15
0.48
16
0.51
98
0.28
54
0.39
9
0.32
34
0.88
34
0.68
46
0.60
42
0.84
58
0.56
45
0.61
110
1.03
103
0.31
6
0.17
33
0.11
3
0.17
17
0.15
33
0.16
14
0.13
4
test-3two views0.54
66
0.22
10
0.68
93
0.47
43
0.27
35
0.58
79
0.35
51
0.92
43
1.00
137
1.32
251
0.69
32
0.87
131
0.45
32
1.68
216
0.37
41
0.16
12
0.11
3
0.20
77
0.16
62
0.17
26
0.13
4
test_1two views0.54
66
0.22
10
0.68
93
0.47
43
0.27
35
0.58
79
0.35
51
0.92
43
1.00
137
1.28
226
0.68
29
0.87
131
0.45
32
1.67
211
0.37
41
0.16
12
0.11
3
0.20
77
0.16
62
0.17
26
0.13
4
CREStereo++_RVCtwo views0.47
34
0.21
4
0.38
5
0.45
34
0.38
175
0.45
19
0.25
4
0.75
9
1.29
261
0.80
67
1.21
172
0.47
21
0.37
13
0.53
7
0.44
88
0.16
12
0.11
3
0.15
3
0.80
384
0.18
45
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
AFF-stereotwo views0.58
100
0.25
38
0.64
76
0.46
37
0.29
66
0.34
4
0.38
74
1.15
125
1.14
194
1.17
181
1.60
288
1.10
206
0.71
139
0.97
92
0.43
86
0.13
1
0.11
3
0.19
53
0.19
112
0.17
26
0.14
13
MoCha-V2two views0.37
3
0.24
21
0.54
34
0.72
306
0.22
5
0.43
15
0.31
30
0.95
55
0.55
18
0.43
8
0.46
4
0.43
7
0.60
100
0.44
2
0.29
1
0.14
4
0.12
9
0.15
3
0.13
12
0.17
26
0.12
3
LargeStereotwo views0.40
10
0.22
10
0.51
25
0.52
114
0.29
66
0.45
19
0.25
4
1.65
238
0.46
4
0.37
2
0.57
20
0.46
17
0.45
32
0.50
5
0.38
51
0.19
94
0.12
9
0.16
11
0.13
12
0.16
14
0.15
29
ACVNet-DCAtwo views0.56
90
0.31
163
0.50
19
0.54
138
0.26
22
1.18
270
0.51
176
1.42
182
0.78
65
0.58
35
0.79
51
0.48
24
0.88
205
1.46
175
0.32
8
0.20
122
0.12
9
0.25
212
0.15
33
0.22
158
0.21
156
xx1two views0.67
153
0.31
163
0.50
19
0.54
138
0.26
22
1.18
270
0.51
176
0.93
48
3.05
389
0.58
35
0.79
51
0.95
158
0.77
156
1.46
175
0.32
8
0.20
122
0.12
9
0.24
175
0.23
222
0.22
158
0.21
156
1test111two views0.54
66
0.31
163
0.50
19
0.54
138
0.26
22
1.18
270
0.51
176
1.42
182
0.78
65
0.58
35
0.79
51
0.48
24
0.88
205
0.88
75
0.59
168
0.20
122
0.12
9
0.25
212
0.15
33
0.22
158
0.21
156
cc1two views0.64
131
0.31
163
0.50
19
0.54
138
0.26
22
1.18
270
0.51
176
0.93
48
3.05
389
0.58
35
0.79
51
0.48
24
0.88
205
1.46
175
0.32
8
0.20
122
0.12
9
0.25
212
0.15
33
0.19
75
0.19
116
ff7two views0.43
17
0.27
72
0.56
40
0.44
24
0.33
126
0.50
42
0.42
101
0.87
27
0.50
7
0.49
23
0.53
11
0.44
10
0.48
50
1.38
158
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
fffftwo views0.43
17
0.27
72
0.56
40
0.44
24
0.33
126
0.50
42
0.42
101
0.87
27
0.50
7
0.49
23
0.53
11
0.44
10
0.48
50
1.38
158
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
DualNettwo views1.09
291
0.33
193
0.85
186
0.53
123
0.37
158
0.74
155
0.56
214
0.95
55
2.47
377
1.15
161
1.45
252
1.06
190
0.82
175
1.55
192
7.61
397
0.20
122
0.12
9
0.31
273
0.27
266
0.19
75
0.20
139
ffmtwo views0.72
166
0.33
193
0.85
186
0.53
123
0.37
158
0.74
155
0.56
214
0.95
55
2.47
377
1.15
161
1.45
252
1.06
190
0.82
175
1.55
192
0.32
8
0.20
122
0.12
9
0.31
273
0.27
266
0.19
75
0.20
139
ff1two views1.37
328
0.33
193
0.85
186
0.53
123
0.37
158
0.74
155
0.56
214
0.95
55
2.47
377
1.15
161
1.45
252
1.06
190
0.82
175
7.22
388
7.61
397
0.20
122
0.12
9
0.31
273
0.27
266
0.19
75
0.20
139
11ttwo views0.43
17
0.27
72
0.56
40
0.44
24
0.33
126
0.50
42
0.42
101
0.87
27
0.50
7
0.49
23
0.53
11
0.44
10
0.48
50
1.38
158
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
tt1two views0.62
115
0.32
177
0.51
25
0.54
138
0.26
22
1.16
267
0.48
161
0.95
55
2.47
377
0.57
34
0.77
46
0.49
31
0.81
171
1.55
192
0.32
8
0.20
122
0.12
9
0.24
175
0.15
33
0.19
75
0.20
139
IGEV_Zeroshot_testtwo views0.53
52
0.30
131
0.99
236
0.56
170
0.35
144
0.41
12
0.32
34
1.37
172
0.63
27
1.00
106
1.09
127
0.95
158
0.41
20
0.83
66
0.39
58
0.18
61
0.12
9
0.19
53
0.18
92
0.19
75
0.17
64
MSKI-zero shottwo views0.55
81
0.26
49
0.57
48
0.51
98
0.26
22
0.69
137
0.28
19
1.18
133
0.64
29
0.91
85
1.32
214
0.82
107
0.33
10
1.92
245
0.32
8
0.17
33
0.12
9
0.17
17
0.13
12
0.16
14
0.16
44
DLNR_Zeroshot_testpermissivetwo views23.17
427
48.52
444
43.29
434
176.68
444
78.69
440
0.35
5
0.21
1
23.41
427
0.75
58
0.66
47
0.86
60
0.59
55
0.30
4
1.56
195
0.44
88
9.57
425
0.12
9
0.18
39
0.14
25
76.92
443
0.16
44
CASnettwo views0.41
13
0.25
38
0.48
16
0.50
75
0.20
2
0.50
42
0.36
61
0.81
23
0.80
70
0.83
75
0.68
29
0.48
24
0.31
6
0.54
9
0.32
8
0.18
61
0.12
9
0.27
242
0.22
202
0.23
183
0.14
13
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LoS_RVCtwo views0.42
14
0.26
49
0.40
9
0.44
24
0.82
351
0.51
53
0.44
129
0.64
3
0.41
2
0.44
10
0.78
48
0.44
10
0.47
42
0.56
13
0.36
35
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
376
anonymousdsptwo views0.43
17
0.27
72
0.53
30
0.44
24
0.32
110
0.50
42
0.42
101
0.89
35
0.51
14
0.49
23
0.53
11
0.47
21
0.47
42
1.33
146
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
Selective-IGEVtwo views0.39
6
0.24
21
0.50
19
0.44
24
0.25
20
0.46
21
0.33
37
1.25
155
0.40
1
0.35
1
0.45
3
0.52
39
0.30
4
1.07
114
0.30
2
0.14
4
0.12
9
0.17
17
0.13
12
0.16
14
0.13
4
EGLCR-Stereotwo views0.37
3
0.22
10
0.51
25
0.43
9
0.26
22
0.44
18
0.22
2
0.99
68
0.48
5
0.42
5
0.42
2
0.67
71
0.29
3
0.86
73
0.33
17
0.17
33
0.12
9
0.19
53
0.17
78
0.17
26
0.15
29
RCA-Stereotwo views0.50
41
0.23
15
0.58
51
0.48
55
0.33
126
0.55
70
0.45
140
0.97
64
1.38
301
0.68
48
1.05
114
0.63
61
0.80
168
0.59
17
0.32
8
0.17
33
0.12
9
0.17
17
0.14
25
0.16
14
0.14
13
ccc-4two views0.43
17
0.27
72
0.56
40
0.44
24
0.33
126
0.50
42
0.42
101
0.87
27
0.50
7
0.49
23
0.53
11
0.44
10
0.48
50
1.38
158
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
IGEV-Stereopermissivetwo views0.43
17
0.27
72
0.54
34
0.45
34
0.32
110
0.50
42
0.42
101
0.90
41
0.51
14
0.49
23
0.53
11
0.47
21
0.47
42
1.32
144
0.33
17
0.17
33
0.12
9
0.21
100
0.15
33
0.18
45
0.18
82
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
test_3two views0.55
81
0.23
15
0.71
119
0.53
123
0.28
54
0.61
92
0.40
88
0.92
43
1.05
153
1.19
190
0.68
29
0.93
149
0.44
29
1.67
211
0.39
58
0.15
7
0.12
9
0.22
126
0.19
112
0.21
136
0.14
13
TransformOpticalFlowtwo views0.96
259
0.28
88
0.89
210
0.52
114
0.31
95
0.66
122
0.54
195
1.75
259
1.12
181
1.09
128
1.44
250
1.37
269
1.01
258
6.70
382
0.42
77
0.19
94
0.12
9
0.20
77
0.19
112
0.18
45
0.19
116
PFNettwo views0.91
248
0.26
49
1.10
273
0.63
242
0.32
110
0.64
101
0.56
214
1.17
128
0.99
132
1.47
294
1.08
122
0.98
167
0.69
134
6.62
377
0.54
155
0.20
122
0.12
9
0.24
175
0.19
112
0.20
102
0.17
64
IRAFT_RVCtwo views0.88
240
0.28
88
0.76
160
0.63
242
0.31
95
0.65
113
1.02
329
1.22
147
0.94
109
1.22
202
1.04
113
1.01
180
0.98
246
5.82
365
0.53
149
0.22
172
0.12
9
0.25
212
0.20
140
0.20
102
0.19
116
cross-rafttwo views0.54
66
0.25
38
0.61
63
0.52
114
0.29
66
0.68
133
0.37
70
1.46
192
0.76
61
1.01
109
1.06
116
1.28
252
0.46
36
0.71
41
0.35
29
0.15
7
0.12
9
0.18
39
0.16
62
0.19
75
0.14
13
GMM-Stereotwo views0.74
183
0.25
38
0.59
56
0.54
138
0.34
141
0.72
149
0.99
324
1.01
77
0.87
84
1.36
267
1.78
317
1.12
211
0.81
171
2.09
261
0.46
109
0.18
61
0.12
9
0.25
212
0.25
244
0.20
102
0.85
377
iRaftStereo_RVCtwo views0.47
34
0.26
49
0.64
76
0.50
75
0.29
66
0.53
60
0.33
37
1.05
91
0.77
63
0.84
77
1.00
90
0.55
43
0.37
13
0.81
63
0.40
62
0.17
33
0.12
9
0.22
126
0.20
140
0.19
75
0.15
29
s12784htwo views0.52
43
0.20
2
0.38
5
0.41
6
0.19
1
0.96
230
0.34
47
1.17
128
1.25
240
0.81
71
0.90
68
0.63
61
0.50
59
1.45
173
0.42
77
0.14
4
0.12
9
0.17
17
0.11
7
0.18
45
0.11
1
CFNet-RSSMtwo views0.54
66
0.24
21
0.70
108
0.48
55
0.28
54
0.60
89
0.27
16
1.49
197
1.14
194
1.06
120
0.93
73
1.08
197
0.54
71
0.70
37
0.35
29
0.16
12
0.12
9
0.17
17
0.15
33
0.16
14
0.14
13
HITNettwo views0.65
136
0.40
255
0.77
164
0.48
55
0.24
11
1.05
246
0.49
168
1.76
265
1.02
142
1.18
186
1.18
164
0.89
138
0.80
168
0.85
70
0.79
228
0.17
33
0.12
9
0.21
100
0.17
78
0.29
246
0.15
29
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
MLCVtwo views0.72
166
0.34
212
1.10
273
0.51
98
0.23
8
0.91
211
0.39
85
1.33
163
1.23
233
1.46
293
1.55
276
1.01
180
0.64
123
1.95
250
0.80
231
0.18
61
0.12
9
0.18
39
0.14
25
0.19
75
0.17
64
panettwo views0.39
6
0.21
4
0.37
2
0.36
2
0.20
2
0.53
60
0.29
21
0.78
13
1.12
181
0.59
41
0.71
35
0.53
42
0.42
22
0.54
9
0.34
25
0.18
61
0.13
44
0.15
3
0.10
2
0.14
2
0.13
4
AEACVtwo views0.37
3
0.24
21
0.52
28
0.47
43
0.51
249
0.37
8
0.38
74
0.65
4
0.53
17
0.42
5
0.56
19
0.46
17
0.60
100
0.53
7
0.30
2
0.16
12
0.13
44
0.18
39
0.15
33
0.17
26
0.14
13
Any-RAFTtwo views0.53
52
0.24
21
0.47
14
0.47
43
0.27
35
1.00
240
0.25
4
1.58
224
1.05
153
0.85
81
0.99
87
1.06
190
0.47
42
0.70
37
0.32
8
0.18
61
0.13
44
0.16
11
0.13
12
0.16
14
0.16
44
RAFT-Testtwo views0.54
66
0.25
38
0.64
76
0.47
43
0.30
83
0.97
234
0.27
16
1.24
153
0.81
71
0.96
95
1.12
142
1.28
252
0.48
50
0.71
41
0.36
35
0.17
33
0.13
44
0.17
17
0.14
25
0.16
14
0.16
44
HHtwo views0.63
121
0.30
131
0.77
164
0.50
75
0.32
110
0.49
33
0.46
147
1.65
238
0.64
29
0.69
49
1.09
127
1.63
310
0.85
189
1.90
243
0.37
41
0.18
61
0.13
44
0.19
53
0.17
78
0.19
75
0.16
44
HanStereotwo views0.63
121
0.30
131
0.77
164
0.50
75
0.32
110
0.49
33
0.46
147
1.65
238
0.64
29
0.69
49
1.09
127
1.63
310
0.85
189
1.90
243
0.37
41
0.18
61
0.13
44
0.19
53
0.17
78
0.19
75
0.16
44
anonymousdsp2two views0.53
52
0.27
72
0.74
149
0.48
55
0.29
66
0.76
165
0.47
153
1.61
231
0.82
76
0.77
61
0.77
46
0.75
87
0.47
42
1.03
103
0.40
62
0.18
61
0.13
44
0.18
39
0.13
12
0.19
75
0.18
82
CEStwo views0.48
36
0.20
2
0.37
2
0.39
5
1.39
388
0.55
70
0.35
51
0.98
66
0.66
42
0.44
10
0.66
25
0.35
1
0.27
2
0.56
13
0.33
17
0.15
7
0.13
44
0.15
3
0.10
2
0.19
75
1.46
393
ProNettwo views0.43
17
0.28
88
0.58
51
0.43
9
0.30
83
0.56
73
0.52
185
1.00
72
0.58
20
0.44
10
0.49
9
0.43
7
0.43
25
1.28
137
0.36
35
0.15
7
0.13
44
0.19
53
0.16
62
0.17
26
0.16
44
DCANet-4two views0.54
66
0.26
49
1.07
266
0.42
8
0.24
11
0.48
23
0.36
61
0.99
68
1.30
267
1.10
136
1.02
102
0.56
45
0.75
144
0.73
47
0.52
141
0.16
12
0.13
44
0.17
17
0.13
12
0.15
6
0.19
116
ffftwo views0.53
52
0.24
21
0.70
108
0.43
9
0.24
11
0.48
23
0.36
61
1.07
106
1.25
240
1.10
136
1.02
102
0.57
47
1.06
273
0.73
47
0.52
141
0.16
12
0.13
44
0.17
17
0.13
12
0.15
6
0.19
116
ADStereo(finetuned)two views0.57
95
0.24
21
1.06
262
0.43
9
0.24
11
0.49
33
0.35
51
1.05
91
1.30
267
1.12
142
1.03
110
0.58
51
1.20
299
0.84
68
0.51
135
0.16
12
0.13
44
0.17
17
0.13
12
0.18
45
0.19
116
RAFT+CT+SAtwo views0.58
100
0.29
115
0.60
60
0.66
268
0.37
158
0.42
14
0.55
208
1.27
157
1.03
145
0.70
51
1.22
174
0.60
56
0.70
137
1.64
205
0.41
69
0.18
61
0.13
44
0.22
126
0.22
202
0.21
136
0.18
82
test_5two views0.65
136
0.30
131
0.75
151
0.67
278
0.50
239
0.92
217
0.52
185
1.39
178
1.12
181
0.76
58
1.11
136
1.00
173
0.90
212
1.53
188
0.45
96
0.18
61
0.13
44
0.23
155
0.22
202
0.21
136
0.19
116
test_4two views0.53
52
0.22
10
0.56
40
0.54
138
0.32
110
0.64
101
0.39
85
0.80
20
0.62
25
0.92
87
1.87
329
0.68
73
0.42
22
1.16
127
0.37
41
0.15
7
0.13
44
0.20
77
0.22
202
0.20
102
0.15
29
iRaft-Stereo_20wtwo views0.65
136
0.31
163
1.00
241
0.47
43
0.34
141
0.73
152
0.30
25
2.96
388
0.70
49
1.15
161
1.14
150
0.76
90
0.65
128
1.11
120
0.38
51
0.17
33
0.13
44
0.18
39
0.16
62
0.19
75
0.18
82
LCNettwo views0.72
166
0.28
88
0.52
28
0.55
157
0.31
95
0.69
137
0.54
195
1.00
72
0.88
88
1.19
190
1.34
221
0.97
166
1.34
321
2.56
290
0.45
96
0.18
61
0.13
44
0.21
100
0.25
244
0.27
227
0.73
371
HHNettwo views0.62
115
0.26
49
0.63
70
0.43
9
0.45
215
0.50
42
0.58
227
1.07
106
1.01
139
1.25
217
2.23
354
0.70
81
0.61
110
1.07
114
0.47
114
0.20
122
0.13
44
0.23
155
0.19
112
0.19
75
0.30
262
AAGNettwo views1.83
361
0.28
88
0.72
123
0.61
223
0.32
110
0.67
126
0.51
176
0.96
63
0.98
125
1.47
294
1.20
170
1.00
173
1.18
293
2.83
299
22.77
426
0.22
172
0.13
44
0.22
126
0.19
112
0.23
183
0.15
29
STrans-v2two views1.04
283
0.28
88
0.96
231
0.49
68
0.32
110
0.68
133
0.79
279
2.47
380
1.12
181
1.12
142
1.46
258
1.40
270
1.46
330
6.70
382
0.43
86
0.18
61
0.13
44
0.20
77
0.18
92
0.18
45
0.18
82
KYRafttwo views0.75
190
0.28
88
0.62
67
0.56
170
0.29
66
0.67
126
0.86
297
0.94
52
0.84
79
1.62
325
2.21
353
1.16
220
1.02
263
1.57
196
0.40
62
0.20
122
0.13
44
0.22
126
0.28
283
0.20
102
1.02
382
SST-Stereotwo views0.83
222
0.28
88
0.72
123
0.59
200
0.31
95
0.72
149
0.26
10
1.09
111
0.86
80
1.47
294
1.10
131
1.00
173
0.87
201
5.73
364
0.45
96
0.22
172
0.13
44
0.23
155
0.19
112
0.23
183
0.18
82
RAFT_R40two views0.83
222
0.28
88
0.73
135
0.59
200
0.31
95
0.69
137
0.44
129
1.10
113
0.95
111
1.47
294
1.10
131
1.00
173
0.85
189
5.53
358
0.46
109
0.22
172
0.13
44
0.23
155
0.20
140
0.23
183
0.18
82
RAFT-RH_RVCtwo views1.03
280
0.24
21
0.67
90
0.49
68
0.28
54
0.81
189
0.33
37
0.83
24
1.08
165
2.05
358
4.65
394
1.04
188
0.57
89
5.98
370
0.50
132
0.18
61
0.13
44
0.26
231
0.20
140
0.16
14
0.17
64
RAFT-345two views0.84
226
0.25
38
0.66
86
0.50
75
0.27
35
0.54
64
0.42
101
0.83
24
1.11
177
1.32
251
2.34
359
0.86
127
0.54
71
5.72
363
0.47
114
0.18
61
0.13
44
0.22
126
0.17
78
0.17
26
0.16
44
Prome-Stereotwo views0.75
190
0.27
72
0.53
30
0.55
157
0.32
110
0.59
83
0.97
320
0.89
35
0.88
88
1.45
291
2.46
365
0.91
140
1.41
324
1.58
198
0.44
88
0.18
61
0.13
44
0.19
53
0.17
78
0.20
102
0.92
378
DCANettwo views0.54
66
0.24
21
0.70
108
0.43
9
0.24
11
0.49
33
0.36
61
1.05
91
1.30
267
1.12
142
1.03
110
0.58
51
0.92
218
0.81
63
0.52
141
0.16
12
0.13
44
0.17
17
0.13
12
0.18
45
0.19
116
csctwo views0.53
52
0.24
21
0.70
108
0.43
9
0.24
11
0.48
23
0.36
61
1.07
106
1.25
240
1.10
136
1.02
102
0.57
47
1.06
273
0.73
47
0.52
141
0.16
12
0.13
44
0.17
17
0.13
12
0.15
6
0.19
116
cscssctwo views0.53
52
0.24
21
0.70
108
0.43
9
0.24
11
0.48
23
0.36
61
1.07
106
1.25
240
1.10
136
1.02
102
0.57
47
1.06
273
0.73
47
0.52
141
0.16
12
0.13
44
0.17
17
0.13
12
0.15
6
0.19
116
111two views0.60
106
0.23
15
0.70
108
0.43
9
0.24
11
0.72
149
0.42
101
1.18
133
1.41
313
0.80
67
1.38
234
1.10
206
0.79
163
0.96
87
0.58
166
0.18
61
0.13
44
0.17
17
0.15
33
0.17
26
0.19
116
EAI-Stereotwo views0.65
136
0.28
88
0.69
102
0.53
123
0.27
35
0.60
89
0.40
88
2.28
367
0.64
29
0.71
53
3.18
377
0.57
47
0.43
25
1.06
110
0.41
69
0.18
61
0.13
44
0.17
17
0.17
78
0.17
26
0.17
64
Gwc-CoAtRStwo views0.52
43
0.24
21
0.68
93
0.48
55
0.29
66
0.64
101
0.25
4
1.16
126
1.08
165
1.01
109
1.00
90
1.12
211
0.56
81
0.69
35
0.37
41
0.16
12
0.13
44
0.17
17
0.15
33
0.15
6
0.15
29
CREStereotwo views0.39
6
0.21
4
0.38
5
0.34
1
0.22
5
0.53
60
0.29
21
0.77
12
1.11
177
0.58
35
0.71
35
0.51
34
0.41
20
0.54
9
0.34
25
0.18
61
0.13
44
0.15
3
0.10
2
0.14
2
0.14
13
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
28
0.21
4
0.38
5
0.37
3
0.23
8
0.71
147
0.27
16
0.74
8
1.04
149
0.64
45
0.70
33
0.55
43
0.47
42
0.86
73
0.35
29
1.00
382
0.13
44
0.15
3
0.10
2
0.15
6
0.13
4
MyStereo8two views0.65
136
0.29
115
1.00
241
0.58
187
0.49
233
0.91
211
0.35
51
1.18
133
1.31
271
1.16
172
1.27
193
0.90
139
0.64
123
0.72
44
0.95
256
0.18
61
0.14
78
0.20
77
0.18
92
0.22
158
0.26
230
IGEVStereo-DCAtwo views0.46
28
0.28
88
0.56
40
0.43
9
0.33
126
0.49
33
0.42
101
0.87
27
0.50
7
0.47
16
0.48
7
0.48
24
0.46
36
2.03
256
0.30
2
0.19
94
0.14
78
0.19
53
0.15
33
0.16
14
0.18
82
rrrtwo views0.46
28
0.28
88
0.73
135
0.43
9
0.33
126
0.49
33
0.38
74
0.76
11
0.50
7
0.47
16
0.48
7
0.48
24
0.46
36
2.03
256
0.30
2
0.19
94
0.14
78
0.19
53
0.15
33
0.16
14
0.16
44
LoStwo views0.40
10
0.21
4
0.44
12
0.37
3
0.22
5
0.50
42
0.40
88
1.00
72
0.94
109
0.48
20
0.66
25
0.48
24
0.40
18
0.60
26
0.37
41
0.18
61
0.14
78
0.16
11
0.11
7
0.14
2
0.14
13
knoymoustwo views0.51
42
0.29
115
0.47
14
0.43
9
0.30
83
0.55
70
0.55
208
1.02
78
0.77
63
0.98
102
0.85
59
0.94
152
0.56
81
0.85
70
0.45
96
0.20
122
0.14
78
0.26
231
0.14
25
0.23
183
0.23
188
riskmintwo views0.56
90
0.27
72
0.60
60
0.43
9
0.31
95
0.83
194
0.42
101
1.14
123
1.04
149
0.73
57
0.75
43
1.11
210
1.01
258
0.81
63
0.51
135
0.20
122
0.14
78
0.24
175
0.15
33
0.24
197
0.25
212
Selective-RAFTtwo views0.52
43
0.28
88
0.79
174
0.55
157
0.27
35
0.91
211
0.33
37
0.80
20
0.88
88
0.58
35
0.63
23
0.81
102
0.77
156
1.29
140
0.48
119
0.19
94
0.14
78
0.17
17
0.15
33
0.19
75
0.17
64
DisPMtwo views0.66
144
0.28
88
0.72
123
0.61
223
0.35
144
0.62
98
0.45
140
1.02
78
0.99
132
1.56
315
1.10
131
0.80
99
0.59
98
2.37
282
0.41
69
0.23
196
0.14
78
0.23
155
0.21
176
0.20
102
0.25
212
Wz-Net-LNSev-Reftwo views0.99
270
0.40
255
1.82
350
0.66
268
0.62
299
2.05
358
0.78
276
1.91
301
1.29
261
1.54
311
1.42
243
1.51
293
1.23
305
1.99
253
1.33
304
0.23
196
0.14
78
0.20
77
0.15
33
0.27
227
0.26
230
raft_robusttwo views0.68
157
0.30
131
0.64
76
0.52
114
0.26
22
0.54
64
0.35
51
1.33
163
1.24
237
1.16
172
1.07
119
0.60
56
0.54
71
3.58
324
0.37
41
0.18
61
0.14
78
0.20
77
0.22
202
0.20
102
0.16
44
Sa-1000two views0.72
166
0.29
115
0.76
160
0.59
200
0.30
83
0.73
152
0.37
70
1.62
234
1.33
279
1.28
226
2.04
344
0.86
127
0.75
144
1.84
236
0.38
51
0.19
94
0.14
78
0.25
212
0.23
222
0.20
102
0.16
44
iRaft-Stereo_5wtwo views0.85
230
0.29
115
0.91
216
0.53
123
0.43
202
0.49
33
0.68
256
0.99
68
0.87
84
0.79
65
1.34
221
1.46
283
0.91
215
5.11
347
1.11
279
0.17
33
0.14
78
0.22
126
0.18
92
0.20
102
0.20
139
IPLGtwo views0.69
158
0.27
72
0.97
233
0.51
98
0.43
202
0.79
180
0.33
37
1.21
140
1.06
156
1.30
239
1.10
131
0.52
39
0.55
77
3.16
312
0.63
184
0.16
12
0.14
78
0.19
53
0.16
62
0.18
45
0.17
64
MIPNettwo views0.56
90
0.28
88
0.94
224
0.49
68
0.33
126
0.66
122
0.38
74
1.35
169
1.08
165
1.06
120
0.92
71
0.60
56
0.79
163
0.73
47
0.52
141
0.17
33
0.14
78
0.19
53
0.16
62
0.18
45
0.17
64
GMOStereotwo views0.53
52
0.26
49
0.65
80
0.50
75
0.29
66
0.52
55
0.43
117
0.89
35
0.96
113
1.41
282
1.14
150
0.85
123
0.56
81
0.59
17
0.38
51
0.16
12
0.14
78
0.24
175
0.21
176
0.20
102
0.15
29
error versiontwo views0.53
52
0.26
49
0.65
80
0.50
75
0.29
66
0.52
55
0.43
117
0.89
35
0.96
113
1.41
282
1.14
150
0.85
123
0.56
81
0.59
17
0.38
51
0.16
12
0.14
78
0.24
175
0.21
176
0.20
102
0.15
29
test-vtwo views0.53
52
0.26
49
0.65
80
0.50
75
0.29
66
0.52
55
0.43
117
0.89
35
0.96
113
1.41
282
1.14
150
0.85
123
0.56
81
0.59
17
0.38
51
0.16
12
0.14
78
0.24
175
0.21
176
0.20
102
0.15
29
Patchmatch Stereo++two views0.55
81
0.30
131
0.73
135
0.50
75
0.27
35
0.65
113
0.29
21
1.05
91
0.64
29
1.12
142
0.96
77
0.83
114
0.60
100
1.37
154
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
OMP-Stereotwo views0.94
255
0.33
193
0.72
123
0.90
361
0.31
95
0.49
33
0.36
61
1.16
126
1.06
156
1.58
321
1.12
142
1.46
283
0.69
134
6.94
385
0.49
126
0.19
94
0.14
78
0.24
175
0.18
92
0.20
102
0.14
13
IIG-Stereotwo views0.96
259
0.31
163
0.72
123
0.88
356
0.33
126
0.61
92
0.26
10
1.19
139
1.03
145
1.69
331
1.37
230
1.46
283
0.75
144
6.96
386
0.51
135
0.19
94
0.14
78
0.23
155
0.18
92
0.20
102
0.14
13
NF-Stereotwo views0.80
209
0.30
131
0.75
151
0.60
211
0.31
95
0.64
101
0.44
129
1.21
140
0.90
95
1.29
231
1.02
102
0.82
107
0.57
89
5.40
356
0.48
119
0.23
196
0.14
78
0.24
175
0.20
140
0.20
102
0.30
262
OCTAStereotwo views0.80
209
0.30
131
0.75
151
0.60
211
0.31
95
0.64
101
0.44
129
1.21
140
0.90
95
1.29
231
1.01
95
0.82
107
0.57
89
5.35
351
0.48
119
0.24
211
0.14
78
0.24
175
0.20
140
0.20
102
0.30
262
NRIStereotwo views0.60
106
0.29
115
0.69
102
0.53
123
0.28
54
0.63
99
0.33
37
1.08
110
0.87
84
1.14
158
0.87
63
0.91
140
0.59
98
2.24
273
0.49
126
0.20
122
0.14
78
0.21
100
0.19
112
0.21
136
0.17
64
PSM-adaLosstwo views0.54
66
0.30
131
0.73
135
0.50
75
0.27
35
0.65
113
0.41
99
1.04
85
0.64
29
1.12
142
0.96
77
0.82
107
0.61
110
1.06
110
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
PSM-AADtwo views0.79
206
0.27
72
0.53
30
0.55
157
0.28
54
0.77
171
1.24
350
0.99
68
0.91
100
1.66
328
1.57
284
0.81
102
2.19
378
1.65
206
0.44
88
0.19
94
0.14
78
0.38
323
0.32
312
0.21
136
0.70
368
ROB_FTStereo_v2two views0.54
66
0.30
131
0.73
135
0.50
75
0.27
35
0.64
101
0.42
101
1.05
91
0.64
29
1.12
142
0.96
77
0.83
114
0.60
100
1.12
122
0.46
109
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
ROB_FTStereotwo views0.54
66
0.30
131
0.73
135
0.50
75
0.27
35
0.64
101
0.25
4
1.05
91
0.64
29
1.12
142
0.95
75
0.82
107
0.61
110
1.15
125
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
HUI-Stereotwo views0.52
43
0.30
131
0.73
135
0.50
75
0.27
35
0.65
113
0.30
25
1.04
85
0.64
29
1.12
142
0.96
77
0.83
114
0.60
100
0.79
58
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
THIR-Stereotwo views1.02
279
0.27
72
0.69
102
0.49
68
0.28
54
0.95
226
1.34
357
1.03
81
0.97
120
1.34
262
1.90
332
1.17
221
1.58
340
6.44
375
0.78
222
0.19
94
0.14
78
0.21
100
0.22
202
0.19
75
0.20
139
DRafttwo views0.80
209
0.24
21
0.70
108
0.45
34
0.30
83
0.97
234
0.53
191
1.05
91
0.97
120
1.78
338
2.02
342
0.80
99
1.74
354
2.73
297
0.72
204
0.17
33
0.14
78
0.20
77
0.20
140
0.18
45
0.21
156
GrayStereotwo views0.82
217
0.26
49
0.58
51
0.63
242
0.37
158
0.76
165
1.86
383
1.11
119
0.87
84
1.99
355
1.89
331
1.08
197
1.82
362
1.39
163
0.48
119
0.19
94
0.14
78
0.19
53
0.21
176
0.18
45
0.39
304
RE-Stereotwo views0.80
209
0.30
131
0.75
151
0.60
211
0.31
95
0.64
101
0.44
129
1.21
140
0.90
95
1.29
231
1.01
95
0.81
102
0.57
89
5.37
354
0.48
119
0.24
211
0.14
78
0.24
175
0.20
140
0.20
102
0.30
262
Pruner-Stereotwo views0.62
115
0.29
115
0.70
108
0.61
223
0.31
95
0.63
99
0.43
117
1.17
128
0.99
132
1.53
307
1.08
122
0.95
158
0.55
77
1.35
150
0.51
135
0.23
196
0.14
78
0.24
175
0.21
176
0.21
136
0.23
188
TVStereotwo views0.80
209
0.30
131
0.75
151
0.60
211
0.31
95
0.64
101
0.44
129
1.21
140
0.90
95
1.29
231
1.01
95
0.81
102
0.57
89
5.37
354
0.48
119
0.24
211
0.14
78
0.24
175
0.20
140
0.20
102
0.30
262
DeepStereo_RVCtwo views0.55
81
0.29
115
0.72
123
0.51
98
0.30
83
0.59
83
0.33
37
1.03
81
0.70
49
1.16
172
0.93
73
0.83
114
0.94
229
0.96
87
0.54
155
0.21
149
0.14
78
0.21
100
0.19
112
0.24
197
0.24
200
iGMRVCtwo views0.56
90
0.30
131
0.73
135
0.50
75
0.27
35
0.65
113
0.38
74
1.05
91
0.64
29
1.12
142
0.96
77
0.83
114
0.60
100
1.52
184
0.46
109
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
iRAFTtwo views0.55
81
0.30
131
0.73
135
0.50
75
0.27
35
0.65
113
0.29
21
1.05
91
0.64
29
1.12
142
0.96
77
0.83
114
0.60
100
1.37
154
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
CRE-IMPtwo views0.55
81
0.30
131
0.74
149
0.52
114
0.29
66
0.79
180
0.25
4
1.04
85
0.72
54
1.09
128
0.95
75
0.81
102
0.57
89
1.10
117
0.50
132
0.21
149
0.14
78
0.23
155
0.19
112
0.28
241
0.22
171
test-2two views0.53
52
0.26
49
0.65
80
0.50
75
0.29
66
0.52
55
0.43
117
0.89
35
0.96
113
1.41
282
1.14
150
0.85
123
0.56
81
0.59
17
0.38
51
0.16
12
0.14
78
0.24
175
0.21
176
0.20
102
0.15
29
test-1two views0.52
43
0.26
49
1.04
258
0.56
170
0.32
110
0.61
92
0.38
74
1.10
113
0.91
100
0.78
62
1.01
95
0.77
91
0.52
63
0.60
26
0.42
77
0.17
33
0.14
78
0.20
77
0.17
78
0.20
102
0.23
188
RAFT-IKPtwo views0.54
66
0.30
131
0.73
135
0.50
75
0.27
35
0.59
83
0.36
61
1.04
85
0.64
29
1.12
142
0.96
77
0.83
114
0.61
110
1.22
131
0.45
96
0.22
172
0.14
78
0.24
175
0.20
140
0.26
215
0.18
82
rafts_anoytwo views0.52
43
0.29
115
0.59
56
0.59
200
0.50
239
0.53
60
0.40
88
1.11
119
1.03
145
0.84
77
0.83
56
0.68
73
0.54
71
0.72
44
0.51
135
0.19
94
0.14
78
0.24
175
0.26
258
0.21
136
0.18
82
raft+_RVCtwo views0.53
52
0.26
49
0.54
34
0.60
211
0.47
229
0.54
64
0.54
195
1.27
157
0.99
132
0.76
58
1.03
110
0.70
81
0.56
81
0.93
86
0.47
114
0.18
61
0.14
78
0.19
53
0.18
92
0.18
45
0.15
29
XX-Stereotwo views0.63
121
0.26
49
1.90
354
0.81
334
0.67
309
0.43
15
0.23
3
1.03
81
0.58
20
0.65
46
1.56
280
1.41
273
0.39
15
1.28
137
0.35
29
0.20
122
0.14
78
0.20
77
0.19
112
0.18
45
0.14
13
test_xeample3two views0.42
14
0.28
88
0.69
102
0.43
9
0.33
126
0.56
73
0.38
74
0.79
15
0.45
3
0.53
32
0.46
4
0.44
10
0.44
29
1.38
158
0.31
6
0.18
61
0.14
78
0.19
53
0.15
33
0.17
26
0.16
44
ARAFTtwo views0.77
197
0.36
235
1.49
330
0.51
98
0.31
95
0.90
209
0.82
289
1.90
297
1.06
156
1.62
325
1.24
180
1.02
182
0.64
123
1.84
236
0.50
132
0.18
61
0.14
78
0.28
252
0.27
266
0.17
26
0.16
44
BEATNet_4xtwo views0.73
180
0.49
290
1.17
284
0.53
123
0.26
22
1.03
243
0.55
208
1.82
280
1.06
156
1.21
197
1.22
174
0.96
164
0.91
215
1.01
100
1.06
269
0.21
149
0.14
78
0.24
175
0.19
112
0.37
286
0.21
156
iResNettwo views0.75
190
0.40
255
1.36
312
0.67
278
0.29
66
0.92
217
0.59
234
1.52
209
1.25
240
1.28
226
1.48
264
0.94
152
0.76
152
1.62
203
0.78
222
0.18
61
0.14
78
0.18
39
0.15
33
0.22
158
0.23
188
iResNet_ROBtwo views0.77
197
0.30
131
0.99
236
0.57
181
0.36
150
0.83
194
0.36
61
2.33
370
1.58
335
1.27
224
1.30
203
1.25
241
0.84
186
1.65
206
0.79
228
0.20
122
0.14
78
0.17
17
0.12
10
0.18
45
0.27
236
DN-CSS_ROBtwo views0.64
131
0.32
177
1.05
259
0.55
157
0.40
188
0.54
64
0.45
140
1.21
140
0.93
106
1.03
116
1.47
259
0.69
78
0.63
120
1.76
229
0.49
126
0.18
61
0.14
78
0.25
212
0.22
202
0.22
158
0.20
139
AE-Stereotwo views0.49
39
0.27
72
0.67
90
0.60
211
0.39
183
0.67
126
0.46
147
1.18
133
1.09
171
0.47
16
0.75
43
0.69
78
0.47
42
0.59
17
0.40
62
0.16
12
0.15
128
0.21
100
0.20
140
0.19
75
0.15
29
test crocotwo views0.46
28
0.27
72
1.01
245
0.50
75
0.40
188
0.35
5
0.37
70
0.87
27
0.56
19
0.43
8
0.76
45
0.42
5
0.40
18
1.13
123
0.45
96
0.21
149
0.15
128
0.24
175
0.19
112
0.24
197
0.16
44
MIF-Stereotwo views0.36
1
0.23
15
0.59
56
0.48
55
0.36
150
0.40
10
0.32
34
0.53
1
0.49
6
0.54
33
0.55
18
0.36
2
0.31
6
0.58
16
0.51
135
0.20
122
0.15
128
0.17
17
0.15
33
0.19
75
0.15
29
TestStereo1two views0.63
121
0.28
88
0.75
151
0.76
322
0.31
95
0.48
23
0.43
117
1.30
161
1.21
227
0.97
98
1.31
208
0.64
64
0.77
156
1.75
224
0.42
77
0.20
122
0.15
128
0.22
126
0.18
92
0.21
136
0.17
64
RAFT_CTSACEtwo views0.63
121
0.26
49
0.88
205
0.55
157
0.51
249
0.71
147
0.44
129
0.80
20
0.97
120
0.97
98
1.84
324
1.18
224
0.68
131
1.47
179
0.36
35
0.16
12
0.15
128
0.21
100
0.20
140
0.20
102
0.14
13
SA-5Ktwo views0.63
121
0.28
88
0.75
151
0.76
322
0.31
95
0.48
23
0.43
117
1.30
161
1.21
227
0.97
98
1.31
208
0.64
64
0.77
156
1.75
224
0.42
77
0.20
122
0.15
128
0.22
126
0.18
92
0.21
136
0.17
64
SAtwo views0.66
144
0.30
131
0.82
182
0.61
223
0.30
83
0.58
79
0.38
74
1.44
189
1.30
267
0.96
95
1.36
228
0.66
69
0.95
234
1.85
239
0.42
77
0.19
94
0.15
128
0.25
212
0.23
222
0.21
136
0.17
64
CIPLGtwo views0.62
115
0.33
193
0.96
231
0.58
187
0.50
239
0.75
161
0.48
161
1.05
91
0.96
113
1.40
280
1.57
284
0.64
64
0.48
50
0.89
78
0.70
196
0.23
196
0.15
128
0.19
53
0.16
62
0.19
75
0.21
156
IPLGR_Ctwo views0.62
115
0.33
193
0.99
236
0.58
187
0.49
233
0.76
165
0.48
161
1.10
113
0.96
113
1.40
280
1.56
280
0.62
59
0.48
50
0.80
59
0.71
201
0.23
196
0.15
128
0.19
53
0.16
62
0.19
75
0.21
156
IPLGRtwo views0.58
100
0.27
72
1.14
280
0.48
55
0.28
54
0.65
113
0.33
37
1.22
147
1.13
192
1.18
186
1.05
114
0.69
78
0.66
130
0.96
87
0.52
141
0.17
33
0.15
128
0.20
77
0.17
78
0.20
102
0.18
82
ACREtwo views0.61
112
0.33
193
1.01
245
0.58
187
0.49
233
0.75
161
0.47
153
1.06
104
0.95
111
1.37
269
1.55
276
0.62
59
0.46
36
0.83
66
0.70
196
0.23
196
0.15
128
0.19
53
0.16
62
0.18
45
0.21
156
CrosDoStereotwo views1.58
343
0.24
21
0.72
123
0.48
55
0.29
66
0.67
126
12.49
420
1.10
113
0.98
125
1.34
262
1.75
314
1.00
173
1.89
364
6.65
378
0.81
232
0.19
94
0.15
128
0.20
77
0.22
202
0.18
45
0.19
116
TRStereotwo views0.60
106
0.60
327
0.97
233
0.74
316
0.67
309
0.46
21
0.38
74
1.85
286
0.89
91
0.79
65
0.80
55
0.88
134
0.39
15
1.10
117
0.41
69
0.23
196
0.15
128
0.23
155
0.24
233
0.17
26
0.15
29
PSM-softLosstwo views0.78
203
0.31
163
0.77
164
0.58
187
0.32
110
0.56
73
0.40
88
1.18
133
0.70
49
1.24
213
1.07
119
0.83
114
0.52
63
5.36
352
0.53
149
0.24
211
0.15
128
0.25
212
0.22
202
0.20
102
0.25
212
KMStereotwo views0.78
203
0.31
163
0.77
164
0.58
187
0.32
110
0.56
73
0.40
88
1.18
133
0.70
49
1.24
213
1.07
119
0.83
114
0.52
63
5.36
352
0.53
149
0.24
211
0.15
128
0.25
212
0.22
202
0.20
102
0.25
212
DeepStereo_LLtwo views1.58
343
0.24
21
0.72
123
0.48
55
0.29
66
0.67
126
12.49
420
1.10
113
0.98
125
1.34
262
1.75
314
1.00
173
1.89
364
6.65
378
0.81
232
0.19
94
0.15
128
0.20
77
0.22
202
0.18
45
0.19
116
DEmStereotwo views0.97
265
0.23
15
0.79
174
0.47
43
0.32
110
1.04
245
0.56
214
0.93
48
0.89
91
1.39
279
2.14
350
1.02
182
2.07
375
5.64
362
0.77
220
0.17
33
0.15
128
0.20
77
0.20
140
0.18
45
0.20
139
AnonymousMtwo views0.59
103
1.11
377
0.41
10
0.44
24
0.32
110
0.43
15
0.47
153
1.05
91
0.64
29
0.98
102
0.63
23
0.67
71
0.43
25
0.59
17
0.41
69
0.20
122
0.15
128
1.84
394
0.84
386
0.14
2
0.13
4
CroCo-Stereocopylefttwo views0.40
10
0.31
163
0.73
135
0.58
187
0.27
35
0.26
1
0.33
37
0.95
55
0.81
71
0.42
5
0.47
6
0.65
67
0.47
42
0.39
1
0.34
25
0.18
61
0.15
128
0.16
11
0.14
25
0.19
75
0.16
44
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
TestStereotwo views0.64
131
0.39
251
0.71
119
0.51
98
0.27
35
0.56
73
0.42
101
1.03
81
0.91
100
0.80
67
1.00
90
0.68
73
0.52
63
3.25
314
0.45
96
0.22
172
0.15
128
0.24
175
0.18
92
0.27
227
0.16
44
XX-TBDtwo views0.46
28
0.70
344
0.35
1
0.79
328
0.25
20
0.58
79
0.26
10
0.69
5
1.27
252
0.76
58
1.00
90
0.45
16
0.33
10
0.47
4
0.37
41
0.19
94
0.15
128
0.15
3
0.11
7
0.17
26
0.14
13
raftrobusttwo views0.52
43
0.25
38
0.56
40
0.65
263
0.52
257
0.49
33
0.34
47
0.98
66
0.91
100
1.30
239
0.87
63
0.63
61
0.81
171
0.78
55
0.41
69
0.19
94
0.15
128
0.16
11
0.14
25
0.15
6
0.16
44
RALAANettwo views0.60
106
0.33
193
0.87
202
0.62
234
0.50
239
0.69
137
0.31
30
1.21
140
1.06
156
1.09
128
1.16
159
0.88
134
0.46
36
1.22
131
0.42
77
0.19
94
0.15
128
0.21
100
0.17
78
0.27
227
0.17
64
GMStereopermissivetwo views0.55
81
0.45
276
0.94
224
0.50
75
0.32
110
0.64
101
0.43
117
1.00
72
1.40
310
0.82
74
0.73
39
0.51
34
0.45
32
0.85
70
0.55
159
0.24
211
0.15
128
0.20
77
0.21
176
0.31
262
0.24
200
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
FENettwo views0.60
106
0.28
88
0.63
70
0.54
138
0.33
126
0.83
194
0.38
74
1.27
157
1.07
161
1.00
106
0.86
60
0.99
172
0.85
189
0.96
87
0.68
194
0.22
172
0.15
128
0.23
155
0.20
140
0.22
158
0.23
188
DIP-Stereotwo views0.62
115
0.30
131
0.83
184
0.48
55
0.36
150
0.95
226
0.33
37
2.37
374
0.67
43
1.25
217
1.00
90
0.68
73
0.51
61
0.91
80
0.61
177
0.18
61
0.15
128
0.21
100
0.17
78
0.19
75
0.19
116
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
R-Stereo Traintwo views0.57
95
0.26
49
0.63
70
0.54
138
0.36
150
0.69
137
0.54
195
1.22
147
0.72
54
1.61
322
1.50
268
0.75
87
0.53
68
0.64
29
0.44
88
0.18
61
0.15
128
0.17
17
0.15
33
0.17
26
0.17
64
RAFT-Stereopermissivetwo views0.57
95
0.26
49
0.63
70
0.54
138
0.36
150
0.69
137
0.54
195
1.22
147
0.72
54
1.61
322
1.50
268
0.75
87
0.53
68
0.64
29
0.44
88
0.18
61
0.15
128
0.17
17
0.15
33
0.17
26
0.17
64
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AdaStereotwo views0.70
160
0.43
267
0.75
151
0.73
314
0.37
158
0.92
217
0.53
191
1.85
286
1.18
214
1.12
142
1.23
178
1.07
196
0.65
128
0.96
87
0.63
184
0.31
287
0.15
128
0.32
286
0.21
176
0.29
246
0.22
171
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
iResNetv2_ROBtwo views0.80
209
0.37
241
1.71
342
0.56
170
0.37
158
0.94
222
0.64
244
1.73
253
1.34
282
1.23
205
1.42
243
1.26
245
0.92
218
1.85
239
0.56
161
0.23
196
0.15
128
0.19
53
0.14
25
0.24
197
0.19
116
pmcnntwo views2.37
381
0.42
264
2.71
381
0.63
242
0.43
202
1.54
315
1.19
347
2.01
324
1.53
331
2.64
378
7.60
408
18.07
423
1.45
329
3.44
321
2.78
367
0.18
61
0.15
128
0.15
3
0.12
10
0.20
102
0.18
82
H2IRNETtwo views0.56
90
0.26
49
0.66
86
0.47
43
0.35
144
0.41
12
0.26
10
0.92
43
1.17
209
0.61
43
1.28
198
1.08
197
0.86
197
0.99
95
0.63
184
0.19
94
0.16
159
0.22
126
0.25
244
0.21
136
0.18
82
MGS-Stereotwo views0.42
14
0.26
49
0.58
51
0.44
24
0.28
54
0.50
42
0.34
47
0.57
2
0.83
77
0.46
15
1.31
208
0.52
39
0.33
10
0.65
33
0.36
35
0.19
94
0.16
159
0.18
39
0.15
33
0.17
26
0.16
44
MyStereo07two views0.48
36
0.29
115
0.50
19
0.55
157
0.45
215
0.59
83
0.79
279
1.05
91
0.51
14
0.48
20
0.53
11
0.43
7
0.55
77
1.30
141
0.34
25
0.17
33
0.16
159
0.24
175
0.20
140
0.23
183
0.20
139
MyStereo06two views0.61
112
0.28
88
0.95
227
0.56
170
0.46
225
0.61
92
0.73
266
1.78
272
0.67
43
1.03
116
1.12
142
1.13
216
0.56
81
0.78
55
0.41
69
0.17
33
0.16
159
0.23
155
0.20
140
0.22
158
0.20
139
MyStereo05two views0.66
144
0.28
88
1.07
266
0.56
170
0.46
225
0.61
92
0.73
266
1.34
167
1.41
313
1.15
161
0.91
69
0.77
91
0.80
168
1.41
169
0.63
184
0.17
33
0.16
159
0.23
155
0.20
140
0.22
158
0.20
139
MyStereo04two views0.67
153
0.29
115
1.07
266
0.55
157
0.45
215
0.59
83
0.79
279
1.50
201
1.40
310
0.91
85
0.91
69
0.74
85
0.86
197
1.52
184
0.62
180
0.17
33
0.16
159
0.24
175
0.20
140
0.23
183
0.20
139
CoDeXtwo views0.73
180
0.29
115
0.93
222
0.54
138
0.36
150
1.14
260
0.61
239
2.34
372
1.17
209
1.16
172
1.25
184
0.91
140
0.87
201
1.33
146
0.64
188
0.20
122
0.16
159
0.21
100
0.18
92
0.20
102
0.18
82
StereoIMtwo views0.36
1
0.25
38
0.58
51
0.44
24
0.34
141
0.30
3
0.30
25
0.72
6
0.50
7
0.37
2
0.36
1
0.58
51
0.49
58
0.52
6
0.36
35
0.19
94
0.16
159
0.19
53
0.15
33
0.18
45
0.14
13
MIF-Stereo (partial)two views0.45
27
0.25
38
0.70
108
0.50
75
0.52
257
0.35
5
0.26
10
0.91
42
0.59
23
0.45
14
0.71
35
0.51
34
0.51
61
1.11
120
0.45
96
0.20
122
0.16
159
0.23
155
0.20
140
0.24
197
0.18
82
EKT-Stereotwo views0.53
52
0.30
131
0.73
135
0.58
187
0.60
291
0.51
53
0.48
161
0.94
52
0.90
95
0.71
53
0.88
65
0.77
91
0.43
25
1.07
114
0.40
62
0.22
172
0.16
159
0.21
100
0.18
92
0.20
102
0.22
171
MIM_Stereotwo views0.57
95
0.24
21
0.92
220
0.46
37
0.30
83
0.54
64
0.28
19
1.27
157
0.75
58
1.00
106
1.16
159
0.93
149
0.53
68
1.45
173
0.61
177
0.16
12
0.16
159
0.20
77
0.19
112
0.17
26
0.14
13
PCWNet_CMDtwo views0.66
144
0.32
177
0.88
205
0.49
68
0.37
158
0.78
176
0.40
88
1.42
182
1.31
271
1.16
172
1.31
208
1.25
241
0.62
115
0.89
78
0.57
163
0.20
122
0.16
159
0.27
242
0.19
112
0.40
302
0.25
212
LL-Strereo2two views0.52
43
0.33
193
0.69
102
0.52
114
0.37
158
0.70
144
0.30
25
1.13
122
0.67
43
0.94
93
0.78
48
0.91
140
0.42
22
1.05
109
0.42
77
0.17
33
0.16
159
0.29
260
0.25
244
0.21
136
0.16
44
DCREtwo views0.82
217
0.26
49
0.70
108
0.58
187
0.44
208
0.54
64
0.48
161
0.95
55
0.78
65
0.78
62
7.33
407
0.86
127
0.52
63
0.76
52
0.41
69
0.16
12
0.16
159
0.19
53
0.17
78
0.18
45
0.17
64
anonymousatwo views0.72
166
0.27
72
0.75
151
0.47
43
0.63
300
1.43
306
0.45
140
1.24
153
0.89
91
1.28
226
1.75
314
1.62
308
1.13
287
0.69
35
0.59
168
0.19
94
0.16
159
0.23
155
0.25
244
0.20
102
0.18
82
IERtwo views0.70
160
0.31
163
1.02
251
0.48
55
0.52
257
1.34
293
0.51
176
1.17
128
0.99
132
1.23
205
1.34
221
1.12
211
1.11
282
0.99
95
0.71
201
0.20
122
0.16
159
0.21
100
0.21
176
0.20
102
0.19
116
DAStwo views0.84
226
0.34
212
1.03
255
0.64
251
0.69
317
0.77
171
0.63
242
1.54
217
1.20
222
1.79
341
1.55
276
0.95
158
1.04
266
2.83
299
0.60
175
0.21
149
0.16
159
0.25
212
0.18
92
0.27
227
0.22
171
SepStereotwo views0.82
217
0.34
212
1.03
255
0.64
251
0.69
317
0.77
171
0.63
242
1.54
217
1.20
222
1.79
341
1.55
276
0.95
158
1.04
266
2.30
277
0.60
175
0.21
149
0.16
159
0.25
212
0.18
92
0.27
227
0.22
171
FTStereotwo views0.91
248
0.26
49
0.56
40
0.54
138
0.33
126
0.66
122
1.87
384
1.00
72
0.75
58
1.75
335
4.15
388
1.04
188
1.65
347
1.57
196
0.46
109
0.19
94
0.16
159
0.23
155
0.21
176
0.18
45
0.63
360
ASMatchtwo views0.88
240
0.26
49
0.69
102
0.51
98
0.35
144
0.48
23
0.37
70
1.12
121
0.92
104
1.10
136
3.28
378
0.96
164
0.98
246
4.90
344
0.49
126
0.19
94
0.16
159
0.22
126
0.19
112
0.19
75
0.27
236
CFNet_pseudotwo views0.66
144
0.32
177
0.86
192
0.48
55
0.39
183
0.70
144
0.40
88
1.33
163
1.22
230
1.16
172
1.34
221
1.24
237
0.64
123
0.98
93
0.59
168
0.21
149
0.16
159
0.33
293
0.19
112
0.36
282
0.25
212
RALCasStereoNettwo views0.54
66
0.30
131
0.66
86
0.59
200
0.51
249
0.61
92
0.52
185
0.94
52
0.93
106
0.70
51
1.01
95
0.78
94
0.44
29
1.33
146
0.47
114
0.20
122
0.16
159
0.18
39
0.16
62
0.20
102
0.19
116
MSMDNettwo views0.66
144
0.32
177
0.87
202
0.49
68
0.37
158
0.79
180
0.40
88
1.43
188
1.31
271
1.15
161
1.31
208
1.24
237
0.63
120
0.88
75
0.57
163
0.21
149
0.16
159
0.26
231
0.19
112
0.39
298
0.24
200
ccs_robtwo views0.66
144
0.33
193
0.86
192
0.48
55
0.39
183
0.70
144
0.40
88
1.33
163
1.22
230
1.16
172
1.34
221
1.23
235
0.64
123
0.98
93
0.59
168
0.21
149
0.16
159
0.35
310
0.20
140
0.37
286
0.25
212
HSMtwo views1.19
311
0.32
177
0.65
80
0.57
181
0.38
175
1.23
279
0.59
234
2.25
364
1.19
217
1.30
239
1.25
184
1.94
340
1.03
265
9.32
408
0.71
201
0.22
172
0.16
159
0.20
77
0.16
62
0.21
136
0.21
156
StereoDRNet-Refinedtwo views0.80
209
0.41
261
0.88
205
0.62
234
0.42
197
1.33
291
0.48
161
1.52
209
1.17
209
1.45
291
1.44
250
1.44
279
0.90
212
1.26
136
1.24
292
0.20
122
0.16
159
0.27
242
0.24
233
0.25
207
0.28
247
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
DispNOtwo views0.93
253
0.30
131
1.34
311
0.55
157
0.55
269
0.89
206
0.49
168
1.48
195
1.21
227
1.17
181
1.27
193
1.19
225
0.90
212
5.23
349
0.74
208
0.22
172
0.17
185
0.24
175
0.21
176
0.19
75
0.20
139
Former-RAFT_DAM_RVCtwo views0.46
28
0.36
235
0.71
119
0.47
43
0.36
150
0.67
126
0.35
51
0.78
13
1.12
181
0.61
43
0.62
22
0.39
4
0.39
15
0.71
41
0.39
58
0.20
122
0.17
185
0.22
126
0.18
92
0.23
183
0.19
116
GMStereo_Zeroshotpermissivetwo views0.67
153
0.61
328
1.01
245
0.64
251
0.37
158
0.84
201
0.35
51
1.05
91
1.12
181
1.12
142
1.06
116
1.27
249
0.54
71
1.19
128
0.59
168
0.32
292
0.17
185
0.31
273
0.18
92
0.52
341
0.22
171
BUStwo views0.74
183
0.32
177
0.68
93
0.54
138
0.44
208
2.34
370
0.42
101
2.16
349
0.98
125
1.20
194
1.11
136
1.03
185
0.62
115
0.91
80
0.70
196
0.24
211
0.17
185
0.25
212
0.22
202
0.22
158
0.22
171
BSDual-CNNtwo views0.71
165
0.32
177
0.68
93
0.54
138
0.44
208
1.27
284
0.65
246
2.16
349
0.98
125
1.20
194
1.11
136
1.12
211
0.74
142
0.91
80
0.66
190
0.24
211
0.17
185
0.25
212
0.22
202
0.22
158
0.22
171
hknettwo views0.77
197
0.32
177
0.95
227
0.54
138
0.38
175
1.27
284
0.65
246
2.16
349
1.07
161
1.20
194
1.11
136
1.59
304
0.81
171
1.37
154
0.66
190
0.22
172
0.17
185
0.25
212
0.22
202
0.22
158
0.22
171
PFNet+two views0.59
103
0.28
88
0.77
164
0.53
123
0.30
83
0.59
83
0.31
30
0.92
43
1.14
194
1.33
259
1.10
131
0.79
97
0.57
89
1.31
142
0.49
126
0.25
235
0.17
185
0.28
252
0.26
258
0.21
136
0.25
212
LMCR-Stereopermissivemany views0.82
217
0.46
278
0.88
205
0.75
320
0.43
202
1.33
291
0.56
214
2.43
378
0.98
125
1.53
307
1.49
265
0.74
85
1.00
256
1.63
204
0.89
249
0.28
268
0.17
185
0.22
126
0.17
78
0.29
246
0.20
139
sAnonymous2two views0.55
81
0.56
310
1.46
323
0.60
211
0.51
249
0.48
23
0.52
185
0.79
15
0.68
46
0.50
29
0.67
27
0.46
17
0.62
115
0.59
17
0.40
62
0.22
172
0.17
185
0.22
126
0.21
176
0.86
374
0.56
347
CroCo_RVCtwo views0.55
81
0.56
310
1.46
323
0.60
211
0.51
249
0.48
23
0.52
185
0.79
15
0.68
46
0.50
29
0.67
27
0.46
17
0.62
115
0.59
17
0.40
62
0.22
172
0.17
185
0.22
126
0.21
176
0.86
374
0.56
347
SFCPSMtwo views0.70
160
0.28
88
1.02
251
0.51
98
0.38
175
1.37
296
0.66
251
2.00
320
1.03
145
1.17
181
1.21
172
0.82
107
0.78
161
1.03
103
0.53
149
0.21
149
0.17
185
0.22
126
0.24
233
0.21
136
0.19
116
UNettwo views0.83
222
0.34
212
1.31
303
0.58
187
0.74
327
1.58
319
0.49
168
1.41
180
1.04
149
1.21
197
1.08
122
1.54
296
1.12
285
1.65
206
1.09
274
0.23
196
0.17
185
0.25
212
0.20
140
0.25
207
0.22
171
RASNettwo views1.12
299
0.30
131
0.91
216
0.66
268
0.77
337
0.97
234
0.57
224
1.37
172
1.35
290
1.02
112
1.34
221
2.11
354
1.43
326
7.09
387
1.39
314
0.19
94
0.17
185
0.17
17
0.19
112
0.18
45
0.16
44
HSM-Net_RVCpermissivetwo views0.87
239
0.29
115
0.53
30
0.53
123
0.30
83
1.15
265
0.55
208
3.57
395
1.28
257
1.53
307
1.74
311
1.68
318
0.93
224
1.49
181
0.77
220
0.22
172
0.17
185
0.19
53
0.18
92
0.20
102
0.19
116
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
CFNettwo views0.96
259
0.36
235
1.01
245
0.62
234
0.42
197
0.99
238
0.47
153
1.90
297
1.32
276
0.99
104
1.39
238
1.10
206
0.86
197
5.58
361
0.79
228
0.23
196
0.17
185
0.28
252
0.27
266
0.26
215
0.21
156
AANet_RVCtwo views1.16
309
0.52
300
1.49
330
0.65
263
0.45
215
0.75
161
0.69
260
1.42
182
1.55
334
1.34
262
1.87
329
1.53
295
0.78
161
7.43
393
1.38
311
0.25
235
0.17
185
0.19
53
0.16
62
0.22
158
0.26
230
mmmtwo views0.63
121
0.35
228
0.72
123
0.51
98
0.30
83
0.86
203
0.54
195
1.59
225
0.86
80
1.07
122
1.38
234
0.79
97
0.75
144
0.91
80
0.58
166
0.22
172
0.18
201
0.29
260
0.25
244
0.25
207
0.23
188
11t1two views0.52
43
0.28
88
0.68
93
0.51
98
0.28
54
0.83
194
0.39
85
1.22
147
0.63
27
0.84
77
0.74
41
0.68
73
0.68
131
0.91
80
0.57
163
0.21
149
0.18
201
0.19
53
0.16
62
0.20
102
0.21
156
LL-Strereotwo views1.33
324
0.39
251
1.38
313
0.61
223
0.61
294
0.75
161
0.66
251
1.63
236
1.17
209
1.56
315
1.60
288
2.03
350
2.12
376
9.72
413
0.97
261
0.21
149
0.18
201
0.27
242
0.23
222
0.22
158
0.25
212
CBFPSMtwo views0.92
250
0.33
193
1.86
353
0.49
68
0.38
175
1.75
333
0.84
291
1.39
178
1.12
181
1.09
128
0.99
87
2.37
364
1.66
351
1.32
144
1.42
323
0.19
94
0.18
201
0.20
77
0.20
140
0.21
136
0.33
282
CroCo-Stereo Lap2two views0.44
25
0.34
212
0.77
164
0.61
223
0.79
342
0.28
2
0.35
51
0.75
9
0.71
53
0.38
4
0.50
10
0.72
84
0.55
77
0.57
15
0.47
114
0.17
33
0.18
201
0.19
53
0.16
62
0.21
136
0.20
139
ddtwo views0.59
103
0.48
287
0.97
233
0.55
157
0.32
110
0.64
101
0.47
153
1.02
78
1.34
282
0.78
62
0.86
60
0.58
51
0.54
71
1.01
100
0.86
247
0.28
268
0.18
201
0.26
231
0.19
112
0.32
267
0.24
200
GwcNet-ADLtwo views0.64
131
0.31
163
0.79
174
0.56
170
0.41
194
0.60
89
0.58
227
1.41
180
1.26
245
1.08
123
1.13
147
0.91
140
0.60
100
1.04
108
0.78
222
0.27
258
0.18
201
0.18
39
0.18
92
0.25
207
0.29
250
GANet-ADLtwo views0.60
106
0.35
228
0.72
123
0.64
251
0.40
188
0.68
133
0.51
176
1.49
197
1.12
181
0.95
94
1.08
122
0.91
140
0.57
89
0.76
52
0.55
159
0.26
249
0.18
201
0.18
39
0.16
62
0.23
183
0.25
212
RAFTtwo views0.64
131
0.30
131
0.73
135
0.59
200
0.33
126
0.68
133
0.58
227
1.04
85
0.76
61
1.08
123
1.19
167
1.65
315
0.93
224
1.06
110
0.56
161
0.21
149
0.18
201
0.27
242
0.24
233
0.22
158
0.17
64
MMNettwo views0.84
226
0.32
177
1.09
270
0.60
211
0.59
288
1.85
346
0.49
168
1.51
206
1.27
252
1.37
269
1.15
156
1.26
245
1.18
293
1.67
211
1.22
290
0.19
94
0.18
201
0.23
155
0.22
202
0.25
207
0.21
156
cf-rtwo views0.73
180
0.30
131
0.77
164
0.55
157
0.63
300
0.78
176
0.48
161
1.79
274
1.15
203
1.13
156
1.26
190
1.43
275
0.87
201
1.40
168
0.85
245
0.25
235
0.18
201
0.22
126
0.23
222
0.19
75
0.19
116
GwcNet-RSSMtwo views0.77
197
0.32
177
1.01
245
0.62
234
0.54
263
0.78
176
0.51
176
1.73
253
1.20
222
1.09
128
1.37
230
1.46
283
0.85
189
1.53
188
1.09
274
0.25
235
0.18
201
0.23
155
0.24
233
0.20
102
0.19
116
DISCOtwo views1.03
280
0.34
212
1.11
275
0.69
291
0.45
215
2.07
359
0.84
291
2.13
340
1.50
326
1.15
161
1.33
216
2.40
366
1.07
276
2.60
292
1.51
332
0.23
196
0.18
201
0.22
126
0.20
140
0.31
262
0.27
236
mmxtwo views1.39
330
0.33
193
0.85
186
0.53
123
0.37
158
0.74
155
0.56
214
2.13
340
1.37
297
1.15
161
1.45
252
1.06
190
0.82
175
7.22
388
7.61
397
0.24
211
0.19
214
0.31
273
0.27
266
0.30
255
0.25
212
xxxcopylefttwo views1.39
330
0.33
193
0.85
186
0.53
123
0.37
158
0.74
155
0.56
214
2.13
340
1.37
297
1.15
161
1.45
252
1.06
190
0.82
175
7.22
388
7.61
397
0.24
211
0.19
214
0.31
273
0.27
266
0.30
255
0.25
212
CASStwo views0.65
136
0.34
212
0.72
123
0.56
170
0.27
35
0.78
176
0.42
101
1.59
225
0.86
80
1.30
239
1.25
184
0.87
131
0.84
186
0.84
68
0.54
155
0.35
312
0.19
214
0.26
231
0.21
176
0.28
241
0.42
313
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
ToySttwo views0.66
144
0.33
193
1.23
290
0.51
98
0.33
126
0.86
203
0.68
256
1.10
113
0.97
120
0.84
77
1.08
122
1.25
241
0.94
229
1.01
100
0.74
208
0.19
94
0.19
214
0.24
175
0.24
233
0.27
227
0.23
188
xtwo views0.54
66
0.31
163
0.61
63
0.47
43
0.30
83
0.67
126
0.47
153
1.53
215
0.79
69
0.81
71
0.83
56
0.78
94
0.70
137
0.70
37
0.62
180
0.21
149
0.19
214
0.22
126
0.19
112
0.21
136
0.20
139
psmgtwo views0.72
166
0.32
177
0.68
93
0.50
75
0.44
208
1.48
309
0.75
268
1.94
310
0.98
125
1.21
197
1.33
216
1.12
211
0.74
142
0.91
80
0.66
190
0.24
211
0.19
214
0.25
212
0.25
244
0.23
183
0.22
171
UDGNettwo views0.72
166
1.17
382
0.80
179
0.77
325
0.41
194
0.77
171
0.38
74
0.97
64
1.34
282
0.81
71
0.88
65
0.71
83
0.60
100
1.21
130
0.54
155
0.52
359
0.19
214
1.02
386
0.26
258
0.71
369
0.31
272
GEStereo_RVCtwo views0.90
245
0.37
241
0.99
236
0.64
251
0.50
239
0.95
226
0.79
279
2.42
377
1.17
209
1.16
172
1.11
136
1.26
245
0.92
218
3.24
313
0.90
251
0.29
276
0.19
214
0.23
155
0.20
140
0.27
227
0.29
250
GEStwo views0.66
144
0.34
212
0.90
213
0.59
200
0.38
175
0.94
222
0.57
224
2.11
339
0.86
80
1.02
112
1.11
136
0.66
69
0.79
163
0.99
95
0.61
177
0.27
258
0.19
214
0.20
77
0.20
140
0.21
136
0.30
262
HCRNettwo views0.70
160
0.39
251
0.73
135
0.60
211
0.59
288
0.76
165
0.35
51
1.22
147
1.13
192
1.02
112
0.99
87
1.02
182
0.76
152
2.19
270
0.70
196
0.28
268
0.19
214
0.28
252
0.23
222
0.25
207
0.23
188
ACVNettwo views0.63
121
0.31
163
0.54
34
0.54
138
0.36
150
0.80
185
0.46
147
1.37
172
1.07
161
0.93
88
1.30
203
1.08
197
0.85
189
0.80
59
0.94
254
0.21
149
0.19
214
0.21
100
0.18
92
0.22
158
0.18
82
acv_fttwo views0.75
190
0.31
163
0.95
227
0.70
296
0.86
356
1.24
280
0.53
191
1.44
189
1.07
161
1.24
213
1.30
203
1.08
197
0.92
218
0.80
59
1.34
306
0.21
149
0.19
214
0.21
100
0.18
92
0.21
136
0.18
82
GANet-RSSMtwo views0.72
166
0.28
88
0.63
70
0.64
251
0.58
281
0.80
185
0.58
227
1.89
294
1.08
165
1.04
119
1.25
184
1.15
219
1.04
266
1.49
181
0.62
180
0.25
235
0.19
214
0.22
126
0.22
202
0.22
158
0.21
156
PSMNet-RSSMtwo views0.72
166
0.30
131
0.61
63
0.63
242
0.42
197
0.73
152
0.56
214
1.92
304
1.10
175
1.09
128
1.37
230
1.22
230
0.98
246
1.28
137
0.72
204
0.27
258
0.19
214
0.27
242
0.29
294
0.24
197
0.24
200
DMCAtwo views0.67
153
0.34
212
0.90
213
0.51
98
0.44
208
0.86
203
0.47
153
1.42
182
1.02
142
1.17
181
1.12
142
1.23
235
0.75
144
0.78
55
0.95
256
0.25
235
0.19
214
0.27
242
0.19
112
0.24
197
0.27
236
SuperBtwo views2.53
387
0.59
320
18.45
417
0.69
291
0.50
239
1.87
348
0.88
300
1.67
244
2.39
374
1.50
303
1.42
243
1.14
218
1.15
289
4.28
334
5.07
386
0.24
211
0.19
214
0.22
126
0.19
112
7.86
425
0.34
284
LE_ROBtwo views8.05
414
0.37
241
23.53
423
0.74
316
0.33
126
2.77
382
2.87
411
3.71
397
27.24
430
25.39
430
8.87
414
8.46
412
26.71
430
6.65
378
21.99
423
0.21
149
0.19
214
0.20
77
0.21
176
0.25
207
0.22
171
SMFormertwo views0.75
190
0.30
131
0.86
192
0.46
37
0.26
22
0.82
190
0.43
117
2.05
329
1.39
305
1.23
205
1.47
259
0.98
167
0.95
234
1.71
219
0.82
237
0.24
211
0.20
231
0.22
126
0.21
176
0.23
183
0.24
200
ttatwo views0.75
190
0.30
131
0.86
192
0.46
37
0.26
22
0.82
190
0.43
117
2.05
329
1.39
305
1.23
205
1.47
259
0.98
167
0.95
234
1.71
219
0.82
237
0.24
211
0.20
231
0.22
126
0.21
176
0.18
45
0.18
82
qqq1two views0.72
166
0.30
131
0.86
192
0.46
37
0.26
22
0.82
190
0.43
117
2.05
329
1.39
305
1.23
205
1.47
259
0.98
167
0.95
234
1.71
219
0.44
88
0.24
211
0.20
231
0.18
39
0.15
33
0.18
45
0.18
82
fff1two views0.72
166
0.30
131
0.86
192
0.46
37
0.26
22
0.82
190
0.43
117
2.05
329
1.39
305
1.23
205
1.47
259
0.98
167
0.95
234
1.71
219
0.44
88
0.24
211
0.20
231
0.18
39
0.15
33
0.18
45
0.18
82
whm_ethtwo views0.65
136
0.47
282
1.05
259
0.55
157
0.64
302
0.69
137
0.45
140
1.34
167
1.26
245
1.02
112
1.92
334
0.49
31
0.48
50
0.70
37
0.52
141
0.23
196
0.20
231
0.25
212
0.24
233
0.24
197
0.31
272
CFNet_ucstwo views0.70
160
0.33
193
0.88
205
0.50
75
0.43
202
0.74
155
0.44
129
1.60
228
1.29
261
1.22
202
1.54
274
1.09
204
0.63
120
0.99
95
0.59
168
0.25
235
0.20
231
0.37
320
0.21
176
0.40
302
0.28
247
qqqtwo views0.57
95
0.34
212
0.71
119
0.47
43
0.27
35
0.64
101
0.62
241
1.42
182
0.78
65
0.80
67
0.92
71
0.95
158
0.77
156
0.88
75
0.59
168
0.21
149
0.20
231
0.24
175
0.23
222
0.22
158
0.21
156
GLC_STEREOtwo views0.39
6
0.25
38
0.41
10
0.54
138
0.23
8
0.48
23
0.30
25
0.73
7
0.58
20
0.52
31
0.73
39
0.51
34
0.31
6
0.64
29
0.42
77
0.17
33
0.20
231
0.23
155
0.19
112
0.21
136
0.17
64
ADLNettwo views0.85
230
0.36
235
0.89
210
0.85
348
0.72
322
1.24
280
0.76
271
1.82
280
1.36
293
1.52
306
1.35
227
1.27
249
0.99
254
1.23
133
1.15
283
0.27
258
0.20
231
0.26
231
0.25
244
0.28
241
0.30
262
222two views1.61
348
0.29
115
0.67
90
0.56
170
0.29
66
1.06
249
0.42
101
2.17
355
1.31
271
1.31
249
1.52
271
0.92
148
0.94
229
1.76
229
17.65
420
0.24
211
0.20
231
0.21
100
0.19
112
0.22
158
0.23
188
test_xeamplepermissivetwo views1.45
335
0.28
88
0.65
80
0.51
98
0.28
54
0.94
222
0.59
234
2.14
344
1.29
261
1.24
213
1.51
270
0.88
134
0.86
197
1.46
175
15.10
416
0.22
172
0.20
231
0.22
126
0.20
140
0.22
158
0.22
171
CFNet-ftpermissivetwo views0.72
166
0.32
177
0.54
34
0.66
268
0.54
263
0.83
194
0.55
208
1.37
172
1.15
203
0.93
88
1.28
198
1.57
300
0.97
242
1.35
150
0.81
232
0.26
249
0.20
231
0.33
293
0.25
244
0.30
255
0.23
188
ADCReftwo views1.35
326
0.55
307
2.37
372
0.72
306
0.77
337
1.94
351
0.78
276
1.91
301
1.27
252
1.57
319
1.59
287
1.36
266
1.41
324
1.54
190
7.53
396
0.23
196
0.20
231
0.32
286
0.30
302
0.29
246
0.29
250
CFNet_RVCtwo views0.72
166
0.32
177
0.54
34
0.66
268
0.54
263
0.83
194
0.55
208
1.37
172
1.15
203
0.93
88
1.28
198
1.57
300
0.97
242
1.35
150
0.81
232
0.26
249
0.20
231
0.33
293
0.25
244
0.30
255
0.23
188
UCFNet_RVCtwo views0.69
158
0.35
228
0.49
18
0.64
251
0.39
183
0.85
202
0.58
227
1.75
259
1.14
194
0.97
98
1.19
167
1.17
221
0.93
224
0.99
95
0.62
180
0.28
268
0.20
231
0.34
303
0.31
306
0.32
267
0.27
236
NVstereo2Dtwo views0.92
250
0.41
261
1.48
328
0.72
306
0.72
322
1.20
276
0.87
299
1.75
259
1.38
301
0.99
104
1.13
147
1.26
245
0.98
246
2.21
272
0.89
249
0.43
340
0.20
231
0.38
323
0.24
233
0.57
349
0.63
360
1111xtwo views1.70
356
0.29
115
0.86
192
0.51
98
0.27
35
1.01
241
0.68
256
2.22
361
1.28
257
1.13
156
1.40
240
1.21
228
1.10
281
5.53
358
15.20
417
0.22
172
0.21
247
0.22
126
0.22
202
0.24
197
0.22
171
gwcnet-sptwo views0.74
183
0.33
193
1.44
317
0.57
181
0.45
215
1.40
301
0.54
195
1.50
201
1.14
194
1.30
239
1.02
102
0.94
152
0.82
175
1.39
163
0.76
214
0.21
149
0.21
247
0.22
126
0.21
176
0.22
158
0.22
171
scenettwo views0.74
183
0.33
193
1.44
317
0.57
181
0.45
215
1.40
301
0.54
195
1.50
201
1.14
194
1.30
239
1.02
102
0.94
152
0.82
175
1.39
163
0.76
214
0.21
149
0.21
247
0.22
126
0.21
176
0.22
158
0.22
171
ssnettwo views0.74
183
0.33
193
1.44
317
0.57
181
0.45
215
1.40
301
0.54
195
1.50
201
1.14
194
1.30
239
1.02
102
0.94
152
0.82
175
1.39
163
0.76
214
0.21
149
0.21
247
0.22
126
0.21
176
0.22
158
0.22
171
AACVNettwo views0.86
235
0.35
228
0.79
174
0.82
339
0.39
183
0.76
165
0.49
168
1.61
231
0.81
71
1.08
123
1.33
216
1.30
256
0.93
224
4.34
335
0.74
208
0.25
235
0.21
247
0.28
252
0.22
202
0.29
246
0.25
212
ADLNet2two views0.88
240
0.34
212
1.17
284
0.77
325
0.64
302
1.12
258
0.76
271
1.74
257
1.24
237
1.21
197
1.65
301
1.71
321
1.05
270
1.67
211
1.17
286
0.24
211
0.21
247
0.21
100
0.22
202
0.26
215
0.29
250
ICVPtwo views0.63
121
0.33
193
0.57
48
0.61
223
0.40
188
0.80
185
0.58
227
1.61
231
0.89
91
0.90
83
1.24
180
0.88
134
0.73
140
0.72
44
0.88
248
0.29
276
0.21
247
0.22
126
0.21
176
0.24
197
0.27
236
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
xxxxtwo views1.51
339
0.28
88
0.68
93
0.54
138
0.28
54
1.16
267
0.44
129
2.19
357
1.29
261
1.09
128
1.36
228
1.22
230
0.85
189
1.79
232
15.70
419
0.24
211
0.21
247
0.21
100
0.20
140
0.22
158
0.23
188
delettwo views0.85
230
0.32
177
0.95
227
0.65
263
0.66
307
1.64
325
0.84
291
1.75
259
1.35
290
1.32
251
1.30
203
1.30
256
0.88
205
1.68
216
1.10
277
0.21
149
0.21
247
0.24
175
0.24
233
0.21
136
0.21
156
DMCA-RVCcopylefttwo views0.74
183
0.40
255
1.27
299
0.66
268
0.49
233
0.77
171
0.47
153
1.35
169
1.01
139
1.53
307
1.01
95
1.29
255
0.82
175
1.31
142
0.78
222
0.27
258
0.21
247
0.35
310
0.27
266
0.32
267
0.24
200
ADCP+two views1.99
371
0.48
287
7.73
402
0.66
268
0.91
360
2.30
368
1.05
332
1.82
280
1.34
282
1.54
311
1.32
214
1.74
325
1.61
344
2.17
266
13.37
412
0.24
211
0.21
247
0.32
286
0.28
283
0.37
286
0.29
250
RYNettwo views1.17
310
0.49
290
1.24
293
0.70
296
0.97
368
1.71
329
0.92
310
1.91
301
1.46
321
1.38
274
1.14
150
1.88
330
1.30
317
4.24
331
1.87
345
0.26
249
0.21
247
0.35
310
0.27
266
0.55
346
0.54
343
TDLMtwo views1.06
284
0.44
270
0.79
174
0.63
242
0.50
239
0.89
206
1.44
362
1.48
195
1.26
245
1.12
142
1.40
240
1.08
197
0.98
246
6.65
378
0.78
222
0.33
297
0.21
247
0.33
293
0.26
258
0.37
286
0.24
200
DRN-Testtwo views1.00
274
0.44
270
1.13
279
0.70
296
0.81
349
1.62
322
0.79
279
2.14
344
1.44
319
1.78
338
1.33
216
1.43
275
1.05
270
2.18
269
1.53
333
0.27
258
0.21
247
0.31
273
0.30
302
0.32
267
0.28
247
CRFU-Nettwo views0.86
235
0.39
251
1.00
241
0.65
263
0.57
273
1.78
340
0.86
297
2.15
346
0.81
71
1.38
274
1.18
164
1.64
313
1.19
296
1.35
150
0.90
251
0.26
249
0.22
261
0.21
100
0.19
112
0.23
183
0.24
200
CSP-Nettwo views0.97
265
0.38
246
0.83
184
0.53
123
0.41
194
1.63
323
0.77
274
2.00
320
1.05
153
1.25
217
1.20
170
1.33
261
0.83
184
4.93
346
0.85
245
0.32
292
0.22
261
0.20
77
0.20
140
0.23
183
0.25
212
PSMNet-ADLtwo views0.72
166
0.35
228
0.62
67
0.69
291
0.46
225
1.14
260
0.44
129
1.37
172
1.01
139
0.83
75
1.17
162
1.33
261
0.96
239
1.43
170
0.95
256
0.33
297
0.22
261
0.21
100
0.23
222
0.27
227
0.29
250
ac_64two views0.82
217
0.29
115
0.81
180
0.71
303
0.60
291
1.05
246
0.54
195
1.99
319
0.92
104
1.18
186
1.06
116
1.99
345
1.08
277
1.94
249
0.97
261
0.27
258
0.22
261
0.24
175
0.23
222
0.22
158
0.19
116
FADNet-RVC-Resampletwo views0.84
226
0.47
282
2.10
361
0.61
223
0.45
215
1.07
251
0.61
239
1.59
225
1.20
222
1.08
123
0.98
85
1.03
185
0.98
246
2.17
266
0.72
204
0.23
196
0.22
261
0.30
269
0.32
312
0.35
276
0.34
284
FADNet_RVCtwo views0.83
222
0.51
297
1.83
352
0.54
138
0.42
197
1.19
274
0.46
147
1.51
206
1.09
171
0.89
82
1.24
180
0.91
140
0.87
201
2.11
263
1.11
279
0.27
258
0.22
261
0.31
273
0.28
283
0.43
315
0.38
301
NLCA_NET_v2_RVCtwo views0.79
206
0.43
267
1.05
259
0.64
251
0.58
281
0.95
226
0.53
191
1.53
215
1.18
214
1.37
269
1.15
156
1.43
275
0.88
205
1.61
202
0.84
242
0.25
235
0.22
261
0.27
242
0.27
266
0.29
246
0.29
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
PWC_ROBbinarytwo views1.24
313
0.76
353
2.46
375
0.72
306
0.78
340
1.15
265
0.49
168
1.75
259
1.92
360
2.31
365
3.07
375
1.59
304
1.40
323
2.46
287
2.10
357
0.33
297
0.22
261
0.35
310
0.24
233
0.38
294
0.41
309
iinet-ftwo views0.99
270
0.45
276
3.71
389
0.55
157
0.43
202
1.81
341
0.68
256
1.14
123
1.14
194
1.18
186
1.42
243
1.58
303
1.44
327
1.34
149
1.59
336
0.24
211
0.23
269
0.20
77
0.19
112
0.26
215
0.25
212
Wz-Net-MNSevtwo views1.11
297
0.58
317
2.23
368
0.66
268
0.71
320
1.95
352
1.46
363
1.98
318
1.45
320
1.79
341
1.43
247
1.49
290
1.33
320
1.97
252
1.42
323
0.27
258
0.23
269
0.28
252
0.28
283
0.34
275
0.31
272
NINENettwo views0.77
197
0.37
241
0.78
172
0.62
234
0.51
249
2.34
370
0.42
101
1.83
284
1.04
149
1.14
158
1.23
178
1.03
185
0.62
115
1.24
134
0.70
196
0.28
268
0.23
269
0.31
273
0.21
176
0.26
215
0.25
212
AASNettwo views0.76
196
0.35
228
0.91
216
0.79
328
0.81
349
1.14
260
0.56
214
2.02
327
1.08
165
1.22
202
1.24
180
0.93
149
0.76
152
0.77
54
1.16
284
0.27
258
0.23
269
0.24
175
0.20
140
0.28
241
0.24
200
Anonymoustwo views0.53
52
0.38
246
0.91
216
0.66
268
0.73
325
0.65
113
0.59
234
0.95
55
0.73
57
0.47
16
0.58
21
0.42
5
0.60
100
0.80
59
0.53
149
0.24
211
0.23
269
0.21
100
0.21
176
0.41
305
0.29
250
EDNetEfficientorigintwo views10.57
417
1.47
391
177.42
444
0.67
278
0.53
260
1.58
319
1.16
344
1.90
297
3.37
393
4.71
407
3.38
379
3.10
383
2.69
389
3.13
311
3.58
377
0.25
235
0.23
269
0.33
293
0.27
266
0.83
373
0.81
374
RTSCtwo views1.29
318
0.73
346
2.44
373
0.83
342
0.57
273
1.85
346
0.65
246
1.88
292
2.00
364
2.20
363
1.66
303
1.60
306
1.26
310
2.33
279
3.92
380
0.32
292
0.23
269
0.27
242
0.29
294
0.37
286
0.37
295
CVANet_RVCtwo views1.07
286
0.43
267
0.76
160
0.60
211
0.50
239
0.90
209
0.97
320
1.52
209
1.26
245
1.33
259
1.38
234
1.24
237
1.18
293
6.75
384
0.75
212
0.34
305
0.23
269
0.34
303
0.29
294
0.42
310
0.27
236
StereoDRNettwo views0.98
269
0.47
282
1.70
341
0.76
322
0.94
364
1.51
312
0.91
308
1.92
304
1.32
276
1.61
322
1.13
147
1.47
288
0.97
242
1.75
224
1.46
328
0.28
268
0.23
269
0.29
260
0.27
266
0.35
276
0.27
236
TANstereotwo views0.44
25
0.21
4
0.44
12
0.41
6
0.21
4
0.65
113
0.26
10
0.79
15
0.83
77
0.93
88
0.98
85
0.51
34
0.46
36
0.54
9
0.35
29
0.18
61
0.24
278
0.16
11
0.13
12
0.16
14
0.26
230
UPFNettwo views0.80
209
0.32
177
0.90
213
0.59
200
0.74
327
1.26
283
0.80
285
1.52
209
1.10
175
1.30
239
1.12
142
1.30
256
0.84
186
1.67
211
1.09
274
0.24
211
0.24
278
0.24
175
0.23
222
0.25
207
0.18
82
aanetorigintwo views1.23
312
0.79
355
2.78
383
0.70
296
0.79
342
0.99
238
1.06
333
1.06
104
1.37
297
3.52
394
2.61
368
1.72
322
1.63
345
1.99
253
1.78
342
0.25
235
0.24
278
0.26
231
0.25
244
0.38
294
0.45
321
EDNetEfficienttwo views2.37
381
1.10
374
8.08
404
0.74
316
0.71
320
0.98
237
1.56
368
1.46
192
4.06
399
4.90
408
2.82
372
2.25
357
3.48
397
2.95
303
9.97
406
0.26
249
0.24
278
0.26
231
0.30
302
0.68
366
0.61
358
HGLStereotwo views0.85
230
0.38
246
0.94
224
0.80
331
1.03
369
1.17
269
0.58
227
1.52
209
1.20
222
1.19
190
1.62
295
1.13
216
1.20
299
1.80
233
1.06
269
0.24
211
0.24
278
0.24
175
0.21
176
0.23
183
0.27
236
ADCLtwo views1.72
359
0.57
314
3.66
387
0.67
278
0.61
294
2.61
379
1.85
382
1.96
313
1.67
341
1.90
351
1.83
322
2.06
353
1.90
366
2.13
264
9.15
405
0.26
249
0.24
278
0.34
303
0.32
312
0.38
294
0.35
289
DLCB_ROBtwo views0.86
235
0.40
255
0.78
172
0.68
288
0.54
263
1.11
255
0.84
291
1.49
197
1.23
233
1.64
327
1.65
301
1.70
320
0.91
215
1.70
218
1.05
267
0.25
235
0.24
278
0.26
231
0.27
266
0.27
227
0.24
200
pcwnet_v2two views0.97
265
0.37
241
4.33
390
0.62
234
0.54
263
0.79
180
0.45
140
2.02
327
1.58
335
1.42
288
1.64
299
1.09
204
0.79
163
1.24
134
0.67
193
0.32
292
0.25
285
0.29
260
0.27
266
0.37
286
0.35
289
RAFT + AFFtwo views1.00
274
0.42
264
1.09
270
0.67
278
0.50
239
1.22
278
1.24
350
2.24
363
1.19
217
1.30
239
1.56
280
1.17
221
1.49
335
3.44
321
0.83
239
0.21
149
0.25
285
0.30
269
0.26
258
0.27
227
0.27
236
MDST_ROBtwo views1.67
352
0.34
212
1.58
335
0.92
366
0.58
281
4.26
405
1.11
337
2.83
385
1.41
313
4.49
405
2.55
367
1.45
281
0.97
242
7.79
398
1.17
286
0.31
287
0.25
285
0.37
320
0.33
318
0.31
262
0.30
262
PSMNet_ROBtwo views0.90
245
0.52
300
1.17
284
0.72
306
0.61
294
1.27
284
1.12
339
1.76
265
1.12
181
1.09
128
1.28
198
1.45
281
0.89
211
1.65
206
1.42
323
0.33
297
0.25
285
0.37
320
0.39
337
0.35
276
0.29
250
ttttwo views0.94
255
0.34
212
0.59
56
0.61
223
0.37
158
0.94
222
0.50
175
2.17
355
1.34
282
1.23
205
1.61
292
0.91
140
0.76
152
1.85
239
3.97
382
0.30
280
0.26
289
0.26
231
0.24
233
0.29
246
0.29
250
GASNettwo views0.99
270
0.97
366
1.72
343
0.98
370
0.68
315
0.83
194
0.67
254
1.60
228
1.28
257
1.31
249
1.22
174
1.22
230
1.21
302
2.41
285
1.41
319
0.43
340
0.26
289
0.36
318
0.34
323
0.55
346
0.31
272
Wz-Net-LNSevtwo views1.03
280
0.67
337
2.71
381
0.64
251
0.84
353
1.75
333
1.00
326
1.80
276
1.32
276
1.28
226
1.25
184
1.65
315
1.22
303
1.39
163
1.40
315
0.28
268
0.26
289
0.24
175
0.23
222
0.33
273
0.32
278
WZ-Nettwo views1.95
368
0.95
365
10.10
407
0.86
350
0.78
340
1.69
328
1.60
371
2.20
360
1.98
363
2.08
359
1.93
335
2.30
360
1.97
369
5.30
350
3.17
374
0.34
305
0.26
289
0.29
260
0.31
306
0.51
339
0.47
328
SACVNettwo views0.85
230
0.46
278
0.85
186
0.81
334
0.56
271
0.80
185
0.79
279
1.68
245
1.12
181
1.34
262
1.33
216
1.25
241
0.94
229
2.39
284
0.76
214
0.34
305
0.26
289
0.31
273
0.29
294
0.35
276
0.44
319
DSFCAtwo views0.93
253
0.34
212
1.06
262
0.52
114
0.65
305
1.55
316
0.93
314
1.49
197
1.19
217
1.56
315
1.15
156
1.50
291
0.96
239
3.07
307
1.02
266
0.30
280
0.26
289
0.25
212
0.25
244
0.28
241
0.24
200
ETE_ROBtwo views0.96
259
0.64
334
1.16
282
0.69
291
0.48
230
1.14
260
1.13
340
1.77
268
1.19
217
1.91
352
1.45
252
1.73
323
1.05
270
1.60
201
1.14
282
0.32
292
0.26
289
0.38
323
0.34
323
0.39
298
0.41
309
PWCDC_ROBbinarytwo views1.29
318
0.75
351
1.33
308
1.05
375
0.88
359
1.73
332
0.52
185
1.89
294
3.28
391
1.29
231
4.88
397
1.22
230
1.46
330
1.77
231
1.45
327
0.60
369
0.26
289
0.29
260
0.25
244
0.52
341
0.37
295
ssnet_v2two views0.88
240
0.36
235
1.02
251
0.62
234
0.38
175
1.32
290
0.97
320
2.07
335
1.34
282
1.37
269
1.18
164
1.54
296
0.92
218
1.10
117
1.65
337
0.30
280
0.27
297
0.30
269
0.28
283
0.27
227
0.26
230
dadtwo views0.86
235
0.66
336
1.06
262
0.56
170
0.37
158
0.76
165
0.44
129
1.17
128
1.50
326
1.44
289
1.27
193
1.34
265
0.75
144
2.52
289
0.84
242
0.42
335
0.27
297
0.83
379
0.26
258
0.41
305
0.29
250
sCroCo_RVCtwo views0.49
39
0.40
255
1.02
251
0.65
263
0.60
291
0.52
55
0.40
88
0.83
24
0.61
24
0.44
10
0.74
41
0.49
31
0.50
59
0.63
28
0.48
119
0.26
249
0.27
297
0.23
155
0.22
202
0.29
246
0.25
212
STTStereotwo views0.78
203
0.50
294
1.22
289
0.64
251
0.54
263
0.89
206
0.54
195
1.44
189
1.11
177
1.38
274
1.09
127
1.27
249
0.85
189
1.43
170
0.83
239
0.29
276
0.27
297
0.33
293
0.39
337
0.32
267
0.30
262
PDISCO_ROBtwo views1.32
323
0.65
335
1.44
317
1.36
384
1.46
390
2.55
376
0.92
310
2.45
379
2.07
368
1.37
269
1.49
265
1.65
315
1.00
256
2.82
298
1.35
309
1.01
383
0.27
297
0.54
361
0.47
356
0.71
369
0.73
371
LALA_ROBtwo views1.01
277
0.59
320
1.16
282
0.67
278
0.51
249
1.63
323
1.26
354
1.69
247
1.38
301
1.81
344
1.37
230
1.94
340
1.02
263
1.58
198
1.38
311
0.37
319
0.27
297
0.43
340
0.37
334
0.43
315
0.37
295
StereoVisiontwo views0.65
136
0.34
212
0.86
192
0.59
200
0.40
188
0.50
42
0.41
99
1.09
111
0.93
106
0.71
53
2.50
366
0.82
107
0.57
89
1.03
103
0.49
126
0.25
235
0.28
303
0.29
260
0.28
283
0.36
282
0.20
139
fast-acv-fttwo views0.94
255
0.44
270
1.40
314
0.58
187
0.51
249
1.77
338
0.69
260
1.36
171
1.42
316
1.29
231
1.86
327
1.74
325
1.25
308
1.52
184
1.38
311
0.26
249
0.28
303
0.28
252
0.28
283
0.27
227
0.26
230
Wz-Net-SNSevtwo views1.49
336
1.23
383
6.27
400
0.68
288
0.67
309
1.37
296
1.41
360
2.00
320
1.39
305
1.48
300
1.61
292
2.29
359
1.32
319
3.93
326
2.14
358
0.31
287
0.28
303
0.31
273
0.33
318
0.42
310
0.36
293
hitnet-ftcopylefttwo views0.79
206
0.35
228
0.57
48
0.58
187
0.42
197
0.96
230
0.46
147
1.47
194
1.33
279
1.19
190
1.22
174
1.81
329
0.98
246
1.66
210
0.94
254
0.33
297
0.28
303
0.34
303
0.27
266
0.35
276
0.31
272
AF-Nettwo views1.13
302
0.52
300
1.33
308
0.86
350
0.91
360
1.38
299
0.71
264
2.16
349
1.62
337
1.56
315
2.40
362
1.99
345
1.65
347
1.81
235
1.48
330
0.48
354
0.28
303
0.49
352
0.33
318
0.39
298
0.32
278
RTStwo views2.67
389
1.38
385
15.28
415
0.99
371
1.26
386
3.78
397
1.96
389
2.15
346
2.62
383
2.61
376
2.85
373
2.60
372
1.59
341
6.27
371
5.71
389
0.40
328
0.28
303
0.35
310
0.35
327
0.50
335
0.48
331
RTSAtwo views2.67
389
1.38
385
15.28
415
0.99
371
1.26
386
3.78
397
1.96
389
2.15
346
2.62
383
2.61
376
2.85
373
2.60
372
1.59
341
6.27
371
5.71
389
0.40
328
0.28
303
0.35
310
0.35
327
0.50
335
0.48
331
DeepPruner_ROBtwo views0.74
183
0.48
287
0.87
202
0.57
181
0.44
208
0.79
180
0.54
195
1.73
253
0.96
113
1.38
274
1.27
193
1.24
237
0.73
140
1.43
170
0.73
207
0.34
305
0.28
303
0.27
242
0.26
258
0.31
262
0.31
272
psm_uptwo views0.77
197
0.34
212
0.70
108
0.66
268
0.58
281
1.05
246
0.92
310
1.52
209
1.12
181
1.26
221
1.16
159
1.31
259
1.23
305
1.20
129
0.81
232
0.25
235
0.29
311
0.31
273
0.27
266
0.27
227
0.25
212
GwcNetcopylefttwo views1.08
289
0.51
297
2.33
370
0.79
328
1.18
382
1.76
335
0.70
262
1.68
245
1.47
322
1.41
282
1.64
299
1.74
325
1.04
266
2.20
271
1.41
319
0.30
280
0.29
311
0.29
260
0.27
266
0.30
255
0.35
289
FADNet-RVCtwo views0.88
240
0.67
337
1.93
356
0.60
211
0.48
230
0.91
211
0.60
238
1.71
251
1.18
214
0.90
83
0.96
77
1.36
266
0.92
218
2.25
275
1.17
286
0.30
280
0.29
311
0.32
286
0.32
312
0.41
305
0.35
289
XQCtwo views1.37
328
0.87
361
2.56
377
0.84
343
0.69
317
1.83
344
0.89
302
2.07
335
1.88
356
1.88
348
1.53
272
1.91
335
1.55
339
2.85
301
3.05
369
0.48
354
0.29
311
0.44
343
0.39
337
0.69
367
0.60
357
coex-fttwo views8.13
415
2.13
408
98.04
443
0.67
278
0.53
260
1.71
329
1.56
368
1.65
238
11.11
415
18.17
429
3.75
384
3.88
389
7.61
416
2.98
306
6.49
392
0.30
280
0.30
315
0.32
286
0.31
306
0.66
364
0.50
336
Anonymous3two views0.61
112
0.44
270
1.11
275
0.59
200
0.49
233
0.93
220
0.65
246
0.93
48
0.81
71
0.72
56
0.88
65
0.65
67
0.69
134
1.06
110
0.53
149
0.35
312
0.30
315
0.26
231
0.26
258
0.31
262
0.27
236
Nwc_Nettwo views1.09
291
0.49
290
1.33
308
0.89
360
0.80
347
1.49
311
0.66
251
2.19
357
1.27
252
1.32
251
2.26
355
1.96
342
1.54
337
1.92
245
1.34
306
0.40
328
0.30
315
0.43
340
0.45
351
0.38
294
0.37
295
DANettwo views1.08
289
0.61
328
1.32
306
0.85
348
0.72
322
1.37
296
0.51
176
1.54
217
1.15
203
1.78
338
1.54
274
2.01
347
1.11
282
2.90
302
2.00
353
0.33
297
0.30
315
0.40
334
0.30
302
0.44
322
0.45
321
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
SANettwo views1.88
364
0.57
314
2.18
367
0.63
242
0.40
188
2.80
384
1.57
370
2.39
376
5.88
409
2.36
370
3.57
382
3.72
388
2.97
392
4.74
340
1.76
341
0.34
305
0.30
315
0.32
286
0.29
294
0.48
331
0.37
295
XPNet_ROBtwo views0.96
259
0.49
290
1.09
270
0.72
306
0.57
273
1.11
255
1.14
341
1.66
243
1.23
233
1.85
347
1.39
238
1.64
313
1.11
282
1.80
233
1.42
323
0.38
323
0.30
315
0.33
293
0.29
294
0.37
286
0.34
284
SHDtwo views1.31
321
0.71
345
2.34
371
0.86
350
0.75
333
1.77
338
0.65
246
2.22
361
2.50
381
2.40
372
1.71
308
1.91
335
1.60
343
1.93
248
2.37
361
0.38
323
0.31
321
0.38
323
0.40
341
0.48
331
0.50
336
ADCMidtwo views1.89
367
0.73
346
5.06
393
0.72
306
0.67
309
2.00
356
1.14
341
1.97
317
1.48
323
2.86
385
1.81
321
2.37
364
2.05
374
2.24
273
10.39
409
0.33
297
0.31
321
0.39
329
0.43
347
0.50
335
0.44
319
GANettwo views1.36
327
0.47
282
0.86
192
0.67
278
0.45
215
1.34
293
1.73
375
1.64
237
1.24
237
1.49
302
2.38
360
1.55
298
1.20
299
9.30
407
0.93
253
0.30
280
0.31
321
0.33
293
0.28
283
0.39
298
0.30
262
PS-NSSStwo views0.99
270
0.58
317
0.93
222
0.58
187
0.57
273
0.91
211
0.80
285
1.81
279
1.14
194
1.14
158
1.67
305
1.00
173
0.83
184
4.62
339
0.78
222
0.37
319
0.31
321
0.52
355
0.32
312
0.45
325
0.38
301
DPSNettwo views1.69
355
0.59
320
4.33
390
0.70
296
0.57
273
2.02
357
1.62
372
3.35
394
1.78
350
1.48
300
1.38
234
2.17
355
2.84
390
4.77
341
3.66
378
0.48
354
0.31
321
0.29
260
0.25
244
0.64
360
0.48
331
NCCL2two views1.00
274
0.56
310
1.06
262
0.75
320
0.57
273
1.31
289
1.72
374
1.77
268
1.36
293
1.50
303
1.17
162
1.91
335
1.17
290
1.54
190
1.29
300
0.35
312
0.31
321
0.45
344
0.44
349
0.40
302
0.40
305
SGM_RVCbinarytwo views1.68
354
0.36
235
0.61
63
0.59
200
0.29
66
2.25
366
1.18
346
2.38
375
1.68
342
3.60
395
2.67
370
3.69
387
2.42
384
8.13
401
1.90
348
0.31
287
0.31
321
0.30
269
0.28
283
0.30
255
0.29
250
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
Syn2CoExtwo views1.14
304
0.69
341
1.66
339
0.80
331
0.67
309
1.40
301
0.88
300
2.06
334
1.54
332
1.25
217
1.58
286
1.42
274
1.50
336
4.09
329
1.40
315
0.36
315
0.32
328
0.34
303
0.29
294
0.29
246
0.34
284
DispFullNettwo views2.34
380
2.85
415
3.66
387
3.08
409
2.27
401
1.97
353
0.67
254
2.00
320
1.70
343
2.52
374
2.00
339
2.23
356
5.86
409
3.44
321
1.58
334
1.01
383
0.32
328
2.64
408
1.94
413
2.85
404
2.24
402
STTRV1_RVCtwo views1.58
343
0.68
340
1.96
358
0.88
356
1.12
376
1.57
318
0.90
307
2.25
364
1.75
349
1.29
231
2.02
342
1.40
270
1.22
303
9.77
414
1.31
302
0.81
378
0.33
330
0.54
361
0.49
361
0.73
371
0.52
341
SQANettwo views1.31
321
0.88
363
1.08
269
1.83
392
1.44
389
1.44
307
0.75
268
1.74
257
1.09
171
1.32
251
1.26
190
1.28
252
1.01
258
1.50
183
0.83
239
2.50
398
0.34
331
1.47
390
0.55
370
2.32
394
1.57
394
APVNettwo views1.06
284
0.53
303
1.42
316
0.84
343
0.79
342
1.92
349
0.82
289
1.90
297
1.08
165
1.08
123
1.43
247
1.56
299
1.13
287
3.07
307
1.58
334
0.31
287
0.34
331
0.42
338
0.36
331
0.36
282
0.37
295
FADNettwo views0.92
250
0.61
328
1.81
349
0.62
234
0.55
269
0.96
230
0.57
224
1.78
272
1.33
279
0.93
88
1.01
95
1.36
266
1.01
258
2.71
296
0.75
212
0.33
297
0.34
331
0.31
273
0.34
323
0.59
353
0.40
305
MaskLacGwcNet_RVCtwo views1.10
294
1.02
370
1.00
241
0.82
339
0.67
309
1.93
350
0.93
314
1.62
234
1.11
177
1.15
161
1.25
184
1.50
291
0.79
163
1.96
251
0.76
214
1.89
393
0.34
331
0.79
378
0.36
331
1.25
388
0.83
375
DeepPrunerFtwo views1.60
346
0.73
346
5.81
398
0.88
356
1.19
383
0.91
211
0.95
318
2.19
357
5.24
407
1.17
181
1.30
203
1.19
225
1.30
317
4.90
344
1.66
339
0.42
335
0.34
331
0.52
355
0.47
356
0.41
305
0.40
305
AnyNet_C32two views1.96
369
1.10
374
5.17
394
0.90
361
1.11
374
2.12
362
2.37
404
1.85
286
1.48
323
2.45
373
1.70
307
2.05
352
1.64
346
2.50
288
10.28
408
0.37
319
0.34
331
0.35
310
0.41
343
0.49
334
0.54
343
NaN_ROBtwo views1.13
302
0.55
307
1.15
281
0.64
251
0.48
230
1.61
321
2.03
393
1.72
252
1.48
323
2.09
360
1.27
193
1.40
270
1.08
277
3.94
327
1.30
301
0.28
268
0.34
331
0.28
252
0.28
283
0.30
255
0.33
282
CBMVpermissivetwo views0.95
258
0.44
270
0.66
86
0.53
123
0.35
144
1.53
314
1.63
373
1.69
247
1.42
316
2.00
357
1.60
288
1.43
275
1.17
290
1.59
200
0.99
264
0.34
305
0.34
331
0.39
329
0.33
318
0.33
273
0.32
278
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
FINETtwo views0.97
265
0.54
304
1.60
336
0.63
242
0.79
342
1.08
252
1.07
334
1.56
222
2.20
371
1.15
161
1.49
265
0.94
152
0.88
205
2.32
278
1.05
267
0.42
335
0.35
339
0.32
286
0.28
283
0.43
315
0.38
301
FAT-Stereotwo views1.07
286
0.41
261
1.32
306
0.72
306
0.58
281
1.08
252
0.89
302
1.96
313
1.65
339
1.75
335
1.98
338
2.03
350
1.48
333
2.02
255
1.18
289
0.42
335
0.35
339
0.34
303
0.29
294
0.35
276
0.53
342
RGCtwo views1.14
304
0.79
355
1.26
296
0.91
364
0.96
367
1.52
313
0.77
274
1.92
304
1.26
245
1.54
311
1.93
335
2.02
349
1.54
337
2.25
275
1.31
302
0.44
345
0.35
339
0.58
372
0.48
358
0.47
328
0.46
325
stereogantwo views1.15
307
0.42
264
1.40
314
0.86
350
0.84
353
2.38
372
0.71
264
1.88
292
1.73
346
1.72
333
1.94
337
2.31
361
1.29
313
2.07
260
1.08
272
0.36
315
0.35
339
0.39
329
0.31
306
0.51
339
0.46
325
CSANtwo views1.41
333
0.59
320
1.26
296
0.70
296
0.50
239
1.76
335
1.78
377
1.77
268
1.90
359
2.35
368
2.32
357
1.92
338
1.94
368
5.56
360
1.49
331
0.43
340
0.35
339
0.40
334
0.41
343
0.43
315
0.41
309
RPtwo views1.09
291
0.50
294
1.12
277
0.90
361
1.04
370
1.11
255
0.84
291
1.80
276
1.62
337
1.55
314
2.00
339
1.90
334
1.78
357
1.84
236
1.25
293
0.52
359
0.36
344
0.48
350
0.36
331
0.45
325
0.43
317
Anonymous Stereotwo views1.28
317
0.75
351
2.45
374
0.74
316
0.77
337
0.93
220
1.77
376
1.51
206
1.31
271
1.67
329
1.29
202
1.20
227
0.75
144
6.29
373
1.68
340
0.37
319
0.36
344
0.38
323
0.40
341
0.43
315
0.45
321
Wz-Net-TNSevtwo views1.88
364
2.08
407
7.66
401
0.67
278
0.64
302
2.42
373
1.83
381
2.33
370
1.74
348
1.57
319
1.56
280
2.58
371
1.90
366
4.86
342
3.12
371
0.39
326
0.37
346
0.33
293
0.37
334
0.53
343
0.58
352
NCC-stereotwo views1.10
294
0.54
304
1.24
293
0.84
343
0.94
364
1.29
287
0.89
302
2.01
324
1.34
282
1.32
251
1.74
311
1.88
330
1.74
354
2.35
280
1.25
293
0.45
346
0.37
346
0.45
344
0.58
373
0.42
310
0.42
313
Abc-Nettwo views1.10
294
0.54
304
1.24
293
0.84
343
0.94
364
1.29
287
0.89
302
2.01
324
1.34
282
1.32
251
1.74
311
1.88
330
1.74
354
2.35
280
1.25
293
0.45
346
0.37
346
0.45
344
0.58
373
0.42
310
0.42
313
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
ADCPNettwo views1.85
363
0.69
341
8.07
403
0.71
303
0.58
281
2.79
383
1.22
349
1.94
310
1.54
332
1.88
348
1.69
306
2.46
369
2.04
372
2.37
282
6.48
391
0.38
323
0.37
346
0.38
323
0.43
347
0.47
328
0.45
321
SGM-ForestMtwo views6.52
411
0.38
246
1.26
296
0.63
242
0.35
144
13.59
423
5.32
417
6.32
416
6.70
411
11.14
420
9.18
415
22.51
431
13.93
419
16.89
424
20.07
422
0.36
315
0.37
346
0.36
318
0.35
327
0.36
282
0.34
284
FBW_ROBtwo views1.71
358
0.62
331
1.45
321
0.67
278
0.61
294
1.81
341
1.08
335
2.52
381
1.70
343
1.77
337
1.73
310
1.98
344
1.25
308
12.57
421
1.84
344
0.34
305
0.37
346
0.56
369
0.38
336
0.45
325
0.43
317
SGM-Foresttwo views1.24
313
0.38
246
0.60
60
0.52
114
0.37
158
1.56
317
1.30
355
1.65
238
1.36
293
2.11
361
1.79
318
1.63
310
0.93
224
7.48
395
0.95
256
0.36
315
0.37
346
0.39
329
0.34
323
0.37
286
0.32
278
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCStwo views2.25
376
0.99
368
5.55
395
0.81
334
0.74
327
2.19
364
1.80
378
2.27
366
2.14
369
2.80
384
2.13
349
2.40
366
2.03
371
2.64
294
13.69
413
0.41
332
0.39
353
0.40
334
0.45
351
0.58
351
0.56
347
AnyNet_C01two views2.26
377
1.78
396
10.22
409
0.93
367
0.74
327
2.92
387
2.20
399
2.29
368
1.80
352
2.53
375
2.41
363
2.71
376
1.73
353
3.41
318
6.72
393
0.41
332
0.39
353
0.40
334
0.42
345
0.67
365
0.63
360
psmorigintwo views1.52
340
0.69
341
10.52
410
0.68
288
0.59
288
1.13
259
0.70
262
1.57
223
1.19
217
1.99
355
1.79
318
2.26
358
1.47
332
2.09
261
1.36
310
0.39
326
0.40
355
0.34
303
0.33
318
0.43
315
0.56
347
S-Stereotwo views1.15
307
0.46
278
2.17
365
0.81
334
0.80
347
1.21
277
1.19
347
1.93
308
2.02
365
1.47
294
2.11
347
1.57
300
1.17
290
2.05
259
1.41
319
0.40
328
0.40
355
0.35
310
0.31
306
0.44
322
0.70
368
edge stereotwo views1.11
297
0.50
294
1.30
302
0.71
303
0.65
305
1.14
260
0.75
268
1.93
308
1.37
297
1.71
332
1.83
322
2.54
370
1.44
327
2.43
286
1.23
291
0.42
335
0.41
357
0.54
361
0.35
327
0.42
310
0.46
325
CC-Net-ROBtwo views1.49
336
1.26
384
1.27
299
0.88
356
0.79
342
1.76
335
1.00
326
1.79
274
1.26
245
1.10
136
1.61
292
1.21
228
0.99
254
8.13
401
0.84
242
1.09
389
0.41
357
2.20
395
0.46
354
1.20
387
0.48
331
CBMV_ROBtwo views0.90
245
0.44
270
0.63
70
0.51
98
0.37
158
1.25
282
0.49
168
1.77
268
1.27
252
1.41
282
2.00
339
1.33
261
1.08
277
2.17
266
0.76
214
0.43
340
0.42
359
0.47
349
0.44
349
0.41
305
0.36
293
DGSMNettwo views1.14
304
0.76
353
2.49
376
0.81
334
0.86
356
1.39
300
1.39
359
2.13
340
1.35
290
1.26
221
1.63
298
1.48
289
0.98
246
1.75
224
1.10
277
0.45
346
0.43
360
0.55
366
0.49
361
0.75
372
0.70
368
NOSS_ROBtwo views1.26
316
0.46
278
0.62
67
0.56
170
0.38
175
1.06
249
0.78
276
1.73
253
1.40
310
1.01
109
1.43
247
1.10
206
0.75
144
10.62
418
0.65
189
0.45
346
0.43
360
0.48
350
0.45
351
0.44
322
0.41
309
MeshStereopermissivetwo views2.26
377
0.56
310
0.92
220
0.61
223
0.49
233
2.60
378
1.02
329
3.18
391
2.05
367
7.40
418
4.98
398
7.58
408
2.98
393
6.37
374
1.96
351
0.43
340
0.43
360
0.45
344
0.39
337
0.43
315
0.42
313
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
HBP-ISPtwo views0.96
259
0.58
317
0.72
123
0.61
223
0.46
225
1.64
325
0.76
271
1.86
289
1.28
257
1.30
239
1.53
272
0.86
127
0.94
229
3.27
315
0.69
195
0.45
346
0.44
363
0.54
361
0.48
358
0.47
328
0.40
305
BEATNet-Init1two views26.87
430
13.43
426
70.68
442
0.91
364
0.68
315
57.02
443
21.06
424
32.82
435
32.67
432
52.12
443
53.61
442
66.05
443
49.56
443
48.79
444
34.71
434
0.49
358
0.44
363
0.53
360
0.53
368
0.63
358
0.59
354
G-Nettwo views1.66
351
0.63
332
1.56
333
1.11
380
0.74
327
2.98
388
0.91
308
1.55
221
1.22
230
2.76
382
8.18
413
2.32
362
2.53
387
1.92
245
1.87
345
0.48
354
0.44
363
0.45
344
0.31
306
0.60
357
0.57
351
WCMA_ROBtwo views1.84
362
0.47
282
1.31
303
0.69
291
0.57
273
2.11
361
1.14
341
1.87
290
1.73
346
4.04
399
6.43
402
5.62
402
3.61
398
2.59
291
1.94
350
0.52
359
0.44
363
0.39
329
0.42
345
0.48
331
0.47
328
ACVNet-4btwo views2.15
374
1.41
388
1.64
337
2.80
402
2.31
403
2.31
369
1.24
350
2.32
369
2.14
369
1.26
221
2.39
361
2.66
374
1.48
333
5.95
369
1.06
269
3.20
407
0.45
367
2.37
399
0.89
388
2.83
403
2.37
404
PVDtwo views1.70
356
0.84
357
2.26
369
0.94
369
0.83
352
2.48
374
0.97
320
2.59
383
3.35
392
3.01
391
2.77
371
2.34
363
2.47
386
2.67
295
3.14
372
0.47
353
0.45
367
0.59
373
0.48
358
0.59
353
0.75
373
PA-Nettwo views1.01
277
0.57
314
1.29
301
0.64
251
0.74
327
1.19
274
0.84
291
1.69
247
1.43
318
1.16
172
1.19
167
1.32
260
1.19
296
3.42
319
1.25
293
0.29
276
0.45
367
0.33
293
0.49
361
0.32
267
0.47
328
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GANetREF_RVCpermissivetwo views1.07
286
0.86
360
1.31
303
0.82
339
0.53
260
1.41
305
1.31
356
1.76
265
1.52
329
1.27
224
1.31
208
1.46
283
1.24
307
2.03
256
0.96
260
0.56
366
0.45
367
0.67
374
0.50
364
0.88
376
0.59
354
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
MFN_U_SF_DS_RVCtwo views1.74
360
0.87
361
3.56
386
0.80
331
0.75
333
3.72
396
2.44
406
1.82
280
1.82
354
1.74
334
1.91
333
1.92
338
1.26
310
7.69
397
1.28
299
0.45
346
0.47
371
0.52
355
0.77
382
0.50
335
0.50
336
FCDSN-DCtwo views2.32
379
0.63
332
0.81
180
0.84
343
0.75
333
2.23
365
0.94
316
2.09
338
1.80
352
5.45
412
7.72
410
7.77
410
6.93
415
3.39
316
1.80
343
0.52
359
0.48
372
0.52
355
0.51
366
0.57
349
0.58
352
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_RVCtwo views1.52
340
0.84
357
3.42
385
0.87
355
0.66
307
2.56
377
0.95
318
2.36
373
1.70
343
1.98
354
1.86
327
2.45
368
1.79
358
2.95
303
2.58
363
0.52
359
0.48
372
0.55
366
0.59
376
0.59
353
0.61
358
FC-DCNNcopylefttwo views2.72
394
0.59
320
0.86
192
0.73
314
0.57
273
2.91
385
1.04
331
3.01
389
2.60
382
6.83
414
7.64
409
9.92
415
6.33
413
5.21
348
3.14
372
0.53
365
0.48
372
0.51
354
0.50
364
0.53
343
0.51
340
MSMD_ROBtwo views1.99
371
0.59
320
0.89
210
0.70
296
0.61
294
3.95
401
0.94
316
1.80
276
1.79
351
4.41
403
4.43
389
8.17
411
3.66
399
3.40
317
1.33
304
0.52
359
0.48
372
0.54
361
0.58
373
0.53
343
0.50
336
MANEtwo views6.19
409
0.59
320
1.03
255
0.93
367
1.22
385
13.38
422
2.69
407
12.81
423
17.94
426
8.21
419
10.82
418
14.72
421
11.68
417
11.39
420
11.90
411
0.59
368
0.50
376
0.52
355
1.76
410
0.55
346
0.54
343
MSC_U_SF_DS_RVCtwo views2.12
373
1.15
380
3.10
384
1.05
375
0.76
336
5.03
410
2.40
405
2.16
349
2.62
383
1.89
350
2.28
356
2.69
375
1.65
347
9.35
409
2.04
354
0.64
374
0.51
377
0.68
375
0.71
380
1.09
384
0.67
365
SAMSARAtwo views1.55
342
0.84
357
2.61
378
1.22
383
1.07
371
2.50
375
1.93
387
2.05
329
1.89
357
2.75
381
1.66
303
2.81
377
1.69
352
3.08
309
1.97
352
0.46
352
0.51
377
0.42
338
0.46
354
0.58
351
0.59
354
ccnettwo views1.12
299
0.67
337
1.01
245
0.78
327
0.73
325
1.72
331
0.99
324
1.84
285
1.26
245
1.47
294
1.85
326
1.75
328
1.29
313
1.75
224
1.88
347
0.57
367
0.53
379
0.57
371
0.55
370
0.59
353
0.54
343
ELAS_RVCcopylefttwo views2.48
386
0.74
349
1.90
354
1.05
375
0.92
362
2.76
381
4.01
415
2.76
384
4.11
400
4.69
406
4.63
393
4.62
393
5.96
411
3.97
328
3.96
381
0.63
373
0.53
379
0.56
369
0.52
367
0.64
360
0.63
360
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views2.37
381
0.74
349
1.54
332
0.99
371
0.92
362
4.78
407
2.33
403
3.33
393
3.37
393
5.05
411
4.77
396
3.67
386
4.53
406
3.42
319
4.50
384
0.62
371
0.53
379
0.55
366
0.53
368
0.63
358
0.64
364
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
UDGtwo views1.41
333
2.65
413
0.99
236
1.44
389
1.64
392
1.34
293
0.80
285
1.60
228
1.23
233
1.23
205
1.71
308
2.01
347
1.34
321
1.47
179
1.41
319
0.90
380
0.54
382
2.29
397
0.75
381
1.84
391
1.04
384
Ntrotwo views1.64
350
1.15
380
1.23
290
2.48
400
1.83
393
2.09
360
1.16
344
1.96
313
1.38
301
1.21
197
1.62
295
1.62
308
1.29
313
1.87
242
1.11
279
3.04
403
0.56
383
1.82
393
0.64
378
2.80
400
2.05
400
otakutwo views1.60
346
1.11
377
1.21
287
2.20
395
1.56
391
1.97
353
1.24
350
2.07
335
1.36
293
1.44
289
1.62
295
1.73
323
1.19
296
1.73
223
0.98
263
2.89
402
0.57
384
1.74
391
0.60
377
2.78
399
1.94
399
LSMtwo views6.33
410
1.10
374
13.19
413
1.41
388
68.17
439
1.64
325
1.90
386
1.92
304
2.46
376
2.99
389
3.11
376
1.88
330
1.80
359
2.61
293
2.06
356
0.41
332
0.58
385
0.50
353
0.57
372
0.64
360
17.66
431
ACVNet_1two views2.18
375
1.45
390
1.72
343
2.85
404
2.33
404
2.28
367
1.46
363
3.08
390
2.22
372
1.82
345
2.05
345
3.56
385
1.98
370
3.09
310
1.40
315
3.17
404
0.60
386
2.40
403
0.92
390
2.91
406
2.37
404
SDNRtwo views1.62
349
0.51
297
2.17
365
0.53
123
0.56
271
3.80
399
0.45
140
1.54
217
1.29
261
1.33
259
2.41
363
1.08
197
0.96
239
11.18
419
1.16
284
0.66
375
0.63
387
0.43
340
0.32
312
0.64
360
0.67
365
ACVNet_2two views2.43
385
1.41
388
2.04
359
2.62
401
2.24
400
2.63
380
1.88
385
3.31
392
3.01
388
2.19
362
3.45
381
4.62
393
2.04
372
4.50
337
1.47
329
2.55
399
0.64
388
2.22
396
0.84
386
2.69
398
2.29
403
Anonymous_2two views1.30
320
0.55
307
0.82
182
0.52
114
0.58
281
1.01
241
0.64
244
1.25
155
0.97
120
0.96
95
0.78
48
1.33
261
1.29
313
1.03
103
0.74
208
0.62
371
0.64
388
1.06
387
9.63
424
1.16
385
0.49
335
PASMtwo views1.34
325
0.92
364
2.62
379
0.86
350
0.87
358
1.03
243
1.08
335
1.50
201
1.51
328
1.82
345
1.41
242
1.68
318
1.26
310
4.87
343
1.34
306
0.61
370
0.65
390
0.68
375
0.78
383
0.69
367
0.68
367
DDUNettwo views1.50
338
2.69
414
1.12
277
1.77
391
1.88
394
1.84
345
0.92
310
1.70
250
1.16
207
1.38
274
1.79
318
1.60
306
1.12
285
1.37
154
1.08
272
1.10
390
0.76
391
2.37
399
0.94
391
2.00
392
1.37
392
MADNet+two views2.69
391
3.22
417
11.53
412
1.44
389
1.12
376
3.19
390
1.81
379
2.85
386
2.37
373
1.68
330
2.07
346
2.85
379
2.18
377
7.41
392
5.23
387
0.79
377
0.76
391
0.69
377
0.65
379
0.98
378
0.95
379
Consistency-Rafttwo views1.25
315
0.99
368
1.93
356
1.02
374
1.21
384
0.96
230
1.01
328
1.75
259
1.92
360
1.36
267
2.12
348
1.44
279
1.01
258
1.14
124
1.40
315
0.72
376
0.82
393
0.89
381
0.98
395
1.31
389
0.95
379
MFMNet_retwo views1.40
332
1.14
379
1.68
340
1.39
386
1.07
371
1.48
309
1.43
361
1.87
290
1.82
354
2.26
364
2.19
352
1.51
293
1.86
363
1.52
184
1.25
293
0.93
381
0.83
394
0.84
380
0.80
384
0.99
380
1.05
386
IMH-64-1two views2.70
392
1.79
397
1.46
323
3.26
411
2.66
407
3.23
392
2.10
394
4.08
398
2.75
386
2.34
366
3.81
385
3.06
380
2.22
379
4.25
332
2.59
364
3.75
413
0.84
395
2.75
409
1.35
401
3.15
408
2.60
410
IMH-64two views2.70
392
1.79
397
1.46
323
3.26
411
2.66
407
3.23
392
2.10
394
4.08
398
2.75
386
2.34
366
3.81
385
3.06
380
2.22
379
4.25
332
2.59
364
3.75
413
0.84
395
2.75
409
1.35
401
3.15
408
2.60
410
TorneroNet-64two views5.30
408
2.03
403
1.74
346
3.43
413
2.81
410
10.09
417
2.12
396
9.10
420
17.12
425
4.96
410
9.27
416
10.72
419
3.70
400
9.20
406
4.55
385
3.31
408
0.84
395
2.88
412
1.55
408
3.49
411
3.04
413
RainbowNettwo views1.97
370
1.76
395
1.57
334
2.81
403
2.21
399
1.98
355
1.81
379
2.54
382
1.89
357
1.50
303
1.84
324
1.96
342
1.65
347
2.14
265
1.25
293
3.33
409
0.85
398
2.39
402
0.98
395
2.82
402
2.22
401
Deantwo views2.91
397
1.53
392
2.07
360
2.96
408
2.51
406
3.15
389
2.14
397
4.75
405
4.41
403
2.76
382
6.10
401
5.53
401
2.37
382
2.97
305
1.92
349
3.18
405
0.85
398
2.51
406
1.04
398
2.88
405
2.47
407
NVStereoNet_ROBtwo views1.88
364
1.07
372
1.45
321
1.07
378
1.17
380
1.47
308
1.48
365
1.89
294
1.93
362
1.94
353
4.67
395
3.08
382
1.80
359
6.51
376
1.65
337
1.06
388
0.86
400
1.08
388
1.32
400
0.93
377
1.26
391
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
TorneroNettwo views10.70
418
2.03
403
1.82
350
3.43
413
3.01
412
43.83
435
2.22
400
8.87
419
67.47
444
7.17
417
27.36
429
10.68
418
3.85
403
8.67
404
7.65
401
3.59
411
0.88
401
3.04
413
1.57
409
3.71
412
3.17
414
IMHtwo views3.21
398
1.85
401
1.48
328
3.25
410
2.69
409
4.07
403
2.02
392
4.41
403
3.80
397
2.72
379
7.11
406
4.75
396
2.92
391
5.92
367
2.55
362
3.85
416
0.88
401
2.78
411
1.36
403
3.19
410
2.59
409
PWCKtwo views2.88
396
2.05
405
5.72
397
2.08
394
1.11
374
3.55
394
3.90
414
2.86
387
3.54
396
3.03
392
3.63
383
3.10
383
2.31
381
8.15
403
3.09
370
2.12
396
0.91
403
1.75
392
0.98
395
2.57
397
1.18
390
JetBluetwo views3.97
400
2.01
402
10.19
408
1.38
385
2.84
411
10.53
418
9.54
418
3.60
396
2.41
375
2.73
380
3.39
380
4.54
392
4.31
404
7.85
400
6.84
394
0.88
379
0.93
404
0.89
381
0.91
389
1.74
390
1.91
398
SPS-STEREOcopylefttwo views1.67
352
1.04
371
1.23
290
1.21
382
1.13
379
1.82
343
1.11
337
2.16
349
1.52
329
3.07
393
2.32
357
2.82
378
1.80
359
4.11
330
2.04
354
1.03
386
0.99
405
0.97
383
0.94
391
1.03
382
1.02
382
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
WAO-7two views2.66
388
1.40
387
1.73
345
1.39
386
1.17
380
3.93
400
1.94
388
4.11
400
3.88
398
2.92
386
5.50
399
4.18
391
3.00
394
7.63
396
3.71
379
1.13
391
1.00
406
1.17
389
1.13
399
1.18
386
1.09
388
anonymitytwo views1.12
299
0.97
366
1.21
287
1.07
378
1.12
376
1.08
252
0.89
302
1.95
312
1.16
207
1.29
231
1.26
190
1.22
230
1.09
280
1.15
125
1.01
265
1.02
385
1.00
406
0.97
383
0.97
393
0.98
378
0.99
381
SGM+DAISYtwo views2.41
384
1.07
372
2.14
364
1.18
381
1.10
373
2.14
363
1.36
358
1.96
313
1.66
340
5.46
413
7.07
405
4.95
398
4.32
405
5.50
357
2.26
360
1.04
387
1.02
408
0.99
385
0.97
393
1.02
381
1.04
384
WAO-8two views4.40
402
1.82
399
1.79
347
2.34
397
2.20
397
9.19
415
1.53
366
6.09
413
16.46
420
3.94
397
7.84
411
7.32
405
3.72
401
9.41
411
3.31
375
2.00
394
1.07
409
2.44
404
1.37
404
2.50
395
1.68
395
Venustwo views4.40
402
1.82
399
1.79
347
2.34
397
2.20
397
9.19
415
1.53
366
6.09
413
16.46
420
3.94
397
7.84
411
7.32
405
3.72
401
9.41
411
3.31
375
2.00
394
1.07
409
2.44
404
1.37
404
2.50
395
1.68
395
LVEtwo views3.31
399
1.67
394
1.64
337
2.85
404
2.42
405
3.20
391
2.26
401
4.78
406
5.05
406
2.35
368
6.91
403
6.02
403
2.37
382
9.15
405
2.17
359
3.19
406
1.08
411
2.38
401
1.47
407
2.81
401
2.40
406
WAO-6two views2.81
395
1.60
393
1.46
323
2.36
399
2.28
402
3.55
394
2.29
402
4.21
401
4.56
404
2.36
370
4.51
390
4.88
397
2.66
388
4.60
338
4.07
383
1.72
392
1.15
412
2.31
398
1.46
406
2.31
393
1.85
397
UNDER WATERtwo views5.08
406
2.33
410
5.55
395
3.94
420
3.51
417
5.20
411
2.72
409
5.61
411
16.52
422
3.84
396
4.60
392
9.21
413
5.89
410
5.90
366
8.66
404
3.75
413
1.34
413
3.18
416
1.88
411
4.33
419
3.61
418
notakertwo views3.98
401
2.40
412
2.68
380
3.82
418
3.27
416
3.97
402
2.14
397
4.78
406
3.45
395
4.12
402
6.94
404
7.65
409
3.26
395
7.82
399
5.30
388
4.04
417
1.41
414
3.36
418
2.10
415
3.88
414
3.31
416
UNDER WATER-64two views5.27
407
2.32
409
8.78
406
3.93
419
3.54
418
7.61
413
3.03
413
5.84
412
14.19
416
4.04
399
4.04
387
9.39
414
6.26
412
5.93
368
8.48
403
3.60
412
1.51
415
3.13
414
1.88
411
4.29
418
3.61
418
KSHMRtwo views8.75
416
2.06
406
2.11
362
3.53
415
3.11
413
4.13
404
2.69
407
5.60
410
61.37
443
3.00
390
55.83
443
4.98
400
2.45
385
4.49
336
2.61
366
3.46
410
1.55
416
3.14
415
1.94
413
3.72
413
3.18
415
ktntwo views4.70
404
2.38
411
2.12
363
3.76
416
3.24
414
4.85
408
2.95
412
5.52
408
7.37
412
4.07
401
19.32
426
7.46
407
3.47
396
7.39
391
2.95
368
4.04
417
1.85
417
3.26
417
2.22
416
3.08
407
2.65
412
FADEtwo views26.59
429
4.78
419
20.96
419
1.89
393
1.92
395
2.91
385
2.00
391
5.58
409
5.04
405
2.92
386
2.16
351
4.13
390
14.18
420
10.23
417
8.46
402
188.09
444
2.77
418
123.78
441
127.92
441
1.06
383
1.10
389
JetRedtwo views6.91
413
8.80
424
25.96
427
2.85
404
3.25
415
13.98
424
11.87
419
6.25
415
4.28
402
4.45
404
4.56
391
6.69
404
5.46
408
7.46
394
14.05
414
2.59
400
3.31
419
2.59
407
2.29
417
4.20
417
3.36
417
HanzoNettwo views11.04
419
3.62
418
8.10
405
4.08
421
3.55
419
4.90
409
2.73
410
7.19
417
10.10
413
31.86
439
28.92
431
21.96
430
36.36
432
18.08
425
10.17
407
7.94
423
3.32
420
3.47
419
3.31
418
7.06
424
4.04
420
PMLtwo views51.67
441
36.25
434
13.28
414
7.46
424
20.81
426
108.69
444
232.22
445
8.72
418
27.82
431
87.01
444
269.67
445
69.67
444
61.95
444
24.76
433
14.20
415
9.74
426
3.40
421
9.62
425
4.70
420
18.74
429
4.72
423
MADNet++two views5.01
405
3.14
416
4.91
392
4.55
422
3.94
420
5.20
411
4.41
416
4.40
402
4.13
401
4.95
409
6.08
400
4.74
395
5.37
407
9.40
410
10.67
410
4.65
419
4.15
422
3.97
420
3.34
419
4.09
416
4.08
421
SPstereotwo views26.54
428
6.08
421
10.71
411
5.55
423
5.68
422
48.14
436
80.43
443
67.31
444
34.39
439
28.70
437
27.52
430
43.76
441
37.60
439
45.04
443
54.41
444
4.92
422
4.89
423
10.74
428
5.88
422
4.46
420
4.57
422
DPSimNet_ROBtwo views11.20
420
4.98
420
35.43
431
2.90
407
4.52
421
7.89
414
17.09
422
4.66
404
6.06
410
14.89
425
10.93
419
17.29
422
36.81
434
13.18
422
15.68
418
2.86
401
6.29
424
5.75
423
5.09
421
3.91
415
7.70
424
DPSMNet_ROBtwo views13.02
422
8.23
422
21.91
421
9.53
426
18.11
425
11.56
420
32.02
430
10.64
422
16.23
419
7.05
416
19.49
428
10.16
417
16.66
422
9.85
416
22.43
425
4.77
421
8.68
425
5.38
422
10.26
426
6.17
423
11.36
425
DGTPSM_ROBtwo views13.01
421
8.23
422
21.87
420
9.51
425
18.10
424
11.56
420
32.01
429
10.63
421
16.20
418
7.03
415
19.48
427
10.15
416
16.66
422
9.83
415
22.42
424
4.75
420
8.68
425
5.37
421
10.25
425
6.16
422
11.36
425
Anonymous_1two views43.04
440
18.73
427
24.79
424
21.81
428
46.26
438
27.80
426
37.60
431
28.08
430
16.14
417
14.66
424
14.30
420
20.65
424
17.88
424
21.56
426
25.94
428
117.93
443
8.92
427
100.65
440
126.50
440
158.64
444
12.08
427
DPSM_ROBtwo views19.08
424
19.14
428
25.17
425
22.15
429
20.85
427
28.17
427
37.82
432
26.56
428
16.85
423
14.14
422
14.84
421
21.70
425
18.75
425
21.87
427
26.55
429
10.16
427
9.30
428
10.47
426
10.42
427
14.03
426
12.61
428
DPSMtwo views19.08
424
19.14
428
25.17
425
22.15
429
20.85
427
28.17
427
37.82
432
26.56
428
16.85
423
14.14
422
14.84
421
21.70
425
18.75
425
21.87
427
26.55
429
10.16
427
9.30
428
10.47
426
10.42
427
14.03
426
12.61
428
ASD4two views15.85
423
10.99
425
19.63
418
10.21
427
11.70
423
19.24
425
31.10
428
19.35
425
10.68
414
11.14
420
10.18
417
12.59
420
12.64
418
14.74
423
24.83
427
12.93
429
9.94
430
26.83
435
19.40
429
16.23
428
12.70
430
tttwo views6.58
412
0.26
49
6.10
399
3.77
417
2.16
396
11.55
419
19.63
423
13.33
424
5.74
408
2.96
388
2.65
369
4.97
399
6.33
413
3.81
325
7.24
395
9.15
424
11.32
431
5.89
424
6.24
423
6.03
421
2.55
408
LSM0two views42.82
439
38.75
440
50.81
441
47.07
440
109.38
444
57.00
442
76.02
437
53.74
443
33.71
433
29.02
438
30.41
438
43.87
442
37.22
435
43.91
441
53.54
443
20.52
435
18.62
432
21.10
434
21.11
435
28.41
435
42.22
438
Selective-RAFT-Errortwo views38.39
435
38.47
436
50.44
440
44.73
435
41.97
437
56.68
440
76.38
439
53.24
442
33.92
435
28.34
433
29.85
434
43.60
439
38.20
441
43.75
436
53.34
438
20.38
434
18.70
433
21.09
433
21.05
430
28.30
434
25.43
436
CasAABBNettwo views38.33
431
38.46
435
50.35
436
44.75
439
41.84
433
56.68
440
76.37
438
53.22
441
33.83
434
28.31
432
29.54
433
43.62
440
37.71
440
43.84
440
53.41
439
20.30
430
18.70
433
21.07
432
21.07
431
28.24
433
25.34
432
MyStereo03two views38.34
432
38.50
437
50.41
437
44.74
436
41.86
434
56.65
437
76.38
439
52.99
438
33.93
436
28.39
434
29.99
435
43.54
436
37.42
436
43.82
437
53.53
440
20.31
431
18.71
435
21.06
429
21.08
432
28.23
430
25.35
433
MyStereo02two views38.34
432
38.50
437
50.41
437
44.74
436
41.86
434
56.65
437
76.38
439
52.99
438
33.93
436
28.39
434
29.99
435
43.54
436
37.42
436
43.82
437
53.53
440
20.31
431
18.71
435
21.06
429
21.08
432
28.23
430
25.35
433
MyStereotwo views38.34
432
38.50
437
50.41
437
44.74
436
41.86
434
56.65
437
76.38
439
52.99
438
33.93
436
28.39
434
29.99
435
43.54
436
37.42
436
43.82
437
53.53
440
20.31
431
18.71
435
21.06
429
21.08
432
28.23
430
25.35
433
LRCNet_RVCtwo views22.74
426
32.10
433
21.97
422
29.84
431
26.23
429
4.42
406
0.81
288
22.66
426
2.02
365
26.93
431
29.26
432
23.06
432
15.59
421
23.84
429
18.88
421
31.75
436
19.90
438
34.65
436
32.13
436
30.54
436
28.32
437
xxxxx1two views54.10
442
25.67
430
27.13
428
113.43
441
96.96
441
30.69
431
47.44
434
32.38
432
25.60
427
17.75
426
17.27
423
21.81
427
21.02
427
24.43
430
33.82
431
33.37
437
40.54
439
157.71
442
175.86
442
66.16
440
72.93
442
tt_lltwo views54.10
442
25.67
430
27.13
428
113.43
441
96.96
441
30.69
431
47.44
434
32.38
432
25.60
427
17.75
426
17.27
423
21.81
427
21.02
427
24.43
430
33.82
431
33.37
437
40.54
439
157.71
442
175.86
442
66.16
440
72.93
442
fftwo views54.10
442
25.67
430
27.13
428
113.43
441
96.96
441
30.69
431
47.44
434
32.38
432
25.60
427
17.75
426
17.27
423
21.81
427
21.02
427
24.43
430
33.82
431
33.37
437
40.54
439
157.71
442
175.86
442
66.16
440
72.93
442
AVERAGE_ROBtwo views40.43
437
42.37
442
42.73
433
36.96
434
35.58
432
30.50
430
27.61
426
36.71
437
38.39
441
44.91
441
44.36
440
37.45
435
36.70
433
41.88
435
40.35
435
45.43
441
46.81
442
47.11
438
46.35
437
42.51
438
43.87
439
HaxPigtwo views38.92
436
41.40
441
41.64
432
29.95
432
32.27
430
28.90
429
27.60
425
29.73
431
37.71
440
43.82
440
43.87
439
33.17
433
35.56
431
41.53
434
40.37
436
43.94
440
47.51
443
45.82
437
47.08
438
42.38
437
44.15
440
MEDIAN_ROBtwo views42.00
438
44.40
443
44.29
435
35.15
433
34.95
431
31.28
434
29.60
427
35.88
436
40.02
442
47.20
442
46.64
441
37.37
434
38.48
442
44.35
442
42.45
437
48.03
442
49.39
444
49.71
439
49.03
439
45.14
439
46.65
441
test_example2two views192.40
445
210.76
445
206.48
445
199.83
445
204.73
445
172.94
445
183.52
444
133.93
445
133.41
445
191.38
445
196.19
444
187.13
445
178.77
445
205.33
445
208.00
445
222.09
445
238.72
445
186.54
445
190.54
445
227.34
445
170.31
445