This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort by
adal-stereotwo views0.27
4
0.20
10
0.46
61
0.40
41
0.40
307
0.24
3
0.18
3
0.52
8
0.32
21
0.33
25
0.43
43
0.27
21
0.30
33
0.44
12
0.27
27
0.11
1
0.11
28
0.13
1
0.11
9
0.12
1
0.12
11
Monster-pub-eth3dtwo views0.28
8
0.18
1
0.39
14
0.36
6
0.21
9
0.55
154
0.31
82
0.55
13
0.43
49
0.28
7
0.28
13
0.23
3
0.21
3
0.56
42
0.25
12
0.11
1
0.10
9
0.14
3
0.11
9
0.14
21
0.11
2
asdatwo views0.30
17
0.24
80
0.42
33
0.38
26
0.23
25
0.43
56
0.34
109
0.58
21
0.37
33
0.38
45
0.42
34
0.27
21
0.34
58
0.52
28
0.30
51
0.11
1
0.09
1
0.14
3
0.11
9
0.14
21
0.12
11
4w-stereotwo views0.30
17
0.24
80
0.44
40
0.37
13
0.23
25
0.46
71
0.27
54
0.63
37
0.31
16
0.41
56
0.44
48
0.27
21
0.36
75
0.59
50
0.30
51
0.11
1
0.09
1
0.15
25
0.12
43
0.13
6
0.12
11
3.5w_stereotwo views0.33
39
0.25
108
0.45
53
0.37
13
0.24
42
0.54
146
0.35
117
0.66
47
0.36
30
0.43
68
0.44
48
0.29
32
0.34
58
0.77
111
0.39
155
0.11
1
0.09
1
0.15
25
0.11
9
0.14
21
0.13
38
MonStertwo views0.28
8
0.18
1
0.39
14
0.36
6
0.21
9
0.55
154
0.31
82
0.55
13
0.43
49
0.28
7
0.29
15
0.23
3
0.21
3
0.56
42
0.25
12
0.11
1
0.10
9
0.14
3
0.11
9
0.14
21
0.11
2
AdaDepthtwo views0.30
17
0.22
49
0.49
75
0.44
87
0.27
92
0.44
62
0.24
33
0.52
8
0.30
13
0.31
16
0.37
27
0.26
15
0.32
46
0.79
120
0.25
12
0.12
7
0.12
56
0.16
55
0.13
67
0.16
63
0.15
98
qwetwo views0.32
31
0.21
30
0.40
20
0.37
13
0.26
68
0.49
94
0.29
65
0.64
39
0.39
36
0.49
102
0.48
62
0.26
15
0.27
21
0.80
123
0.34
104
0.12
7
0.10
9
0.14
3
0.11
9
0.15
43
0.12
11
2.25wtwo views0.32
31
0.24
80
0.48
68
0.37
13
0.24
42
0.45
66
0.25
37
0.62
35
0.40
40
0.45
80
0.58
98
0.27
21
0.32
46
0.74
107
0.35
114
0.12
7
0.10
9
0.14
3
0.12
43
0.13
6
0.14
65
4.25_newtwo views0.30
17
0.26
131
0.44
40
0.38
26
0.26
68
0.49
94
0.40
182
0.59
23
0.31
16
0.38
45
0.42
34
0.27
21
0.34
58
0.46
15
0.31
68
0.12
7
0.09
1
0.15
25
0.11
9
0.14
21
0.12
11
4.5w_newtwo views0.30
17
0.26
131
0.44
40
0.38
26
0.26
68
0.49
94
0.40
182
0.59
23
0.31
16
0.38
45
0.42
34
0.27
21
0.34
58
0.46
15
0.31
68
0.12
7
0.09
1
0.15
25
0.11
9
0.14
21
0.12
11
4.25w-stereotwo views0.30
17
0.26
131
0.44
40
0.38
26
0.26
68
0.49
94
0.40
182
0.59
23
0.32
21
0.38
45
0.42
34
0.27
21
0.34
58
0.46
15
0.31
68
0.12
7
0.09
1
0.15
25
0.11
9
0.14
21
0.12
11
2.5wtwo views0.31
27
0.23
62
0.46
61
0.39
34
0.24
42
0.42
47
0.39
174
0.61
31
0.30
13
0.37
38
0.53
80
0.24
7
0.25
14
0.77
111
0.28
37
0.12
7
0.10
9
0.14
3
0.12
43
0.14
21
0.12
11
2.75w_newtwo views0.31
27
0.23
62
0.43
38
0.35
4
0.23
25
0.42
47
0.42
202
0.54
12
0.35
29
0.47
88
0.43
43
0.24
7
0.30
33
0.66
81
0.33
87
0.12
7
0.10
9
0.14
3
0.11
9
0.13
6
0.12
11
3.25w_newtwo views0.32
31
0.21
30
0.45
53
0.38
26
0.23
25
0.52
129
0.34
109
0.65
43
0.39
36
0.47
88
0.45
53
0.32
43
0.35
66
0.61
66
0.27
27
0.12
7
0.10
9
0.14
3
0.11
9
0.12
1
0.12
11
3.25wtwo views0.32
31
0.21
30
0.45
53
0.37
13
0.23
25
0.52
129
0.34
109
0.65
43
0.39
36
0.47
88
0.45
53
0.32
43
0.35
66
0.61
66
0.27
27
0.12
7
0.10
9
0.14
3
0.11
9
0.12
1
0.12
11
3.75wtwo views0.32
31
0.23
62
0.44
40
0.37
13
0.29
134
0.62
196
0.36
133
0.59
23
0.32
21
0.41
56
0.47
59
0.25
13
0.34
58
0.64
72
0.26
21
0.12
7
0.09
1
0.14
3
0.12
43
0.13
6
0.12
11
3w_stereotwo views0.33
39
0.25
108
0.52
96
0.40
41
0.21
9
0.53
138
0.54
320
0.65
43
0.46
61
0.44
72
0.48
62
0.23
3
0.45
119
0.46
15
0.29
40
0.12
7
0.10
9
0.15
25
0.12
43
0.15
43
0.15
98
2w_stereotwo views0.32
31
0.24
80
0.45
53
0.39
34
0.22
19
0.46
71
0.47
265
0.69
55
0.42
47
0.43
68
0.50
73
0.24
7
0.45
119
0.47
19
0.29
40
0.12
7
0.10
9
0.15
25
0.12
43
0.15
43
0.13
38
1w_stereotwo views0.34
42
0.20
10
0.42
33
0.43
64
0.26
68
0.47
76
0.54
320
0.59
23
0.50
72
0.41
56
0.66
113
0.25
13
0.44
115
0.62
68
0.33
87
0.12
7
0.10
9
0.14
3
0.11
9
0.14
21
0.12
11
SM2two views0.28
8
0.20
10
0.39
14
0.38
26
0.25
59
0.26
5
0.24
33
0.61
31
0.47
64
0.39
53
0.33
20
0.26
15
0.32
46
0.52
28
0.29
40
0.13
21
0.11
28
0.14
3
0.11
9
0.14
21
0.12
11
asdtwo views0.30
17
0.21
30
0.41
25
0.39
34
0.24
42
0.47
76
0.30
75
0.69
55
0.30
13
0.41
56
0.39
29
0.28
31
0.33
51
0.62
68
0.27
27
0.13
21
0.09
1
0.14
3
0.12
43
0.14
21
0.12
11
4.5_newtwo views0.29
13
0.25
108
0.41
25
0.36
6
0.23
25
0.52
129
0.36
133
0.56
16
0.34
26
0.45
80
0.42
34
0.27
21
0.25
14
0.40
8
0.24
5
0.13
21
0.10
9
0.15
25
0.13
67
0.16
63
0.12
11
4.5w-stereotwo views0.29
13
0.25
108
0.41
25
0.36
6
0.23
25
0.52
129
0.36
133
0.56
16
0.34
26
0.45
80
0.42
34
0.27
21
0.25
14
0.40
8
0.24
5
0.13
21
0.10
9
0.15
25
0.13
67
0.16
63
0.12
11
monsterstereotwo views0.34
42
0.20
10
0.44
40
0.45
101
0.35
244
0.27
10
0.29
65
0.53
10
0.51
81
0.44
72
0.61
103
0.26
15
0.25
14
1.19
239
0.27
27
0.13
21
0.11
28
0.15
25
0.12
43
0.15
43
0.10
1
monsterstwo views0.34
42
0.20
10
0.41
25
0.39
34
0.36
254
0.34
19
0.27
54
0.66
47
0.43
49
0.47
88
0.40
30
0.22
2
0.23
10
1.33
273
0.25
12
0.13
21
0.10
9
0.14
3
0.11
9
0.13
6
0.13
38
IGEVbinarytwo views0.28
8
0.18
1
0.39
14
0.37
13
0.31
182
0.45
66
0.21
15
0.59
23
0.40
40
0.31
16
0.43
43
0.26
15
0.21
3
0.43
11
0.25
12
0.13
21
0.12
56
0.16
55
0.13
67
0.12
1
0.12
11
LG-Stereotwo views0.34
42
0.25
108
0.78
286
0.47
120
0.26
68
0.37
27
0.30
75
0.71
63
0.52
88
0.36
34
0.57
95
0.29
32
0.21
3
0.50
23
0.36
124
0.13
21
0.13
117
0.20
175
0.18
194
0.18
125
0.12
11
LoS_RVCtwo views0.42
87
0.26
131
0.40
20
0.44
87
0.82
503
0.51
125
0.44
234
0.64
39
0.41
44
0.44
72
0.78
149
0.44
69
0.47
135
0.56
42
0.36
124
0.13
21
0.12
56
0.14
3
0.10
2
0.13
6
0.84
531
RAFT-Stereo + iAFFtwo views0.54
171
0.25
108
0.68
192
0.43
64
0.24
42
0.40
36
0.34
109
1.04
189
1.09
293
1.32
394
1.60
437
0.80
212
0.68
247
0.67
84
0.39
155
0.13
21
0.10
9
0.18
117
0.17
176
0.17
94
0.13
38
AFF-stereotwo views0.58
208
0.25
108
0.64
169
0.46
109
0.29
134
0.34
19
0.38
159
1.15
237
1.14
321
1.17
315
1.60
437
1.10
336
0.71
260
0.97
181
0.43
194
0.13
21
0.11
28
0.19
140
0.19
216
0.17
94
0.14
65
Replicate-Monstertwo views0.41
83
0.26
131
2.03
507
0.36
6
0.21
9
0.46
71
0.23
27
0.67
53
0.48
66
0.42
62
0.27
12
0.31
40
0.30
33
0.98
182
0.24
5
0.14
32
0.10
9
0.14
3
0.11
9
0.13
6
0.28
379
MLG-Stereo_test1two views0.27
4
0.19
6
0.38
8
0.40
41
0.24
42
0.38
30
0.20
12
0.59
23
0.19
1
0.24
2
0.17
1
0.33
47
0.27
21
0.90
158
0.25
12
0.14
32
0.11
28
0.16
55
0.11
9
0.13
6
0.12
11
MLG-Stereotwo views0.29
13
0.19
6
0.38
8
0.41
50
0.20
3
0.42
47
0.20
12
0.66
47
0.21
2
0.25
3
0.22
4
0.33
47
0.28
25
1.09
213
0.25
12
0.14
32
0.11
28
0.16
55
0.11
9
0.13
6
0.12
11
GREAT-IGEVtwo views0.32
31
0.20
10
0.42
33
0.37
13
0.29
134
0.36
25
0.28
60
0.56
16
0.58
100
0.28
7
0.50
73
0.29
32
0.29
29
0.84
137
0.27
27
0.14
32
0.11
28
0.15
25
0.11
9
0.17
94
0.14
65
ffffttwo views0.38
62
0.23
62
0.51
88
0.44
87
0.32
201
0.43
56
0.48
276
0.76
74
0.36
30
0.44
72
0.34
21
0.38
61
0.31
40
1.31
266
0.32
73
0.14
32
0.11
28
0.19
140
0.15
113
0.16
63
0.16
128
1: 1. 1
MoCha-V2two views0.40
75
0.20
10
0.49
75
0.50
175
0.21
9
0.44
62
0.33
97
0.93
141
0.53
92
0.53
118
0.53
80
0.42
64
0.58
209
1.09
213
0.27
27
0.14
32
0.12
56
0.15
25
0.12
43
0.17
94
0.15
98
Selective-IGEVtwo views0.39
66
0.24
80
0.50
81
0.44
87
0.25
59
0.46
71
0.33
97
1.25
273
0.40
40
0.35
29
0.45
53
0.52
118
0.30
33
1.07
208
0.30
51
0.14
32
0.12
56
0.17
82
0.13
67
0.16
63
0.13
38
s12784htwo views0.52
146
0.20
10
0.38
8
0.41
50
0.19
1
0.96
365
0.34
109
1.17
241
1.25
389
0.81
178
0.90
177
0.63
163
0.50
160
1.45
306
0.42
184
0.14
32
0.12
56
0.17
82
0.11
9
0.18
125
0.11
2
Monster-pub-mixalltwo views0.30
17
0.19
6
0.39
14
0.36
6
0.21
9
0.28
11
0.18
3
0.58
21
0.34
26
0.36
34
0.34
21
0.26
15
0.20
1
1.40
299
0.24
5
0.15
40
0.11
28
0.13
1
0.10
2
0.12
1
0.13
38
DilatedVolume-Stereopermissivetwo views0.43
93
0.21
30
0.55
118
0.43
64
0.32
201
0.72
259
0.29
65
0.80
94
0.51
81
0.77
166
0.73
137
0.48
93
0.40
93
1.13
224
0.39
155
0.15
40
0.14
169
0.15
25
0.14
95
0.16
63
0.14
65
xyz-stereo-finetunetwo views0.48
133
0.25
108
0.54
108
0.42
57
0.23
25
0.80
305
0.42
202
0.80
94
0.80
175
0.61
137
0.62
106
0.54
125
0.43
107
1.70
355
0.58
287
0.15
40
0.15
227
0.19
140
0.15
113
0.16
63
0.15
98
LG-Stereo_L2two views0.29
13
0.20
10
0.45
53
0.37
13
0.25
59
0.26
5
0.20
12
0.78
81
0.28
11
0.28
7
0.26
10
0.24
7
0.26
19
0.91
159
0.23
2
0.15
40
0.11
28
0.15
25
0.12
43
0.14
21
0.11
2
LG-Stereo_L1two views0.30
17
0.20
10
0.44
40
0.37
13
0.26
68
0.29
13
0.21
15
0.66
47
0.26
9
0.25
3
0.25
7
0.24
7
0.22
8
1.24
251
0.23
2
0.15
40
0.11
28
0.15
25
0.12
43
0.14
21
0.11
2
MLG-Stereo_test3two views0.28
8
0.18
1
0.42
33
0.40
41
0.23
25
0.47
76
0.19
9
0.61
31
0.29
12
0.35
29
0.21
2
0.35
51
0.21
3
0.60
62
0.25
12
0.15
40
0.11
28
0.16
55
0.11
9
0.13
6
0.13
38
MM-Stereo_test2two views0.43
93
0.24
80
0.67
188
0.51
205
0.32
201
0.55
154
0.45
251
0.97
161
0.77
167
0.59
134
0.51
76
0.49
101
0.42
100
0.80
123
0.30
51
0.15
40
0.13
117
0.18
117
0.14
95
0.19
166
0.14
65
HARTtwo views0.45
112
0.22
49
0.54
108
0.50
175
0.26
68
0.41
40
0.29
65
1.03
183
0.50
72
0.58
126
1.45
396
0.61
155
0.35
66
1.08
212
0.30
51
0.15
40
0.13
117
0.19
140
0.14
95
0.19
166
0.14
65
Reg-Stereo(zero)two views0.44
104
0.22
49
0.45
53
0.43
64
0.23
25
0.38
30
0.25
37
0.76
74
1.08
285
0.90
199
0.78
149
0.90
258
0.47
135
0.70
90
0.36
124
0.15
40
0.12
56
0.15
25
0.12
43
0.15
43
0.15
98
HItwo views0.64
246
0.32
288
0.68
192
0.47
120
0.51
386
0.41
40
0.36
133
1.04
189
0.75
157
1.31
390
1.43
389
1.62
445
1.12
430
0.94
170
0.88
383
0.15
40
0.12
56
0.20
175
0.20
248
0.20
200
0.18
179
CoSvtwo views0.64
246
0.32
288
0.68
192
0.47
120
0.51
386
0.41
40
0.36
133
1.04
189
0.75
157
1.31
390
1.43
389
1.62
445
1.12
430
0.94
170
0.88
383
0.15
40
0.12
56
0.20
175
0.20
248
0.20
200
0.18
179
SMoEStereo_RVCtwo views0.39
66
0.25
108
0.50
81
0.45
101
0.30
156
0.61
187
0.36
133
0.72
64
0.45
55
0.46
85
0.43
43
0.42
64
0.35
66
1.39
293
0.29
40
0.15
40
0.12
56
0.20
175
0.15
113
0.16
63
0.15
98
fffytwo views0.42
87
0.27
161
0.57
132
0.46
109
0.29
134
0.48
82
0.35
117
0.91
131
0.55
95
0.40
55
0.58
98
0.55
128
0.41
96
1.26
255
0.36
124
0.15
40
0.13
117
0.19
140
0.16
155
0.18
125
0.14
65
WCG-NETtwo views0.42
87
0.21
30
0.54
108
0.40
41
0.25
59
0.47
76
0.32
90
0.73
66
1.15
333
0.76
161
0.73
137
0.58
143
0.45
119
0.60
62
0.34
104
0.15
40
0.11
28
0.16
55
0.14
95
0.15
43
0.13
38
IGEV-Stereo++two views0.30
17
0.20
10
0.40
20
0.46
109
0.30
156
0.33
18
0.22
19
0.75
71
0.45
55
0.32
20
0.41
32
0.32
43
0.48
146
0.38
4
0.27
27
0.15
40
0.11
28
0.15
25
0.12
43
0.15
43
0.13
38
RSM++two views0.38
62
0.24
80
0.51
88
0.47
120
0.26
68
0.50
108
0.41
198
0.79
86
0.45
55
0.37
38
0.45
53
0.60
151
0.35
66
1.02
194
0.30
51
0.15
40
0.13
117
0.17
82
0.14
95
0.18
125
0.13
38
RSMtwo views0.39
66
0.24
80
0.49
75
0.46
109
0.26
68
0.47
76
0.40
182
0.92
134
0.44
53
0.41
56
0.42
34
0.65
169
0.33
51
1.07
208
0.29
40
0.15
40
0.12
56
0.17
82
0.13
67
0.17
94
0.13
38
CEStwo views0.48
133
0.20
10
0.37
5
0.39
34
1.39
545
0.55
154
0.35
117
0.98
165
0.66
134
0.44
72
0.66
113
0.35
51
0.27
21
0.56
42
0.33
87
0.15
40
0.13
117
0.15
25
0.10
2
0.19
166
1.46
549
ProNettwo views0.43
93
0.28
183
0.58
138
0.43
64
0.30
156
0.56
160
0.52
306
1.00
171
0.58
100
0.44
72
0.49
70
0.43
67
0.43
107
1.28
260
0.36
124
0.15
40
0.13
117
0.19
140
0.16
155
0.17
94
0.16
128
test_4two views0.53
156
0.22
49
0.56
122
0.54
259
0.32
201
0.64
203
0.39
174
0.80
94
0.62
110
0.92
206
1.87
481
0.68
178
0.42
100
1.16
231
0.37
136
0.15
40
0.13
117
0.20
175
0.22
321
0.20
200
0.15
98
test_3two views0.55
186
0.23
62
0.71
223
0.53
244
0.28
117
0.61
187
0.40
182
0.92
134
1.05
270
1.19
324
0.68
120
0.93
272
0.44
115
1.67
348
0.39
155
0.15
40
0.12
56
0.22
239
0.19
216
0.21
242
0.14
65
cross-rafttwo views0.54
171
0.25
108
0.61
153
0.52
226
0.29
134
0.68
239
0.37
152
1.46
316
0.76
163
1.01
234
1.06
238
1.28
382
0.46
126
0.71
94
0.35
114
0.15
40
0.12
56
0.18
117
0.16
155
0.19
166
0.14
65
water-stereotwo views0.39
66
0.20
10
0.48
68
0.44
87
0.27
92
0.50
108
0.26
47
0.92
134
0.51
81
0.53
118
0.78
149
0.55
128
0.49
154
0.42
10
0.42
184
0.16
62
0.15
227
0.17
82
0.15
113
0.16
63
0.15
98
depthmonostereotwo views0.41
83
0.23
62
0.53
102
0.47
120
0.23
25
0.61
187
0.35
117
1.00
171
0.76
163
0.48
96
0.65
112
0.47
88
0.49
154
0.67
84
0.37
136
0.16
62
0.15
227
0.16
55
0.14
95
0.16
63
0.15
98
xyz-stereo-finetune2two views0.58
208
0.27
161
0.57
132
0.40
41
0.24
42
1.09
395
0.32
90
0.79
86
0.53
92
0.65
144
1.07
242
0.58
143
0.80
298
2.47
437
0.80
364
0.16
62
0.15
227
0.21
210
0.17
176
0.16
63
0.17
154
xyz-stereotwo views7.16
571
0.22
49
69.90
597
0.42
57
0.21
9
32.92
592
0.49
286
0.87
115
0.76
163
1.38
419
27.04
587
1.19
355
1.16
437
4.69
493
0.97
402
0.16
62
0.12
56
0.20
175
0.14
95
0.16
63
0.12
11
MLG-Stereo_test2two views0.26
3
0.20
10
0.36
3
0.37
13
0.22
19
0.35
21
0.18
3
0.45
5
0.21
2
0.26
5
0.23
5
0.34
49
0.20
1
0.77
111
0.23
2
0.16
62
0.11
28
0.15
25
0.11
9
0.13
6
0.11
2
LG-G_1two views0.31
27
0.20
10
0.44
40
0.42
57
0.20
3
0.64
203
0.18
3
0.70
59
0.25
7
0.29
11
0.29
15
0.36
53
0.35
66
0.87
149
0.24
5
0.16
62
0.12
56
0.16
55
0.11
9
0.13
6
0.13
38
LG-Gtwo views0.31
27
0.20
10
0.44
40
0.42
57
0.20
3
0.64
203
0.18
3
0.70
59
0.25
7
0.29
11
0.29
15
0.36
53
0.35
66
0.87
149
0.24
5
0.16
62
0.12
56
0.16
55
0.11
9
0.13
6
0.13
38
DEFOM-Stereo_RVCtwo views0.40
75
0.67
487
0.42
33
0.64
387
0.29
134
0.48
82
0.25
37
0.85
112
0.44
53
0.38
45
0.36
24
0.30
37
0.70
255
1.15
227
0.29
40
0.16
62
0.11
28
0.16
55
0.11
9
0.18
125
0.12
11
FoundationStereotwo views0.24
1
0.21
30
0.36
3
0.38
26
0.22
19
0.32
17
0.22
19
0.39
2
0.23
6
0.30
15
0.25
7
0.30
37
0.33
51
0.34
3
0.26
21
0.16
62
0.12
56
0.15
25
0.11
9
0.13
6
0.12
11
AIO_rvctwo views0.36
51
0.23
62
0.49
75
0.43
64
0.27
92
0.59
173
0.38
159
0.94
148
0.45
55
0.33
25
0.46
57
0.49
101
0.22
8
0.84
137
0.30
51
0.16
62
0.11
28
0.16
55
0.12
43
0.15
43
0.13
38
AIO_testtwo views0.35
50
0.22
49
0.44
40
0.43
64
0.27
92
0.57
165
0.44
234
0.79
86
0.41
44
0.32
20
0.47
59
0.46
81
0.30
33
0.69
86
0.30
51
0.16
62
0.11
28
0.16
55
0.13
67
0.15
43
0.12
11
castereotwo views0.41
83
0.22
49
0.46
61
0.44
87
0.30
156
0.61
187
0.56
346
0.97
161
0.80
175
0.38
45
0.69
124
0.45
77
0.69
250
0.51
25
0.30
51
0.16
62
0.11
28
0.16
55
0.13
67
0.16
63
0.12
11
DEFOM-Stereotwo views0.33
39
0.20
10
0.40
20
0.42
57
0.28
117
0.80
305
0.23
27
0.48
6
0.37
33
0.37
38
0.31
18
0.23
3
0.24
12
1.20
241
0.27
27
0.16
62
0.12
56
0.14
3
0.11
9
0.14
21
0.14
65
tt45two views0.45
112
0.23
62
0.46
61
0.45
101
0.33
222
0.79
297
0.32
90
0.78
81
0.41
44
0.51
115
0.44
48
0.49
101
0.37
80
2.14
405
0.34
104
0.16
62
0.13
117
0.19
140
0.16
155
0.17
94
0.18
179
999two views0.48
133
0.22
49
0.49
75
0.48
147
0.34
240
0.75
272
0.31
82
0.85
112
0.55
95
0.37
38
0.48
62
0.50
107
0.36
75
2.45
432
0.39
155
0.16
62
0.13
117
0.18
117
0.15
113
0.16
63
0.19
219
mmstwo views0.40
75
0.27
161
0.52
96
0.46
109
0.32
201
0.43
56
0.46
258
0.70
59
0.46
61
0.35
29
0.58
98
0.44
69
0.30
33
1.36
283
0.33
87
0.16
62
0.13
117
0.18
117
0.15
113
0.19
166
0.15
98
ours_stereotwo views0.39
66
0.28
183
0.51
88
0.46
109
0.30
156
0.40
36
0.44
234
0.73
66
0.56
97
0.35
29
0.56
92
0.46
81
0.33
51
1.11
219
0.32
73
0.16
62
0.13
117
0.19
140
0.15
113
0.19
166
0.14
65
dual_stereotwo views0.27
4
0.19
6
0.35
1
0.39
34
0.21
9
0.25
4
0.22
19
0.48
6
0.31
16
0.32
20
0.26
10
0.37
58
0.24
12
0.83
134
0.29
40
0.16
62
0.12
56
0.14
3
0.11
9
0.14
21
0.11
2
Occ-Gtwo views0.42
87
0.21
30
0.48
68
0.41
50
0.26
68
0.42
47
0.62
378
0.77
77
0.49
68
0.43
68
0.66
113
1.02
309
0.46
126
0.78
116
0.41
173
0.16
62
0.13
117
0.18
117
0.13
67
0.16
63
0.16
128
AIO-Stereopermissivetwo views0.37
57
0.25
108
0.51
88
0.47
120
0.23
25
0.45
66
0.39
174
1.07
212
0.52
88
0.41
56
0.48
62
0.52
118
0.25
14
0.72
97
0.30
51
0.16
62
0.12
56
0.17
82
0.13
67
0.16
63
0.13
38
WCG-NET(raft)two views0.45
112
0.21
30
0.55
118
0.40
41
0.24
42
0.50
108
0.36
133
0.73
66
1.09
293
0.71
153
0.76
145
0.92
270
0.51
164
0.84
137
0.34
104
0.16
62
0.12
56
0.15
25
0.14
95
0.14
21
0.14
65
RAFT-Stereo-weighttwo views0.47
127
0.24
80
0.53
102
0.48
147
0.27
92
0.60
181
0.35
117
1.02
178
1.07
279
0.99
226
0.78
149
0.76
199
0.28
25
0.76
108
0.36
124
0.16
62
0.12
56
0.17
82
0.15
113
0.16
63
0.15
98
AE-Stereotwo views0.49
139
0.27
161
0.67
188
0.60
343
0.39
296
0.67
232
0.46
258
1.18
246
1.09
293
0.47
88
0.75
143
0.69
183
0.47
135
0.59
50
0.40
162
0.16
62
0.15
227
0.21
210
0.20
248
0.19
166
0.15
98
MIM_Stereotwo views0.57
202
0.24
80
0.92
346
0.46
109
0.30
156
0.54
146
0.28
60
1.27
275
0.75
157
1.00
231
1.16
291
0.93
272
0.53
174
1.45
306
0.61
300
0.16
62
0.16
267
0.20
175
0.19
216
0.17
94
0.14
65
AEACVtwo views0.37
57
0.24
80
0.52
96
0.47
120
0.51
386
0.37
27
0.38
159
0.65
43
0.53
92
0.42
62
0.56
92
0.46
81
0.60
213
0.53
32
0.30
51
0.16
62
0.13
117
0.18
117
0.15
113
0.17
94
0.14
65
DCREtwo views0.82
354
0.26
131
0.70
211
0.58
318
0.44
339
0.54
146
0.48
276
0.95
153
0.78
170
0.78
169
7.33
564
0.86
241
0.52
169
0.76
108
0.41
173
0.16
62
0.16
267
0.19
140
0.17
176
0.18
125
0.17
154
DCANet-4two views0.54
171
0.26
131
1.07
402
0.42
57
0.24
42
0.48
82
0.36
133
0.99
167
1.30
415
1.10
264
1.02
221
0.56
136
0.75
269
0.73
101
0.52
262
0.16
62
0.13
117
0.17
82
0.13
67
0.15
43
0.19
219
ffftwo views0.53
156
0.24
80
0.70
211
0.43
64
0.24
42
0.48
82
0.36
133
1.07
212
1.25
389
1.10
264
1.02
221
0.57
138
1.06
417
0.73
101
0.52
262
0.16
62
0.13
117
0.17
82
0.13
67
0.15
43
0.19
219
ADStereo(finetuned)two views0.57
202
0.24
80
1.06
397
0.43
64
0.24
42
0.49
94
0.35
117
1.05
197
1.30
415
1.12
272
1.03
231
0.58
143
1.20
448
0.84
137
0.51
255
0.16
62
0.13
117
0.17
82
0.13
67
0.18
125
0.19
219
RAFT_CTSACEtwo views0.63
234
0.26
131
0.88
329
0.55
283
0.51
386
0.71
256
0.44
234
0.80
94
0.97
234
0.97
219
1.84
476
1.18
354
0.68
247
1.47
312
0.36
124
0.16
62
0.15
227
0.21
210
0.20
248
0.20
200
0.14
65
IPLGtwo views0.69
276
0.27
161
0.97
364
0.51
205
0.43
331
0.79
297
0.33
97
1.21
257
1.06
274
1.30
380
1.10
256
0.52
118
0.55
186
3.16
464
0.63
307
0.16
62
0.14
169
0.19
140
0.16
155
0.18
125
0.17
154
GMOStereotwo views0.53
156
0.26
131
0.65
176
0.50
175
0.29
134
0.52
129
0.43
221
0.89
124
0.96
227
1.41
428
1.14
278
0.85
237
0.56
191
0.59
50
0.38
147
0.16
62
0.14
169
0.24
297
0.21
292
0.20
200
0.15
98
error versiontwo views0.53
156
0.26
131
0.65
176
0.50
175
0.29
134
0.52
129
0.43
221
0.89
124
0.96
227
1.41
428
1.14
278
0.85
237
0.56
191
0.59
50
0.38
147
0.16
62
0.14
169
0.24
297
0.21
292
0.20
200
0.15
98
test-vtwo views0.53
156
0.26
131
0.65
176
0.50
175
0.29
134
0.52
129
0.43
221
0.89
124
0.96
227
1.41
428
1.14
278
0.85
237
0.56
191
0.59
50
0.38
147
0.16
62
0.14
169
0.24
297
0.21
292
0.20
200
0.15
98
test-3two views0.54
171
0.22
49
0.68
192
0.47
120
0.27
92
0.58
168
0.35
117
0.92
134
1.00
251
1.32
394
0.69
124
0.87
245
0.45
119
1.68
353
0.37
136
0.16
62
0.11
28
0.20
175
0.16
155
0.17
94
0.13
38
test_1two views0.54
171
0.22
49
0.68
192
0.47
120
0.27
92
0.58
168
0.35
117
0.92
134
1.00
251
1.28
366
0.68
120
0.87
245
0.45
119
1.67
348
0.37
136
0.16
62
0.11
28
0.20
175
0.16
155
0.17
94
0.13
38
test-2two views0.53
156
0.26
131
0.65
176
0.50
175
0.29
134
0.52
129
0.43
221
0.89
124
0.96
227
1.41
428
1.14
278
0.85
237
0.56
191
0.59
50
0.38
147
0.16
62
0.14
169
0.24
297
0.21
292
0.20
200
0.15
98
CREStereo++_RVCtwo views0.47
127
0.21
30
0.38
8
0.45
101
0.38
286
0.45
66
0.25
37
0.75
71
1.29
409
0.80
174
1.21
309
0.47
88
0.37
80
0.53
32
0.44
197
0.16
62
0.11
28
0.15
25
0.80
540
0.18
125
0.11
2
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
DCANettwo views0.54
171
0.24
80
0.70
211
0.43
64
0.24
42
0.49
94
0.36
133
1.05
197
1.30
415
1.12
272
1.03
231
0.58
143
0.92
353
0.81
129
0.52
262
0.16
62
0.13
117
0.17
82
0.13
67
0.18
125
0.19
219
csctwo views0.53
156
0.24
80
0.70
211
0.43
64
0.24
42
0.48
82
0.36
133
1.07
212
1.25
389
1.10
264
1.02
221
0.57
138
1.06
417
0.73
101
0.52
262
0.16
62
0.13
117
0.17
82
0.13
67
0.15
43
0.19
219
cscssctwo views0.53
156
0.24
80
0.70
211
0.43
64
0.24
42
0.48
82
0.36
133
1.07
212
1.25
389
1.10
264
1.02
221
0.57
138
1.06
417
0.73
101
0.52
262
0.16
62
0.13
117
0.17
82
0.13
67
0.15
43
0.19
219
CFNet-RSSMtwo views0.54
171
0.24
80
0.70
211
0.48
147
0.28
117
0.60
181
0.27
54
1.49
322
1.14
321
1.06
246
0.93
184
1.08
324
0.54
179
0.70
90
0.35
114
0.16
62
0.12
56
0.17
82
0.15
113
0.16
63
0.14
65
Gwc-CoAtRStwo views0.52
146
0.24
80
0.68
192
0.48
147
0.29
134
0.64
203
0.25
37
1.16
239
1.08
285
1.01
234
1.00
207
1.12
341
0.56
191
0.69
86
0.37
136
0.16
62
0.13
117
0.17
82
0.15
113
0.15
43
0.15
98
MStwo views0.46
119
0.29
218
1.75
495
0.34
1
0.23
25
0.38
30
0.17
2
0.55
13
0.31
16
0.37
38
0.38
28
0.31
40
0.32
46
0.56
42
0.26
21
0.17
105
0.13
117
0.14
3
1.52
565
0.20
200
0.80
528
111111two views0.34
42
0.20
10
0.41
25
0.45
101
0.42
321
0.37
27
0.22
19
0.95
153
0.38
35
0.31
16
0.31
18
0.40
63
0.27
21
0.96
173
0.26
21
0.17
105
0.12
56
0.15
25
0.11
9
0.15
43
0.13
38
SCV_C0two views0.43
93
0.26
131
0.65
176
0.43
64
0.29
134
0.47
76
0.31
82
1.34
287
0.73
154
0.38
45
0.49
70
0.54
125
0.29
29
1.24
251
0.30
51
0.17
105
0.13
117
0.16
55
0.13
67
0.20
200
0.15
98
HUFtwo views0.36
51
0.23
62
0.52
96
0.40
41
0.22
19
0.54
146
0.47
265
0.82
104
0.43
49
0.36
34
0.43
43
0.50
107
0.42
100
0.64
72
0.29
40
0.17
105
0.12
56
0.16
55
0.12
43
0.15
43
0.14
65
AIO-test1two views0.56
195
0.25
108
0.55
118
0.64
387
0.78
491
0.80
305
0.36
133
1.18
246
1.34
430
0.57
124
0.88
173
0.61
155
0.50
160
1.12
222
0.35
114
0.17
105
0.17
296
0.22
239
0.24
357
0.18
125
0.23
307
castereo++two views0.38
62
0.23
62
0.41
25
0.43
64
0.31
182
0.97
369
0.22
19
0.86
114
0.58
100
0.32
20
0.44
48
0.51
111
0.39
89
0.93
167
0.24
5
0.17
105
0.11
28
0.17
82
0.12
43
0.14
21
0.14
65
tgtwo views0.52
146
0.24
80
0.61
153
0.49
163
0.30
156
0.90
339
0.29
65
1.07
212
0.83
184
0.83
184
1.02
221
0.62
160
0.43
107
1.35
278
0.41
173
0.17
105
0.12
56
0.22
239
0.20
248
0.17
94
0.15
98
UGAM-zerotwo views1.00
415
0.30
239
0.93
348
0.47
120
0.30
156
0.57
165
0.25
37
2.25
519
0.63
113
1.01
234
1.10
256
2.73
529
1.85
516
6.26
529
0.40
162
0.17
105
0.14
169
0.19
140
0.15
113
0.16
63
0.17
154
RAStereotwo views0.34
42
0.21
30
0.66
183
0.47
120
0.27
92
0.26
5
0.29
65
0.69
55
0.63
113
0.32
20
0.42
34
0.45
77
0.31
40
0.45
13
0.34
104
0.17
105
0.15
227
0.19
140
0.15
113
0.18
125
0.13
38
Pointernettwo views0.37
57
0.20
10
0.57
132
0.43
64
0.28
117
0.51
125
0.27
54
0.93
141
0.61
108
0.47
88
0.63
108
0.49
101
0.38
87
0.49
22
0.33
87
0.17
105
0.13
117
0.14
3
0.11
9
0.13
6
0.12
11
IGEV-Stereo+two views0.45
112
0.21
30
0.43
38
0.41
50
0.39
296
0.15
1
0.19
9
0.44
4
0.36
30
0.26
5
0.25
7
0.31
40
0.41
96
1.43
302
0.30
51
0.17
105
0.12
56
0.15
25
0.11
9
1.16
539
1.70
554
MyStereo07two views0.48
133
0.29
218
0.50
81
0.55
283
0.45
346
0.59
173
0.79
429
1.05
197
0.51
81
0.48
96
0.53
80
0.43
67
0.55
186
1.30
265
0.34
104
0.17
105
0.16
267
0.24
297
0.20
248
0.23
291
0.20
252
MyStereo06two views0.61
223
0.28
183
0.95
356
0.56
296
0.46
358
0.61
187
0.73
413
1.78
410
0.67
135
1.03
242
1.12
269
1.13
346
0.56
191
0.78
116
0.41
173
0.17
105
0.16
267
0.23
277
0.20
248
0.22
266
0.20
252
MyStereo05two views0.66
261
0.28
183
1.07
402
0.56
296
0.46
358
0.61
187
0.73
413
1.34
287
1.41
467
1.15
296
0.91
179
0.77
202
0.80
298
1.41
301
0.63
307
0.17
105
0.16
267
0.23
277
0.20
248
0.22
266
0.20
252
MyStereo04two views0.67
270
0.29
218
1.07
402
0.55
283
0.45
346
0.59
173
0.79
429
1.50
326
1.40
462
0.91
204
0.91
179
0.74
193
0.86
330
1.52
319
0.62
303
0.17
105
0.16
267
0.24
297
0.20
248
0.23
291
0.20
252
ff7two views0.43
93
0.27
161
0.56
122
0.44
87
0.33
222
0.50
108
0.42
202
0.87
115
0.50
72
0.49
102
0.53
80
0.44
69
0.48
146
1.38
288
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
fffftwo views0.43
93
0.27
161
0.56
122
0.44
87
0.33
222
0.50
108
0.42
202
0.87
115
0.50
72
0.49
102
0.53
80
0.44
69
0.48
146
1.38
288
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
11ttwo views0.43
93
0.27
161
0.56
122
0.44
87
0.33
222
0.50
108
0.42
202
0.87
115
0.50
72
0.49
102
0.53
80
0.44
69
0.48
146
1.38
288
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
MSKI-zero shottwo views0.55
186
0.26
131
0.57
132
0.51
205
0.26
68
0.69
244
0.28
60
1.18
246
0.64
117
0.91
204
1.32
353
0.82
221
0.33
51
1.92
383
0.32
73
0.17
105
0.12
56
0.17
82
0.13
67
0.16
63
0.16
128
GCAP-Stereotwo views0.40
75
0.28
183
0.68
192
0.47
120
0.25
59
0.53
138
0.32
90
0.82
104
0.58
100
0.65
144
0.69
124
0.58
143
0.42
100
0.47
19
0.29
40
0.17
105
0.14
169
0.17
82
0.13
67
0.17
94
0.14
65
RAFT-Testtwo views0.54
171
0.25
108
0.64
169
0.47
120
0.30
156
0.97
369
0.27
54
1.24
271
0.81
178
0.96
216
1.12
269
1.28
382
0.48
146
0.71
94
0.36
124
0.17
105
0.13
117
0.17
82
0.14
95
0.16
63
0.16
128
LL-Strereo2two views0.52
146
0.33
310
0.69
205
0.52
226
0.37
269
0.70
251
0.30
75
1.13
234
0.67
135
0.94
212
0.78
149
0.91
261
0.42
100
1.05
203
0.42
184
0.17
105
0.16
267
0.29
398
0.25
372
0.21
242
0.16
128
4D-IteraStereotwo views0.48
133
0.24
80
0.76
271
0.50
175
0.44
339
0.66
228
0.31
82
0.87
115
1.02
257
1.03
242
0.72
135
0.78
206
0.32
46
0.64
72
0.37
136
0.17
105
0.11
28
0.23
277
0.19
216
0.19
166
0.13
38
anonymousdsptwo views0.43
93
0.27
161
0.53
102
0.44
87
0.32
201
0.50
108
0.42
202
0.89
124
0.51
81
0.49
102
0.53
80
0.47
88
0.47
135
1.33
273
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
EGLCR-Stereotwo views0.37
57
0.22
49
0.51
88
0.43
64
0.26
68
0.44
62
0.22
19
0.99
167
0.48
66
0.42
62
0.42
34
0.67
176
0.29
29
0.86
146
0.33
87
0.17
105
0.12
56
0.19
140
0.17
176
0.17
94
0.15
98
MC-Stereotwo views0.43
93
0.23
62
0.48
68
0.51
205
0.28
117
0.39
34
0.32
90
0.88
123
0.68
139
0.60
136
0.84
165
0.56
136
0.61
222
1.03
195
0.31
68
0.17
105
0.11
28
0.17
82
0.15
113
0.16
63
0.13
38
RCA-Stereotwo views0.50
143
0.23
62
0.58
138
0.48
147
0.33
222
0.55
154
0.45
251
0.97
161
1.38
452
0.68
148
1.05
236
0.63
163
0.80
298
0.59
50
0.32
73
0.17
105
0.12
56
0.17
82
0.14
95
0.16
63
0.14
65
CroCo-Stereo Lap2two views0.44
104
0.34
334
0.77
278
0.61
357
0.79
494
0.28
11
0.35
117
0.75
71
0.71
149
0.38
45
0.50
73
0.72
191
0.55
186
0.57
48
0.47
231
0.17
105
0.18
318
0.19
140
0.16
155
0.21
242
0.20
252
ccc-4two views0.43
93
0.27
161
0.56
122
0.44
87
0.33
222
0.50
108
0.42
202
0.87
115
0.50
72
0.49
102
0.53
80
0.44
69
0.48
146
1.38
288
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
IGEV-Stereopermissivetwo views0.43
93
0.27
161
0.54
108
0.45
101
0.32
201
0.50
108
0.42
202
0.90
130
0.51
81
0.49
102
0.53
80
0.47
88
0.47
135
1.32
270
0.33
87
0.17
105
0.12
56
0.21
210
0.15
113
0.18
125
0.18
179
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.85
369
0.29
218
0.91
342
0.53
244
0.43
331
0.49
94
0.68
400
0.99
167
0.87
194
0.79
172
1.34
362
1.46
418
0.91
350
5.11
502
1.11
425
0.17
105
0.14
169
0.22
239
0.18
194
0.20
200
0.20
252
iRaft-Stereo_20wtwo views0.65
254
0.31
272
1.00
373
0.47
120
0.34
240
0.73
263
0.30
75
2.96
546
0.70
144
1.15
296
1.14
278
0.76
199
0.65
242
1.11
219
0.38
147
0.17
105
0.13
117
0.18
117
0.16
155
0.19
166
0.18
179
GLC_STEREOtwo views0.39
66
0.25
108
0.41
25
0.54
259
0.23
25
0.48
82
0.30
75
0.73
66
0.58
100
0.52
117
0.73
137
0.51
111
0.31
40
0.64
72
0.42
184
0.17
105
0.20
354
0.23
277
0.19
216
0.21
242
0.17
154
MIPNettwo views0.56
195
0.28
183
0.94
352
0.49
163
0.33
222
0.66
228
0.38
159
1.35
290
1.08
285
1.06
246
0.92
181
0.60
151
0.79
292
0.73
101
0.52
262
0.17
105
0.14
169
0.19
140
0.16
155
0.18
125
0.17
154
IPLGRtwo views0.58
208
0.27
161
1.14
422
0.48
147
0.28
117
0.65
219
0.33
97
1.22
265
1.13
318
1.18
320
1.05
236
0.69
183
0.66
245
0.96
173
0.52
262
0.17
105
0.15
227
0.20
175
0.17
176
0.20
200
0.18
179
DEmStereotwo views0.97
404
0.23
62
0.79
289
0.47
120
0.32
201
1.04
385
0.56
346
0.93
141
0.89
201
1.39
425
2.14
502
1.02
309
2.07
529
5.64
519
0.77
352
0.17
105
0.15
227
0.20
175
0.20
248
0.18
125
0.20
252
DRafttwo views0.80
343
0.24
80
0.70
211
0.45
101
0.30
156
0.97
369
0.53
314
1.05
197
0.97
234
1.78
491
2.02
495
0.80
212
1.74
507
2.73
448
0.72
334
0.17
105
0.14
169
0.20
175
0.20
248
0.18
125
0.21
269
test-1two views0.52
146
0.26
131
1.04
392
0.56
296
0.32
201
0.61
187
0.38
159
1.10
223
0.91
210
0.78
169
1.01
213
0.77
202
0.52
169
0.60
62
0.42
184
0.17
105
0.14
169
0.20
175
0.17
176
0.20
200
0.23
307
iRaftStereo_RVCtwo views0.47
127
0.26
131
0.64
169
0.50
175
0.29
134
0.53
138
0.33
97
1.05
197
0.77
167
0.84
187
1.00
207
0.55
128
0.37
80
0.81
129
0.40
162
0.17
105
0.12
56
0.22
239
0.20
248
0.19
166
0.15
98
HITNettwo views0.65
254
0.40
390
0.77
278
0.48
147
0.24
42
1.05
386
0.49
286
1.76
402
1.02
257
1.18
320
1.18
296
0.89
257
0.80
298
0.85
142
0.79
360
0.17
105
0.12
56
0.21
210
0.17
176
0.29
374
0.15
98
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DFGA-Nettwo views0.72
289
0.40
390
1.40
456
0.52
226
0.45
346
0.83
321
0.44
234
1.28
279
1.08
285
0.99
226
1.19
303
0.70
187
0.55
186
2.14
405
1.16
431
0.18
145
0.16
267
0.24
297
0.23
344
0.27
344
0.25
333
LGtest1two views0.27
4
0.21
30
0.44
40
0.41
50
0.21
9
0.42
47
0.19
9
0.56
16
0.26
9
0.29
11
0.24
6
0.29
32
0.29
29
0.55
41
0.25
12
0.18
145
0.12
56
0.16
55
0.12
43
0.14
21
0.13
38
LG-Stereo_Zeroshottwo views0.36
51
0.23
62
0.54
108
0.50
175
0.28
117
0.36
25
0.22
19
1.02
178
0.39
36
0.42
62
0.64
111
0.36
53
0.51
164
0.39
6
0.29
40
0.18
145
0.12
56
0.17
82
0.13
67
0.18
125
0.18
179
MM-Stereo_test1two views0.49
139
0.24
80
0.56
122
0.51
205
0.30
156
0.50
108
0.54
320
0.91
131
1.03
261
0.84
187
0.69
124
0.54
125
0.60
213
1.16
231
0.33
87
0.18
145
0.16
267
0.20
175
0.17
176
0.19
166
0.15
98
GCAP-BATtwo views0.49
139
0.31
272
0.64
169
0.41
50
0.46
358
0.70
251
0.35
117
0.77
77
0.64
117
0.86
194
1.00
207
0.77
202
0.37
80
1.18
237
0.36
124
0.18
145
0.14
169
0.18
117
0.13
67
0.17
94
0.15
98
AIO-Stereo-zeroshot1permissivetwo views0.98
408
0.39
384
3.21
536
0.50
175
0.63
447
0.64
203
0.39
174
2.36
528
0.75
157
0.95
214
4.63
548
1.81
474
0.56
191
0.96
173
0.41
173
0.18
145
0.13
117
0.21
210
0.26
389
0.32
403
0.35
431
gcap-zeroshottwo views0.53
156
0.28
183
0.89
335
0.49
163
0.28
117
0.76
278
0.37
152
1.34
287
0.73
154
0.89
197
0.67
117
1.35
397
0.51
164
0.79
120
0.33
87
0.18
145
0.15
227
0.18
117
0.15
113
0.17
94
0.16
128
trnettwo views0.39
66
0.21
30
0.37
5
0.36
6
0.20
3
0.53
138
0.29
65
0.78
81
1.12
306
0.59
134
0.71
131
0.53
123
0.42
100
0.54
35
0.34
104
0.18
145
0.13
117
0.15
25
0.10
2
0.14
21
0.13
38
testlalala2two views0.58
208
0.27
161
0.68
192
1.72
547
1.27
543
0.68
239
0.42
202
0.93
141
0.70
144
0.90
199
0.93
184
0.76
199
0.34
58
0.52
28
0.40
162
0.18
145
0.15
227
0.17
82
0.13
67
0.17
94
0.17
154
MyStereo8two views0.65
254
0.29
218
1.00
373
0.58
318
0.49
368
0.91
343
0.35
117
1.18
246
1.31
419
1.16
306
1.27
331
0.90
258
0.64
236
0.72
97
0.95
397
0.18
145
0.14
169
0.20
175
0.18
194
0.22
266
0.26
357
IGEV_Zeroshot_testtwo views0.53
156
0.30
239
0.99
368
0.56
296
0.35
244
0.41
40
0.32
90
1.37
293
0.63
113
1.00
231
1.09
252
0.95
283
0.41
96
0.83
134
0.39
155
0.18
145
0.12
56
0.19
140
0.18
194
0.19
166
0.17
154
CASnettwo views0.41
83
0.25
108
0.48
68
0.50
175
0.20
3
0.50
108
0.36
133
0.81
99
0.80
175
0.83
184
0.68
120
0.48
93
0.31
40
0.54
35
0.32
73
0.18
145
0.12
56
0.27
372
0.22
321
0.23
291
0.14
65
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Any-RAFTtwo views0.53
156
0.24
80
0.47
65
0.47
120
0.27
92
1.00
377
0.25
37
1.58
353
1.05
270
0.85
192
0.99
203
1.06
318
0.47
135
0.70
90
0.32
73
0.18
145
0.13
117
0.16
55
0.13
67
0.16
63
0.16
128
HHtwo views0.63
234
0.30
239
0.77
278
0.50
175
0.32
201
0.49
94
0.46
258
1.65
370
0.64
117
0.69
149
1.09
252
1.63
450
0.85
322
1.90
381
0.37
136
0.18
145
0.13
117
0.19
140
0.17
176
0.19
166
0.16
128
HanStereotwo views0.63
234
0.30
239
0.77
278
0.50
175
0.32
201
0.49
94
0.46
258
1.65
370
0.64
117
0.69
149
1.09
252
1.63
450
0.85
322
1.90
381
0.37
136
0.18
145
0.13
117
0.19
140
0.17
176
0.19
166
0.16
128
anonymousdsp2two views0.53
156
0.27
161
0.74
257
0.48
147
0.29
134
0.76
278
0.47
265
1.61
361
0.82
183
0.77
166
0.77
147
0.75
195
0.47
135
1.03
195
0.40
162
0.18
145
0.13
117
0.18
117
0.13
67
0.19
166
0.18
179
LoStwo views0.40
75
0.21
30
0.44
40
0.37
13
0.22
19
0.50
108
0.40
182
1.00
171
0.94
220
0.48
96
0.66
113
0.48
93
0.40
93
0.60
62
0.37
136
0.18
145
0.14
169
0.16
55
0.11
9
0.14
21
0.14
65
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
raft_robusttwo views0.68
274
0.30
239
0.64
169
0.52
226
0.26
68
0.54
146
0.35
117
1.33
282
1.24
386
1.16
306
1.07
242
0.60
151
0.54
179
3.58
476
0.37
136
0.18
145
0.14
169
0.20
175
0.22
321
0.20
200
0.16
128
RAFT+CT+SAtwo views0.58
208
0.29
218
0.60
150
0.66
408
0.37
269
0.42
47
0.55
338
1.27
275
1.03
261
0.70
151
1.22
311
0.60
151
0.70
255
1.64
342
0.41
173
0.18
145
0.13
117
0.22
239
0.22
321
0.21
242
0.18
179
test_5two views0.65
254
0.30
239
0.75
261
0.67
420
0.50
375
0.92
350
0.52
306
1.39
299
1.12
306
0.76
161
1.11
262
1.00
300
0.90
347
1.53
323
0.45
210
0.18
145
0.13
117
0.23
277
0.22
321
0.21
242
0.19
219
LCNettwo views0.72
289
0.28
183
0.52
96
0.55
283
0.31
182
0.69
244
0.54
320
1.00
171
0.88
198
1.19
324
1.34
362
0.97
291
1.34
470
2.56
440
0.45
210
0.18
145
0.13
117
0.21
210
0.25
372
0.27
344
0.73
525
STrans-v2two views1.04
430
0.28
183
0.96
362
0.49
163
0.32
201
0.68
239
0.79
429
2.47
537
1.12
306
1.12
272
1.46
402
1.40
404
1.46
482
6.70
540
0.43
194
0.18
145
0.13
117
0.20
175
0.18
194
0.18
125
0.18
179
RAFT-RH_RVCtwo views1.03
427
0.24
80
0.67
188
0.49
163
0.28
117
0.81
314
0.33
97
0.83
108
1.08
285
2.05
514
4.65
550
1.04
316
0.57
200
5.98
528
0.50
250
0.18
145
0.13
117
0.26
355
0.20
248
0.16
63
0.17
154
RAFT-345two views0.84
365
0.25
108
0.66
183
0.50
175
0.27
92
0.54
146
0.42
202
0.83
108
1.11
302
1.32
394
2.34
510
0.86
241
0.54
179
5.72
520
0.47
231
0.18
145
0.13
117
0.22
239
0.17
176
0.17
94
0.16
128
CroCo-Stereocopylefttwo views0.40
75
0.31
272
0.73
241
0.58
318
0.27
92
0.26
5
0.33
97
0.95
153
0.81
178
0.42
62
0.47
59
0.65
169
0.47
135
0.39
6
0.34
104
0.18
145
0.15
227
0.16
55
0.14
95
0.19
166
0.16
128
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
GMM-Stereotwo views0.74
312
0.25
108
0.59
145
0.54
259
0.34
240
0.72
259
0.99
480
1.01
177
0.87
194
1.36
411
1.78
469
1.12
341
0.81
302
2.09
401
0.46
224
0.18
145
0.12
56
0.25
336
0.25
372
0.20
200
0.85
532
Prome-Stereotwo views0.75
320
0.27
161
0.53
102
0.55
283
0.32
201
0.59
173
0.97
475
0.89
124
0.88
198
1.45
438
2.46
517
0.91
261
1.41
475
1.58
332
0.44
197
0.18
145
0.13
117
0.19
140
0.17
176
0.20
200
0.92
534
raft+_RVCtwo views0.53
156
0.26
131
0.54
108
0.60
343
0.47
363
0.54
146
0.54
320
1.27
275
0.99
246
0.76
161
1.03
231
0.70
187
0.56
191
0.93
167
0.47
231
0.18
145
0.14
169
0.19
140
0.18
194
0.18
125
0.15
98
TANstereotwo views0.44
104
0.21
30
0.44
40
0.41
50
0.21
9
0.65
219
0.26
47
0.79
86
0.83
184
0.93
207
0.98
201
0.51
111
0.46
126
0.54
35
0.35
114
0.18
145
0.24
415
0.16
55
0.13
67
0.16
63
0.26
357
111two views0.60
217
0.23
62
0.70
211
0.43
64
0.24
42
0.72
259
0.42
202
1.18
246
1.41
467
0.80
174
1.38
376
1.10
336
0.79
292
0.96
173
0.58
287
0.18
145
0.13
117
0.17
82
0.15
113
0.17
94
0.19
219
test_xeample3two views0.42
87
0.28
183
0.69
205
0.43
64
0.33
222
0.56
160
0.38
159
0.79
86
0.45
55
0.53
118
0.46
57
0.44
69
0.44
115
1.38
288
0.31
68
0.18
145
0.14
169
0.19
140
0.15
113
0.17
94
0.16
128
ARAFTtwo views0.77
328
0.36
365
1.49
477
0.51
205
0.31
182
0.90
339
0.82
440
1.90
446
1.06
274
1.62
476
1.24
317
1.02
309
0.64
236
1.84
374
0.50
250
0.18
145
0.14
169
0.28
387
0.27
400
0.17
94
0.16
128
EAI-Stereotwo views0.65
254
0.28
183
0.69
205
0.53
244
0.27
92
0.60
181
0.40
182
2.28
522
0.64
117
0.71
153
3.18
532
0.57
138
0.43
107
1.06
204
0.41
173
0.18
145
0.13
117
0.17
82
0.17
176
0.17
94
0.17
154
CREStereotwo views0.39
66
0.21
30
0.38
8
0.34
1
0.22
19
0.53
138
0.29
65
0.77
77
1.11
302
0.58
126
0.71
131
0.51
111
0.41
96
0.54
35
0.34
104
0.18
145
0.13
117
0.15
25
0.10
2
0.14
21
0.14
65
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
DIP-Stereotwo views0.62
227
0.30
239
0.83
303
0.48
147
0.36
254
0.95
359
0.33
97
2.37
530
0.67
135
1.25
357
1.00
207
0.68
178
0.51
164
0.91
159
0.61
300
0.18
145
0.15
227
0.21
210
0.17
176
0.19
166
0.19
219
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
R-Stereo Traintwo views0.57
202
0.26
131
0.63
162
0.54
259
0.36
254
0.69
244
0.54
320
1.22
265
0.72
150
1.61
472
1.50
413
0.75
195
0.53
174
0.64
72
0.44
197
0.18
145
0.15
227
0.17
82
0.15
113
0.17
94
0.17
154
RAFT-Stereopermissivetwo views0.57
202
0.26
131
0.63
162
0.54
259
0.36
254
0.69
244
0.54
320
1.22
265
0.72
150
1.61
472
1.50
413
0.75
195
0.53
174
0.64
72
0.44
197
0.18
145
0.15
227
0.17
82
0.15
113
0.17
94
0.17
154
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MLCVtwo views0.72
289
0.34
334
1.10
412
0.51
205
0.23
25
0.91
343
0.39
174
1.33
282
1.23
380
1.46
440
1.55
424
1.01
307
0.64
236
1.95
388
0.80
364
0.18
145
0.12
56
0.18
117
0.14
95
0.19
166
0.17
154
iResNettwo views0.75
320
0.40
390
1.36
454
0.67
420
0.29
134
0.92
350
0.59
369
1.52
335
1.25
389
1.28
366
1.48
408
0.94
275
0.76
277
1.62
338
0.78
354
0.18
145
0.14
169
0.18
117
0.15
113
0.22
266
0.23
307
DN-CSS_ROBtwo views0.64
246
0.32
288
1.05
393
0.55
283
0.40
307
0.54
146
0.45
251
1.21
257
0.93
217
1.03
242
1.47
403
0.69
183
0.63
232
1.76
367
0.49
244
0.18
145
0.14
169
0.25
336
0.22
321
0.22
266
0.20
252
pmcnntwo views2.37
536
0.42
402
2.71
532
0.63
378
0.43
331
1.54
465
1.19
505
2.01
475
1.53
485
2.64
536
7.60
565
18.07
582
1.45
481
3.44
473
2.78
519
0.18
145
0.15
227
0.15
25
0.12
43
0.20
200
0.18
179
GASTEREOtwo views0.40
75
0.25
108
0.51
88
0.48
147
0.25
59
0.65
219
0.36
133
0.81
99
0.49
68
0.51
115
0.82
162
0.30
37
0.66
245
0.62
68
0.28
37
0.19
186
0.12
56
0.16
55
0.14
95
0.16
63
0.14
65
MSCFtwo views0.38
62
0.25
108
0.52
96
0.47
120
0.25
59
0.62
196
0.37
152
0.81
99
0.47
64
0.50
110
0.71
131
0.32
43
0.65
242
0.54
35
0.28
37
0.19
186
0.12
56
0.17
82
0.14
95
0.17
94
0.14
65
z-ln-s-rtwo views1.02
424
0.55
453
2.09
510
0.52
226
0.55
411
0.78
291
0.87
451
1.47
318
1.34
430
1.12
272
1.62
444
1.37
402
1.06
417
2.62
444
3.32
531
0.19
186
0.14
169
0.21
210
0.17
176
0.27
344
0.21
269
G2L-Stereo_testtwo views0.73
307
0.27
161
0.74
257
0.49
163
0.40
307
0.90
339
0.81
438
1.53
341
1.14
321
1.28
366
1.27
331
1.52
431
0.72
263
1.62
338
0.94
393
0.19
186
0.14
169
0.16
55
0.15
113
0.18
125
0.19
219
PAM_32two views0.77
328
0.28
183
1.03
388
0.52
226
0.30
156
1.32
435
0.35
117
1.97
466
0.65
132
1.02
238
1.06
238
3.05
534
1.49
487
0.96
173
0.36
124
0.19
186
0.13
117
0.20
175
0.18
194
0.19
166
0.19
219
PAMtwo views0.76
326
0.29
218
1.08
406
0.52
226
0.33
222
1.38
445
0.39
174
2.01
475
0.67
135
1.06
246
0.96
191
2.89
533
1.43
477
0.86
146
0.35
114
0.19
186
0.12
56
0.19
140
0.17
176
0.19
166
0.20
252
Utwo views9.45
575
0.21
30
0.58
138
0.47
120
53.11
594
61.27
599
0.24
33
0.70
59
0.52
88
0.36
34
0.28
13
0.29
32
0.35
66
0.33
2
0.26
21
0.19
186
0.11
28
60.50
596
8.88
583
0.17
94
0.13
38
H2IRNETtwo views0.56
195
0.26
131
0.66
183
0.47
120
0.35
244
0.41
40
0.26
47
0.92
134
1.17
345
0.61
137
1.28
337
1.08
324
0.86
330
0.99
186
0.63
307
0.19
186
0.16
267
0.22
239
0.25
372
0.21
242
0.18
179
MGS-Stereotwo views0.42
87
0.26
131
0.58
138
0.44
87
0.28
117
0.50
108
0.34
109
0.57
20
0.83
184
0.46
85
1.31
347
0.52
118
0.33
51
0.65
79
0.36
124
0.19
186
0.16
267
0.18
117
0.15
113
0.17
94
0.16
128
IGEV++two views0.40
75
0.22
49
0.51
88
0.52
226
0.29
134
0.45
66
0.25
37
1.65
370
0.46
61
0.37
38
0.57
95
0.46
81
0.45
119
0.50
23
0.38
147
0.19
186
0.12
56
0.16
55
0.13
67
0.16
63
0.15
98
IGEVStereo-DCAtwo views0.46
119
0.28
183
0.56
122
0.43
64
0.33
222
0.49
94
0.42
202
0.87
115
0.50
72
0.47
88
0.48
62
0.48
93
0.46
126
2.03
395
0.30
51
0.19
186
0.14
169
0.19
140
0.15
113
0.16
63
0.18
179
rrrtwo views0.46
119
0.28
183
0.73
241
0.43
64
0.33
222
0.49
94
0.38
159
0.76
74
0.50
72
0.47
88
0.48
62
0.48
93
0.46
126
2.03
395
0.30
51
0.19
186
0.14
169
0.19
140
0.15
113
0.16
63
0.16
128
MaDis-Stereotwo views0.36
51
0.25
108
0.58
138
0.44
87
0.34
240
0.30
14
0.30
75
0.72
64
0.50
72
0.37
38
0.36
24
0.58
143
0.49
154
0.52
28
0.36
124
0.19
186
0.16
267
0.19
140
0.15
113
0.18
125
0.14
65
CBFPSMtwo views0.92
389
0.33
310
1.86
502
0.49
163
0.38
286
1.75
482
0.84
442
1.39
299
1.12
306
1.09
256
0.99
203
2.37
515
1.66
504
1.32
270
1.42
471
0.19
186
0.18
318
0.20
175
0.20
248
0.21
242
0.33
421
ToySttwo views0.66
261
0.33
310
1.23
432
0.51
205
0.33
222
0.86
333
0.68
400
1.10
223
0.97
234
0.84
187
1.08
247
1.25
371
0.94
367
1.01
191
0.74
338
0.19
186
0.19
336
0.24
297
0.24
357
0.27
344
0.23
307
anonymousatwo views0.72
289
0.27
161
0.75
261
0.47
120
0.63
447
1.43
455
0.45
251
1.24
271
0.89
201
1.28
366
1.75
466
1.62
445
1.13
434
0.69
86
0.59
290
0.19
186
0.16
267
0.23
277
0.25
372
0.20
200
0.18
179
Selective-RAFTtwo views0.52
146
0.28
183
0.79
289
0.55
283
0.27
92
0.91
343
0.33
97
0.80
94
0.88
198
0.58
126
0.63
108
0.81
216
0.77
281
1.29
264
0.48
236
0.19
186
0.14
169
0.17
82
0.15
113
0.19
166
0.17
154
Sa-1000two views0.72
289
0.29
218
0.76
271
0.59
331
0.30
156
0.73
263
0.37
152
1.62
365
1.33
427
1.28
366
2.04
496
0.86
241
0.75
269
1.84
374
0.38
147
0.19
186
0.14
169
0.25
336
0.23
344
0.20
200
0.16
128
SAtwo views0.66
261
0.30
239
0.82
298
0.61
357
0.30
156
0.58
168
0.38
159
1.44
312
1.30
415
0.96
216
1.36
369
0.66
173
0.95
372
1.85
377
0.42
184
0.19
186
0.15
227
0.25
336
0.23
344
0.21
242
0.17
154
CrosDoStereotwo views1.58
494
0.24
80
0.72
229
0.48
147
0.29
134
0.67
232
12.49
579
1.10
223
0.98
239
1.34
406
1.75
466
1.00
300
1.89
518
6.65
536
0.81
366
0.19
186
0.15
227
0.20
175
0.22
321
0.18
125
0.19
219
TransformOpticalFlowtwo views0.96
398
0.28
183
0.89
335
0.52
226
0.31
182
0.66
228
0.54
320
1.75
396
1.12
306
1.09
256
1.44
394
1.37
402
1.01
401
6.70
540
0.42
184
0.19
186
0.12
56
0.20
175
0.19
216
0.18
125
0.19
219
OMP-Stereotwo views0.94
394
0.33
310
0.72
229
0.90
516
0.31
182
0.49
94
0.36
133
1.16
239
1.06
274
1.58
470
1.12
269
1.46
418
0.69
250
6.94
543
0.49
244
0.19
186
0.14
169
0.24
297
0.18
194
0.20
200
0.14
65
IIG-Stereotwo views0.96
398
0.31
272
0.72
229
0.88
512
0.33
222
0.61
187
0.26
47
1.19
254
1.03
261
1.69
484
1.37
371
1.46
418
0.75
269
6.96
544
0.51
255
0.19
186
0.14
169
0.23
277
0.18
194
0.20
200
0.14
65
PSM-AADtwo views0.79
340
0.27
161
0.53
102
0.55
283
0.28
117
0.77
286
1.24
508
0.99
167
0.91
210
1.66
481
1.57
432
0.81
216
2.19
534
1.65
343
0.44
197
0.19
186
0.14
169
0.38
473
0.32
457
0.21
242
0.70
522
FTStereotwo views0.91
387
0.26
131
0.56
122
0.54
259
0.33
222
0.66
228
1.87
542
1.00
171
0.75
157
1.75
488
4.15
543
1.04
316
1.65
500
1.57
330
0.46
224
0.19
186
0.16
267
0.23
277
0.21
292
0.18
125
0.63
513
ASMatchtwo views0.88
379
0.26
131
0.69
205
0.51
205
0.35
244
0.48
82
0.37
152
1.12
231
0.92
215
1.10
264
3.28
533
0.96
289
0.98
389
4.90
499
0.49
244
0.19
186
0.16
267
0.22
239
0.19
216
0.19
166
0.27
367
DeepStereo_LLtwo views1.58
494
0.24
80
0.72
229
0.48
147
0.29
134
0.67
232
12.49
579
1.10
223
0.98
239
1.34
406
1.75
466
1.00
300
1.89
518
6.65
536
0.81
366
0.19
186
0.15
227
0.20
175
0.22
321
0.18
125
0.19
219
THIR-Stereotwo views1.02
424
0.27
161
0.69
205
0.49
163
0.28
117
0.95
359
1.34
516
1.03
183
0.97
234
1.34
406
1.90
484
1.17
351
1.58
493
6.44
533
0.78
354
0.19
186
0.14
169
0.21
210
0.22
321
0.19
166
0.20
252
GrayStereotwo views0.82
354
0.26
131
0.58
138
0.63
378
0.37
269
0.76
278
1.86
541
1.11
229
0.87
194
1.99
510
1.89
483
1.08
324
1.82
515
1.39
293
0.48
236
0.19
186
0.14
169
0.19
140
0.21
292
0.18
125
0.39
451
rafts_anoytwo views0.52
146
0.29
218
0.59
145
0.59
331
0.50
375
0.53
138
0.40
182
1.11
229
1.03
261
0.84
187
0.83
163
0.68
178
0.54
179
0.72
97
0.51
255
0.19
186
0.14
169
0.24
297
0.26
389
0.21
242
0.18
179
XX-TBDtwo views0.46
119
0.70
494
0.35
1
0.79
479
0.25
59
0.58
168
0.26
47
0.69
55
1.27
400
0.76
161
1.00
207
0.45
77
0.33
51
0.47
19
0.37
136
0.19
186
0.15
227
0.15
25
0.11
9
0.17
94
0.14
65
raftrobusttwo views0.52
146
0.25
108
0.56
122
0.65
401
0.52
398
0.49
94
0.34
109
0.98
165
0.91
210
1.30
380
0.87
171
0.63
163
0.81
302
0.78
116
0.41
173
0.19
186
0.15
227
0.16
55
0.14
95
0.15
43
0.16
128
RALAANettwo views0.60
217
0.33
310
0.87
322
0.62
369
0.50
375
0.69
244
0.31
82
1.21
257
1.06
274
1.09
256
1.16
291
0.88
249
0.46
126
1.22
244
0.42
184
0.19
186
0.15
227
0.21
210
0.17
176
0.27
344
0.17
154
MMNettwo views0.84
365
0.32
288
1.09
409
0.60
343
0.59
434
1.85
496
0.49
286
1.51
333
1.27
400
1.37
414
1.15
286
1.26
375
1.18
442
1.67
348
1.22
438
0.19
186
0.18
318
0.23
277
0.22
321
0.25
318
0.21
269
RASNettwo views1.12
446
0.30
239
0.91
342
0.66
408
0.77
489
0.97
369
0.57
357
1.37
293
1.35
440
1.02
238
1.34
362
2.11
505
1.43
477
7.09
545
1.39
462
0.19
186
0.17
296
0.17
82
0.19
216
0.18
125
0.16
128
S2M2_XLtwo views0.24
1
0.24
80
0.39
14
0.34
1
0.24
42
0.16
2
0.18
3
0.32
1
0.22
4
0.29
11
0.40
30
0.24
7
0.23
10
0.32
1
0.26
21
0.20
221
0.18
318
0.18
117
0.16
155
0.18
125
0.14
65
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
G2L-ROBtwo views0.73
307
0.25
108
0.76
271
0.54
259
0.39
296
0.95
359
0.66
392
1.66
375
1.09
293
1.24
351
1.02
221
1.64
453
0.71
260
1.63
340
1.02
409
0.20
221
0.14
169
0.17
82
0.15
113
0.20
200
0.22
287
SGD-Stereotwo views0.32
31
0.20
10
0.40
20
0.38
26
0.19
1
0.43
56
0.22
19
0.64
39
0.33
24
0.42
62
0.34
21
0.27
21
0.35
66
1.15
227
0.30
51
0.20
221
0.10
9
0.15
25
0.13
67
0.17
94
0.13
38
MM-Stereo_test3two views0.50
143
0.24
80
0.54
108
0.54
259
0.74
478
0.49
94
0.53
314
1.09
220
1.05
270
0.62
140
0.95
188
0.61
155
0.42
100
0.77
111
0.38
147
0.20
221
0.17
296
0.20
175
0.16
155
0.18
125
0.18
179
GIP-stereotwo views0.34
42
0.23
62
0.45
53
0.50
175
0.36
254
0.38
30
0.23
27
0.78
81
0.52
88
0.34
28
0.51
76
0.46
81
0.38
87
0.51
25
0.27
27
0.20
221
0.12
56
0.16
55
0.12
43
0.16
63
0.14
65
model_zeroshottwo views0.48
133
0.29
218
0.86
311
0.51
205
0.36
254
0.69
244
0.37
152
1.12
231
0.62
110
0.85
192
0.84
165
0.66
173
0.37
80
0.73
101
0.34
104
0.20
221
0.16
267
0.19
140
0.16
155
0.17
94
0.16
128
AIO-Stereo-zeroshotpermissivetwo views0.72
289
0.35
355
1.70
488
0.49
163
0.56
414
0.63
200
0.38
159
2.41
533
0.65
132
0.77
166
1.07
242
1.82
477
0.95
372
0.93
167
0.43
194
0.20
221
0.13
117
0.21
210
0.25
372
0.28
363
0.26
357
Former-RAFT_DAM_RVCtwo views0.46
119
0.36
365
0.71
223
0.47
120
0.36
254
0.67
232
0.35
117
0.78
81
1.12
306
0.61
137
0.62
106
0.39
62
0.39
89
0.71
94
0.39
155
0.20
221
0.17
296
0.22
239
0.18
194
0.23
291
0.19
219
CoDeXtwo views0.73
307
0.29
218
0.93
348
0.54
259
0.36
254
1.14
401
0.61
375
2.34
527
1.17
345
1.16
306
1.25
321
0.91
261
0.87
335
1.33
273
0.64
311
0.20
221
0.16
267
0.21
210
0.18
194
0.20
200
0.18
179
ACVNet-DCAtwo views0.56
195
0.31
272
0.50
81
0.54
259
0.26
68
1.18
412
0.51
295
1.42
305
0.78
170
0.58
126
0.79
155
0.48
93
0.88
340
1.46
308
0.32
73
0.20
221
0.12
56
0.25
336
0.15
113
0.22
266
0.21
269
xx1two views0.67
270
0.31
272
0.50
81
0.54
259
0.26
68
1.18
412
0.51
295
0.93
141
3.05
548
0.58
126
0.79
155
0.95
283
0.77
281
1.46
308
0.32
73
0.20
221
0.12
56
0.24
297
0.23
344
0.22
266
0.21
269
1test111two views0.54
171
0.31
272
0.50
81
0.54
259
0.26
68
1.18
412
0.51
295
1.42
305
0.78
170
0.58
126
0.79
155
0.48
93
0.88
340
0.88
151
0.59
290
0.20
221
0.12
56
0.25
336
0.15
113
0.22
266
0.21
269
cc1two views0.64
246
0.31
272
0.50
81
0.54
259
0.26
68
1.18
412
0.51
295
0.93
141
3.05
548
0.58
126
0.79
155
0.48
93
0.88
340
1.46
308
0.32
73
0.20
221
0.12
56
0.25
336
0.15
113
0.19
166
0.19
219
ffmtwo views0.72
289
0.33
310
0.85
305
0.53
244
0.37
269
0.74
267
0.56
346
0.95
153
2.47
535
1.15
296
1.45
396
1.06
318
0.82
307
1.55
327
0.32
73
0.20
221
0.12
56
0.31
417
0.27
400
0.19
166
0.20
252
ff1two views1.37
477
0.33
310
0.85
305
0.53
244
0.37
269
0.74
267
0.56
346
0.95
153
2.47
535
1.15
296
1.45
396
1.06
318
0.82
307
7.22
546
7.61
555
0.20
221
0.12
56
0.31
417
0.27
400
0.19
166
0.20
252
tt1two views0.62
227
0.32
288
0.51
88
0.54
259
0.26
68
1.16
409
0.48
276
0.95
153
2.47
535
0.57
124
0.77
147
0.49
101
0.81
302
1.55
327
0.32
73
0.20
221
0.12
56
0.24
297
0.15
113
0.19
166
0.20
252
MIF-Stereo (partial)two views0.45
112
0.25
108
0.70
211
0.50
175
0.52
398
0.35
21
0.26
47
0.91
131
0.59
106
0.45
80
0.71
131
0.51
111
0.51
164
1.11
219
0.45
210
0.20
221
0.16
267
0.23
277
0.20
248
0.24
306
0.18
179
UniTT-Stereotwo views0.36
51
0.23
62
0.59
145
0.48
147
0.36
254
0.40
36
0.32
90
0.53
10
0.49
68
0.54
121
0.55
89
0.36
53
0.31
40
0.58
49
0.51
255
0.20
221
0.15
227
0.17
82
0.15
113
0.19
166
0.15
98
PCWNet_CMDtwo views0.66
261
0.32
288
0.88
329
0.49
163
0.37
269
0.78
291
0.40
182
1.42
305
1.31
419
1.16
306
1.31
347
1.25
371
0.62
227
0.89
156
0.57
284
0.20
221
0.16
267
0.27
372
0.19
216
0.40
447
0.25
333
testlalalatwo views0.45
112
0.28
183
0.59
145
0.42
57
0.39
296
0.71
256
0.39
174
1.08
218
0.45
55
1.24
351
0.80
160
0.61
155
0.36
75
0.54
35
0.33
87
0.20
221
0.13
117
0.18
117
0.12
43
0.15
43
0.15
98
knoymoustwo views0.51
145
0.29
218
0.47
65
0.43
64
0.30
156
0.55
154
0.55
338
1.02
178
0.77
167
0.98
223
0.85
167
0.94
275
0.56
191
0.85
142
0.45
210
0.20
221
0.14
169
0.26
355
0.14
95
0.23
291
0.23
307
riskmintwo views0.56
195
0.27
161
0.60
150
0.43
64
0.31
182
0.83
321
0.42
202
1.14
235
1.04
266
0.73
159
0.75
143
1.11
340
1.01
401
0.81
129
0.51
255
0.20
221
0.14
169
0.24
297
0.15
113
0.24
306
0.25
333
TestStereo1two views0.63
234
0.28
183
0.75
261
0.76
472
0.31
182
0.48
82
0.43
221
1.30
280
1.21
371
0.97
219
1.31
347
0.64
166
0.77
281
1.75
362
0.42
184
0.20
221
0.15
227
0.22
239
0.18
194
0.21
242
0.17
154
IERtwo views0.70
280
0.31
272
1.02
384
0.48
147
0.52
398
1.34
439
0.51
295
1.17
241
0.99
246
1.23
343
1.34
362
1.12
341
1.11
427
0.99
186
0.71
331
0.20
221
0.16
267
0.21
210
0.21
292
0.20
200
0.19
219
SA-5Ktwo views0.63
234
0.28
183
0.75
261
0.76
472
0.31
182
0.48
82
0.43
221
1.30
280
1.21
371
0.97
219
1.31
347
0.64
166
0.77
281
1.75
362
0.42
184
0.20
221
0.15
227
0.22
239
0.18
194
0.21
242
0.17
154
HHNettwo views0.62
227
0.26
131
0.63
162
0.43
64
0.45
346
0.50
108
0.58
361
1.07
212
1.01
254
1.25
357
2.23
505
0.70
187
0.61
222
1.07
208
0.47
231
0.20
221
0.13
117
0.23
277
0.19
216
0.19
166
0.30
399
NRIStereotwo views0.60
217
0.29
218
0.69
205
0.53
244
0.28
117
0.63
200
0.33
97
1.08
218
0.87
194
1.14
290
0.87
171
0.91
261
0.59
210
2.24
416
0.49
244
0.20
221
0.14
169
0.21
210
0.19
216
0.21
242
0.17
154
KYRafttwo views0.75
320
0.28
183
0.62
159
0.56
296
0.29
134
0.67
232
0.86
449
0.94
148
0.84
188
1.62
476
2.21
504
1.16
350
1.02
406
1.57
330
0.40
162
0.20
221
0.13
117
0.22
239
0.28
421
0.20
200
1.02
538
PFNettwo views0.91
387
0.26
131
1.10
412
0.63
378
0.32
201
0.64
203
0.56
346
1.17
241
0.99
246
1.47
441
1.08
247
0.98
293
0.69
250
6.62
535
0.54
275
0.20
221
0.12
56
0.24
297
0.19
216
0.20
200
0.17
154
AnonymousMtwo views0.59
214
1.11
530
0.41
25
0.44
87
0.32
201
0.43
56
0.47
265
1.05
197
0.64
117
0.98
223
0.63
108
0.67
176
0.43
107
0.59
50
0.41
173
0.20
221
0.15
227
1.84
552
0.84
542
0.14
21
0.13
38
RALCasStereoNettwo views0.54
171
0.30
239
0.66
183
0.59
331
0.51
386
0.61
187
0.52
306
0.94
148
0.93
217
0.70
151
1.01
213
0.78
206
0.44
115
1.33
273
0.47
231
0.20
221
0.16
267
0.18
117
0.16
155
0.20
200
0.19
219
XX-Stereotwo views0.63
234
0.26
131
1.90
503
0.81
485
0.67
459
0.43
56
0.23
27
1.03
183
0.58
100
0.65
144
1.56
428
1.41
406
0.39
89
1.28
260
0.35
114
0.20
221
0.14
169
0.20
175
0.19
216
0.18
125
0.14
65
StereoDRNet-Refinedtwo views0.80
343
0.41
398
0.88
329
0.62
369
0.42
321
1.33
437
0.48
276
1.52
335
1.17
345
1.45
438
1.44
394
1.44
413
0.90
347
1.26
255
1.24
440
0.20
221
0.16
267
0.27
372
0.24
357
0.25
318
0.28
379
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
iResNet_ROBtwo views0.77
328
0.30
239
0.99
368
0.57
312
0.36
254
0.83
321
0.36
133
2.33
525
1.58
490
1.27
364
1.30
341
1.25
371
0.84
319
1.65
343
0.79
360
0.20
221
0.14
169
0.17
82
0.12
43
0.18
125
0.27
367
StereoAnything_RVCtwo views0.45
112
1.43
545
0.48
68
0.35
4
0.20
3
0.26
5
0.21
15
0.43
3
0.22
4
0.22
1
0.21
2
0.19
1
0.36
75
1.27
258
0.22
1
0.21
255
0.11
28
0.14
3
0.10
2
2.37
550
0.11
2
AIO-test2two views0.57
202
0.28
183
0.63
162
0.61
357
0.58
426
0.79
297
0.51
295
1.18
246
1.40
462
0.63
141
1.15
286
0.51
111
0.43
107
1.09
213
0.35
114
0.21
255
0.17
296
0.26
355
0.30
442
0.20
200
0.19
219
UGAMtwo views1.14
451
0.27
161
0.95
356
0.53
244
0.42
321
0.70
251
0.72
412
0.95
153
1.32
423
0.98
223
1.48
408
1.78
473
0.87
335
9.65
572
0.87
382
0.21
255
0.18
318
0.30
411
0.24
357
0.19
166
0.16
128
11t1two views0.52
146
0.28
183
0.68
192
0.51
205
0.28
117
0.83
321
0.39
174
1.22
265
0.63
113
0.84
187
0.74
141
0.68
178
0.68
247
0.91
159
0.57
284
0.21
255
0.18
318
0.19
140
0.16
155
0.20
200
0.21
269
plaintwo views0.46
119
0.27
161
1.01
377
0.50
175
0.40
307
0.35
21
0.37
152
0.87
115
0.56
97
0.43
68
0.76
145
0.42
64
0.40
93
1.13
224
0.45
210
0.21
255
0.15
227
0.24
297
0.19
216
0.24
306
0.16
128
LL-Strereotwo views1.33
473
0.39
384
1.38
455
0.61
357
0.61
440
0.75
272
0.66
392
1.63
367
1.17
345
1.56
464
1.60
437
2.03
501
2.12
531
9.72
573
0.97
402
0.21
255
0.18
318
0.27
372
0.23
344
0.22
266
0.25
333
gwcnet-sptwo views0.74
312
0.33
310
1.44
463
0.57
312
0.45
346
1.40
449
0.54
320
1.50
326
1.14
321
1.30
380
1.02
221
0.94
275
0.82
307
1.39
293
0.76
346
0.21
255
0.21
376
0.22
239
0.21
292
0.22
266
0.22
287
scenettwo views0.74
312
0.33
310
1.44
463
0.57
312
0.45
346
1.40
449
0.54
320
1.50
326
1.14
321
1.30
380
1.02
221
0.94
275
0.82
307
1.39
293
0.76
346
0.21
255
0.21
376
0.22
239
0.21
292
0.22
266
0.22
287
ssnettwo views0.74
312
0.33
310
1.44
463
0.57
312
0.45
346
1.40
449
0.54
320
1.50
326
1.14
321
1.30
380
1.02
221
0.94
275
0.82
307
1.39
293
0.76
346
0.21
255
0.21
376
0.22
239
0.21
292
0.22
266
0.22
287
qqqtwo views0.57
202
0.34
334
0.71
223
0.47
120
0.27
92
0.64
203
0.62
378
1.42
305
0.78
170
0.80
174
0.92
181
0.95
283
0.77
281
0.88
151
0.59
290
0.21
255
0.20
354
0.24
297
0.23
344
0.22
266
0.21
269
xtwo views0.54
171
0.31
272
0.61
153
0.47
120
0.30
156
0.67
232
0.47
265
1.53
341
0.79
174
0.81
178
0.83
163
0.78
206
0.70
255
0.70
90
0.62
303
0.21
255
0.19
336
0.22
239
0.19
216
0.21
242
0.20
252
DAStwo views0.84
365
0.34
334
1.03
388
0.64
387
0.69
467
0.77
286
0.63
383
1.54
344
1.20
365
1.79
494
1.55
424
0.95
283
1.04
410
2.83
450
0.60
298
0.21
255
0.16
267
0.25
336
0.18
194
0.27
344
0.22
287
SepStereotwo views0.82
354
0.34
334
1.03
388
0.64
387
0.69
467
0.77
286
0.63
383
1.54
344
1.20
365
1.79
494
1.55
424
0.95
283
1.04
410
2.30
422
0.60
298
0.21
255
0.16
267
0.25
336
0.18
194
0.27
344
0.22
287
DeepStereo_RVCtwo views0.55
186
0.29
218
0.72
229
0.51
205
0.30
156
0.59
173
0.33
97
1.03
183
0.70
144
1.16
306
0.93
184
0.83
228
0.94
367
0.96
173
0.54
275
0.21
255
0.14
169
0.21
210
0.19
216
0.24
306
0.24
321
CRE-IMPtwo views0.55
186
0.30
239
0.74
257
0.52
226
0.29
134
0.79
297
0.25
37
1.04
189
0.72
150
1.09
256
0.95
188
0.81
216
0.57
200
1.10
216
0.50
250
0.21
255
0.14
169
0.23
277
0.19
216
0.28
363
0.22
287
RAFTtwo views0.64
246
0.30
239
0.73
241
0.59
331
0.33
222
0.68
239
0.58
361
1.04
189
0.76
163
1.08
250
1.19
303
1.65
456
0.93
362
1.06
204
0.56
281
0.21
255
0.18
318
0.27
372
0.24
357
0.22
266
0.17
154
CFNet_pseudotwo views0.66
261
0.32
288
0.86
311
0.48
147
0.39
296
0.70
251
0.40
182
1.33
282
1.22
377
1.16
306
1.34
362
1.24
367
0.64
236
0.98
182
0.59
290
0.21
255
0.16
267
0.33
441
0.19
216
0.36
426
0.25
333
RAFT + AFFtwo views1.00
415
0.42
402
1.09
409
0.67
420
0.50
375
1.22
421
1.24
508
2.24
518
1.19
360
1.30
380
1.56
428
1.17
351
1.49
487
3.44
473
0.83
373
0.21
255
0.25
424
0.30
411
0.26
389
0.27
344
0.27
367
SFCPSMtwo views0.70
280
0.28
183
1.02
384
0.51
205
0.38
286
1.37
442
0.66
392
2.00
471
1.03
261
1.17
315
1.21
309
0.82
221
0.78
288
1.03
195
0.53
269
0.21
255
0.17
296
0.22
239
0.24
357
0.21
242
0.19
219
delettwo views0.85
369
0.32
288
0.95
356
0.65
401
0.66
455
1.64
474
0.84
442
1.75
396
1.35
440
1.32
394
1.30
341
1.30
386
0.88
340
1.68
353
1.10
422
0.21
255
0.21
376
0.24
297
0.24
357
0.21
242
0.21
269
ACVNettwo views0.63
234
0.31
272
0.54
108
0.54
259
0.36
254
0.80
305
0.46
258
1.37
293
1.07
279
0.93
207
1.30
341
1.08
324
0.85
322
0.80
123
0.94
393
0.21
255
0.19
336
0.21
210
0.18
194
0.22
266
0.18
179
acv_fttwo views0.75
320
0.31
272
0.95
356
0.70
441
0.86
510
1.24
423
0.53
314
1.44
312
1.07
279
1.24
351
1.30
341
1.08
324
0.92
353
0.80
123
1.34
453
0.21
255
0.19
336
0.21
210
0.18
194
0.21
242
0.18
179
BEATNet_4xtwo views0.73
307
0.49
429
1.17
426
0.53
244
0.26
68
1.03
383
0.55
338
1.82
423
1.06
274
1.21
332
1.22
311
0.96
289
0.91
350
1.01
191
1.06
413
0.21
255
0.14
169
0.24
297
0.19
216
0.37
430
0.21
269
MSMDNettwo views0.66
261
0.32
288
0.87
322
0.49
163
0.37
269
0.79
297
0.40
182
1.43
311
1.31
419
1.15
296
1.31
347
1.24
367
0.63
232
0.88
151
0.57
284
0.21
255
0.16
267
0.26
355
0.19
216
0.39
443
0.24
321
ccs_robtwo views0.66
261
0.33
310
0.86
311
0.48
147
0.39
296
0.70
251
0.40
182
1.33
282
1.22
377
1.16
306
1.34
362
1.23
365
0.64
236
0.98
182
0.59
290
0.21
255
0.16
267
0.35
459
0.20
248
0.37
430
0.25
333
LE_ROBtwo views8.05
572
0.37
372
23.53
580
0.74
465
0.33
222
2.77
537
2.87
568
3.71
556
27.24
589
25.39
589
8.87
572
8.46
569
26.71
589
6.65
536
21.99
582
0.21
255
0.19
336
0.20
175
0.21
292
0.25
318
0.22
287
zero-FEtwo views0.36
51
0.22
49
0.47
65
0.45
101
0.43
331
0.30
14
0.24
33
0.61
31
0.33
24
0.33
25
0.41
32
0.37
58
0.50
160
0.64
72
0.32
73
0.22
281
0.11
28
0.18
117
0.12
43
0.83
525
0.16
128
MultiAttentiontwo views4.51
560
0.33
310
0.82
298
0.73
461
0.45
346
30.98
590
4.50
574
2.18
511
1.40
462
1.61
472
2.41
514
2.43
519
0.70
255
38.42
592
1.36
457
0.22
281
0.15
227
0.29
398
0.30
442
0.47
478
0.43
468
test_sample1two views0.61
223
0.29
218
0.75
261
0.50
175
0.31
182
0.76
278
0.48
276
1.59
354
0.84
188
0.90
199
0.94
187
0.88
249
0.95
372
1.16
231
0.67
318
0.22
281
0.18
318
0.20
175
0.19
216
0.21
242
0.21
269
DispNOtwo views0.93
392
0.30
239
1.34
453
0.55
283
0.55
411
0.89
336
0.49
286
1.48
320
1.21
371
1.17
315
1.27
331
1.19
355
0.90
347
5.23
505
0.74
338
0.22
281
0.17
296
0.24
297
0.21
292
0.19
166
0.20
252
mmmtwo views0.63
234
0.35
355
0.72
229
0.51
205
0.30
156
0.86
333
0.54
320
1.59
354
0.86
190
1.07
249
1.38
376
0.79
210
0.75
269
0.91
159
0.58
287
0.22
281
0.18
318
0.29
398
0.25
372
0.25
318
0.23
307
1111xtwo views1.70
506
0.29
218
0.86
311
0.51
205
0.27
92
1.01
378
0.68
400
2.22
516
1.28
405
1.13
287
1.40
382
1.21
358
1.10
426
5.53
515
15.20
576
0.22
281
0.21
376
0.22
239
0.22
321
0.24
306
0.22
287
EKT-Stereotwo views0.53
156
0.30
239
0.73
241
0.58
318
0.60
437
0.51
125
0.48
276
0.94
148
0.90
205
0.71
153
0.88
173
0.77
202
0.43
107
1.07
208
0.40
162
0.22
281
0.16
267
0.21
210
0.18
194
0.20
200
0.22
287
hknettwo views0.77
328
0.32
288
0.95
356
0.54
259
0.38
286
1.27
427
0.65
387
2.16
502
1.07
279
1.20
328
1.11
262
1.59
441
0.81
302
1.37
284
0.66
315
0.22
281
0.17
296
0.25
336
0.22
321
0.22
266
0.22
287
Patchmatch Stereo++two views0.55
186
0.30
239
0.73
241
0.50
175
0.27
92
0.65
219
0.29
65
1.05
197
0.64
117
1.12
272
0.96
191
0.83
228
0.60
213
1.37
284
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
AAGNettwo views1.83
513
0.28
183
0.72
229
0.61
357
0.32
201
0.67
232
0.51
295
0.96
160
0.98
239
1.47
441
1.20
307
1.00
300
1.18
442
2.83
450
22.77
586
0.22
281
0.13
117
0.22
239
0.19
216
0.23
291
0.15
98
PSM-adaLosstwo views0.54
171
0.30
239
0.73
241
0.50
175
0.27
92
0.65
219
0.41
198
1.04
189
0.64
117
1.12
272
0.96
191
0.82
221
0.61
222
1.06
204
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
ROB_FTStereo_v2two views0.54
171
0.30
239
0.73
241
0.50
175
0.27
92
0.64
203
0.42
202
1.05
197
0.64
117
1.12
272
0.96
191
0.83
228
0.60
213
1.12
222
0.46
224
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
ROB_FTStereotwo views0.54
171
0.30
239
0.73
241
0.50
175
0.27
92
0.64
203
0.25
37
1.05
197
0.64
117
1.12
272
0.95
188
0.82
221
0.61
222
1.15
227
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
HUI-Stereotwo views0.52
146
0.30
239
0.73
241
0.50
175
0.27
92
0.65
219
0.30
75
1.04
189
0.64
117
1.12
272
0.96
191
0.83
228
0.60
213
0.79
120
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
SST-Stereotwo views0.83
360
0.28
183
0.72
229
0.59
331
0.31
182
0.72
259
0.26
47
1.09
220
0.86
190
1.47
441
1.10
256
1.00
300
0.87
335
5.73
521
0.45
210
0.22
281
0.13
117
0.23
277
0.19
216
0.23
291
0.18
179
RAFT_R40two views0.83
360
0.28
183
0.73
241
0.59
331
0.31
182
0.69
244
0.44
234
1.10
223
0.95
222
1.47
441
1.10
256
1.00
300
0.85
322
5.53
515
0.46
224
0.22
281
0.13
117
0.23
277
0.20
248
0.23
291
0.18
179
iGMRVCtwo views0.56
195
0.30
239
0.73
241
0.50
175
0.27
92
0.65
219
0.38
159
1.05
197
0.64
117
1.12
272
0.96
191
0.83
228
0.60
213
1.52
319
0.46
224
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
IRAFT_RVCtwo views0.88
379
0.28
183
0.76
271
0.63
378
0.31
182
0.65
219
1.02
485
1.22
265
0.94
220
1.22
337
1.04
234
1.01
307
0.98
389
5.82
523
0.53
269
0.22
281
0.12
56
0.25
336
0.20
248
0.20
200
0.19
219
iRAFTtwo views0.55
186
0.30
239
0.73
241
0.50
175
0.27
92
0.65
219
0.29
65
1.05
197
0.64
117
1.12
272
0.96
191
0.83
228
0.60
213
1.37
284
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
RAFT-IKPtwo views0.54
171
0.30
239
0.73
241
0.50
175
0.27
92
0.59
173
0.36
133
1.04
189
0.64
117
1.12
272
0.96
191
0.83
228
0.61
222
1.22
244
0.45
210
0.22
281
0.14
169
0.24
297
0.20
248
0.26
330
0.18
179
TestStereotwo views0.64
246
0.39
384
0.71
223
0.51
205
0.27
92
0.56
160
0.42
202
1.03
183
0.91
210
0.80
174
1.00
207
0.68
178
0.52
169
3.25
466
0.45
210
0.22
281
0.15
227
0.24
297
0.18
194
0.27
344
0.16
128
sAnonymous2two views0.55
186
0.56
457
1.46
470
0.60
343
0.51
386
0.48
82
0.52
306
0.79
86
0.68
139
0.50
110
0.67
117
0.46
81
0.62
227
0.59
50
0.40
162
0.22
281
0.17
296
0.22
239
0.21
292
0.86
527
0.56
500
CroCo_RVCtwo views0.55
186
0.56
457
1.46
470
0.60
343
0.51
386
0.48
82
0.52
306
0.79
86
0.68
139
0.50
110
0.67
117
0.46
81
0.62
227
0.59
50
0.40
162
0.22
281
0.17
296
0.22
239
0.21
292
0.86
527
0.56
500
test_xeamplepermissivetwo views1.45
485
0.28
183
0.65
176
0.51
205
0.28
117
0.94
355
0.59
369
2.14
497
1.29
409
1.24
351
1.51
415
0.88
249
0.86
330
1.46
308
15.10
575
0.22
281
0.20
354
0.22
239
0.20
248
0.22
266
0.22
287
FENettwo views0.60
217
0.28
183
0.63
162
0.54
259
0.33
222
0.83
321
0.38
159
1.27
275
1.07
279
1.00
231
0.86
168
0.99
299
0.85
322
0.96
173
0.68
322
0.22
281
0.15
227
0.23
277
0.20
248
0.22
266
0.23
307
HSM-Net_RVCpermissivetwo views0.87
378
0.29
218
0.53
102
0.53
244
0.30
156
1.15
407
0.55
338
3.57
554
1.28
405
1.53
454
1.74
463
1.68
459
0.93
362
1.49
314
0.77
352
0.22
281
0.17
296
0.19
140
0.18
194
0.20
200
0.19
219
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HSMtwo views1.19
460
0.32
288
0.65
176
0.57
312
0.38
286
1.23
422
0.59
369
2.25
519
1.19
360
1.30
380
1.25
321
1.94
490
1.03
408
9.32
567
0.71
331
0.22
281
0.16
267
0.20
175
0.16
155
0.21
242
0.21
269
test_sample2two views0.62
227
0.29
218
0.74
257
0.50
175
0.28
117
0.80
305
0.61
375
1.61
361
1.00
251
0.88
196
0.99
203
0.94
275
0.83
315
1.16
231
0.51
255
0.23
308
0.18
318
0.22
239
0.21
292
0.23
291
0.22
287
DisPMtwo views0.66
261
0.28
183
0.72
229
0.61
357
0.35
244
0.62
196
0.45
251
1.02
178
0.99
246
1.56
464
1.10
256
0.80
212
0.59
210
2.37
427
0.41
173
0.23
308
0.14
169
0.23
277
0.21
292
0.20
200
0.25
333
Wz-Net-LNSev-Reftwo views0.99
410
0.40
390
1.82
499
0.66
408
0.62
446
2.05
510
0.78
426
1.91
450
1.29
409
1.54
460
1.42
385
1.51
429
1.23
453
1.99
391
1.33
451
0.23
308
0.14
169
0.20
175
0.15
113
0.27
344
0.26
357
CIPLGtwo views0.62
227
0.33
310
0.96
362
0.58
318
0.50
375
0.75
272
0.48
276
1.05
197
0.96
227
1.40
426
1.57
432
0.64
166
0.48
146
0.89
156
0.70
326
0.23
308
0.15
227
0.19
140
0.16
155
0.19
166
0.21
269
IPLGR_Ctwo views0.62
227
0.33
310
0.99
368
0.58
318
0.49
368
0.76
278
0.48
276
1.10
223
0.96
227
1.40
426
1.56
428
0.62
160
0.48
146
0.80
123
0.71
331
0.23
308
0.15
227
0.19
140
0.16
155
0.19
166
0.21
269
ACREtwo views0.61
223
0.33
310
1.01
377
0.58
318
0.49
368
0.75
272
0.47
265
1.06
210
0.95
222
1.37
414
1.55
424
0.62
160
0.46
126
0.83
134
0.70
326
0.23
308
0.15
227
0.19
140
0.16
155
0.18
125
0.21
269
TRStereotwo views0.60
217
0.60
475
0.97
364
0.74
465
0.67
459
0.46
71
0.38
159
1.85
432
0.89
201
0.79
172
0.80
160
0.88
249
0.39
89
1.10
216
0.41
173
0.23
308
0.15
227
0.23
277
0.24
357
0.17
94
0.15
98
NF-Stereotwo views0.80
343
0.30
239
0.75
261
0.60
343
0.31
182
0.64
203
0.44
234
1.21
257
0.90
205
1.29
372
1.02
221
0.82
221
0.57
200
5.40
513
0.48
236
0.23
308
0.14
169
0.24
297
0.20
248
0.20
200
0.30
399
Pruner-Stereotwo views0.62
227
0.29
218
0.70
211
0.61
357
0.31
182
0.63
200
0.43
221
1.17
241
0.99
246
1.53
454
1.08
247
0.95
283
0.55
186
1.35
278
0.51
255
0.23
308
0.14
169
0.24
297
0.21
292
0.21
242
0.23
307
UNettwo views0.83
360
0.34
334
1.31
445
0.58
318
0.74
478
1.58
468
0.49
286
1.41
303
1.04
266
1.21
332
1.08
247
1.54
433
1.12
430
1.65
343
1.09
419
0.23
308
0.17
296
0.25
336
0.20
248
0.25
318
0.22
287
FADNet-RVC-Resampletwo views0.84
365
0.47
422
2.10
511
0.61
357
0.45
346
1.07
391
0.61
375
1.59
354
1.20
365
1.08
250
0.98
201
1.03
313
0.98
389
2.17
408
0.72
334
0.23
308
0.22
394
0.30
411
0.32
457
0.35
419
0.34
426
ADCReftwo views1.35
475
0.55
453
2.37
523
0.72
453
0.77
489
1.94
503
0.78
426
1.91
450
1.27
400
1.57
468
1.59
436
1.36
399
1.41
475
1.54
325
7.53
554
0.23
308
0.20
354
0.32
432
0.30
442
0.29
374
0.29
385
CFNettwo views0.96
398
0.36
365
1.01
377
0.62
369
0.42
321
0.99
375
0.47
265
1.90
446
1.32
423
0.99
226
1.39
380
1.10
336
0.86
330
5.58
518
0.79
360
0.23
308
0.17
296
0.28
387
0.27
400
0.26
330
0.21
269
iResNetv2_ROBtwo views0.80
343
0.37
372
1.71
490
0.56
296
0.37
269
0.94
355
0.64
385
1.73
389
1.34
430
1.23
343
1.42
385
1.26
375
0.92
353
1.85
377
0.56
281
0.23
308
0.15
227
0.19
140
0.14
95
0.24
306
0.19
219
DISCOtwo views1.03
427
0.34
334
1.11
414
0.69
435
0.45
346
2.07
511
0.84
442
2.13
493
1.50
480
1.15
296
1.33
355
2.40
517
1.07
421
2.60
442
1.51
483
0.23
308
0.18
318
0.22
239
0.20
248
0.31
394
0.27
367
FlowAnything_testtwo views0.39
66
0.26
131
0.61
153
0.59
331
0.33
222
0.62
196
0.36
133
0.62
35
0.40
40
0.45
80
0.36
24
0.45
77
0.37
80
0.53
32
0.48
236
0.24
323
0.18
318
0.28
387
0.33
467
0.21
242
0.19
219
SCVtwo views0.46
119
0.26
131
0.55
118
0.47
120
0.25
59
0.39
34
0.38
159
1.98
468
0.60
107
0.35
29
0.48
62
0.55
128
0.36
75
1.28
260
0.32
73
0.24
323
0.12
56
0.17
82
0.13
67
0.18
125
0.14
65
IGEV-RUCAtwo views0.37
57
0.23
62
0.48
68
0.49
163
0.36
254
0.60
181
0.23
27
0.64
39
0.49
68
0.39
53
0.49
70
0.44
69
0.31
40
0.85
142
0.30
51
0.24
323
0.13
117
0.16
55
0.12
43
0.20
200
0.19
219
DCVSM-stereotwo views0.72
289
0.35
355
0.76
271
0.55
283
0.42
321
0.73
263
0.38
159
1.21
257
1.02
257
1.79
494
1.04
234
1.62
445
1.03
408
1.04
201
0.79
360
0.24
323
0.27
439
0.29
398
0.24
357
0.30
385
0.36
437
SMFormertwo views0.75
320
0.30
239
0.86
311
0.46
109
0.26
68
0.82
316
0.43
221
2.05
482
1.39
457
1.23
343
1.47
403
0.98
293
0.95
372
1.71
357
0.82
371
0.24
323
0.20
354
0.22
239
0.21
292
0.23
291
0.24
321
ttatwo views0.75
320
0.30
239
0.86
311
0.46
109
0.26
68
0.82
316
0.43
221
2.05
482
1.39
457
1.23
343
1.47
403
0.98
293
0.95
372
1.71
357
0.82
371
0.24
323
0.20
354
0.22
239
0.21
292
0.18
125
0.18
179
qqq1two views0.72
289
0.30
239
0.86
311
0.46
109
0.26
68
0.82
316
0.43
221
2.05
482
1.39
457
1.23
343
1.47
403
0.98
293
0.95
372
1.71
357
0.44
197
0.24
323
0.20
354
0.18
117
0.15
113
0.18
125
0.18
179
fff1two views0.72
289
0.30
239
0.86
311
0.46
109
0.26
68
0.82
316
0.43
221
2.05
482
1.39
457
1.23
343
1.47
403
0.98
293
0.95
372
1.71
357
0.44
197
0.24
323
0.20
354
0.18
117
0.15
113
0.18
125
0.18
179
mmxtwo views1.39
480
0.33
310
0.85
305
0.53
244
0.37
269
0.74
267
0.56
346
2.13
493
1.37
448
1.15
296
1.45
396
1.06
318
0.82
307
7.22
546
7.61
555
0.24
323
0.19
336
0.31
417
0.27
400
0.30
385
0.25
333
xxxcopylefttwo views1.39
480
0.33
310
0.85
305
0.53
244
0.37
269
0.74
267
0.56
346
2.13
493
1.37
448
1.15
296
1.45
396
1.06
318
0.82
307
7.22
546
7.61
555
0.24
323
0.19
336
0.31
417
0.27
400
0.30
385
0.25
333
iinet-ftwo views0.99
410
0.45
415
3.71
541
0.55
283
0.43
331
1.81
491
0.68
400
1.14
235
1.14
321
1.18
320
1.42
385
1.58
440
1.44
479
1.34
277
1.59
487
0.24
323
0.23
406
0.20
175
0.19
216
0.26
330
0.25
333
BUStwo views0.74
312
0.32
288
0.68
192
0.54
259
0.44
339
2.34
522
0.42
202
2.16
502
0.98
239
1.20
328
1.11
262
1.03
313
0.62
227
0.91
159
0.70
326
0.24
323
0.17
296
0.25
336
0.22
321
0.22
266
0.22
287
BSDual-CNNtwo views0.71
287
0.32
288
0.68
192
0.54
259
0.44
339
1.27
427
0.65
387
2.16
502
0.98
239
1.20
328
1.11
262
1.12
341
0.74
267
0.91
159
0.66
315
0.24
323
0.17
296
0.25
336
0.22
321
0.22
266
0.22
287
psmgtwo views0.72
289
0.32
288
0.68
192
0.50
175
0.44
339
1.48
459
0.75
418
1.94
459
0.98
239
1.21
332
1.33
355
1.12
341
0.74
267
0.91
159
0.66
315
0.24
323
0.19
336
0.25
336
0.25
372
0.23
291
0.22
287
ADLNet2two views0.88
379
0.34
334
1.17
426
0.77
475
0.64
450
1.12
399
0.76
421
1.74
394
1.24
386
1.21
332
1.65
451
1.71
463
1.05
414
1.67
348
1.17
434
0.24
323
0.21
376
0.21
210
0.22
321
0.26
330
0.29
385
OCTAStereotwo views0.80
343
0.30
239
0.75
261
0.60
343
0.31
182
0.64
203
0.44
234
1.21
257
0.90
205
1.29
372
1.01
213
0.82
221
0.57
200
5.35
507
0.48
236
0.24
323
0.14
169
0.24
297
0.20
248
0.20
200
0.30
399
PSM-softLosstwo views0.78
336
0.31
272
0.77
278
0.58
318
0.32
201
0.56
160
0.40
182
1.18
246
0.70
144
1.24
351
1.07
242
0.83
228
0.52
169
5.36
508
0.53
269
0.24
323
0.15
227
0.25
336
0.22
321
0.20
200
0.25
333
KMStereotwo views0.78
336
0.31
272
0.77
278
0.58
318
0.32
201
0.56
160
0.40
182
1.18
246
0.70
144
1.24
351
1.07
242
0.83
228
0.52
169
5.36
508
0.53
269
0.24
323
0.15
227
0.25
336
0.22
321
0.20
200
0.25
333
RE-Stereotwo views0.80
343
0.30
239
0.75
261
0.60
343
0.31
182
0.64
203
0.44
234
1.21
257
0.90
205
1.29
372
1.01
213
0.81
216
0.57
200
5.37
510
0.48
236
0.24
323
0.14
169
0.24
297
0.20
248
0.20
200
0.30
399
TVStereotwo views0.80
343
0.30
239
0.75
261
0.60
343
0.31
182
0.64
203
0.44
234
1.21
257
0.90
205
1.29
372
1.01
213
0.81
216
0.57
200
5.37
510
0.48
236
0.24
323
0.14
169
0.24
297
0.20
248
0.20
200
0.30
399
222two views1.61
498
0.29
218
0.67
188
0.56
296
0.29
134
1.06
389
0.42
202
2.17
508
1.31
419
1.31
390
1.52
416
0.92
270
0.94
367
1.76
367
17.65
579
0.24
323
0.20
354
0.21
210
0.19
216
0.22
266
0.23
307
xxxxtwo views1.51
489
0.28
183
0.68
192
0.54
259
0.28
117
1.16
409
0.44
234
2.19
512
1.29
409
1.09
256
1.36
369
1.22
360
0.85
322
1.79
370
15.70
578
0.24
323
0.21
376
0.21
210
0.20
248
0.22
266
0.23
307
GMStereopermissivetwo views0.55
186
0.45
415
0.94
352
0.50
175
0.32
201
0.64
203
0.43
221
1.00
171
1.40
462
0.82
182
0.73
137
0.51
111
0.45
119
0.85
142
0.55
279
0.24
323
0.15
227
0.20
175
0.21
292
0.31
394
0.24
321
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.80
343
0.32
288
0.90
339
0.59
331
0.74
478
1.26
426
0.80
435
1.52
335
1.10
300
1.30
380
1.12
269
1.30
386
0.84
319
1.67
348
1.09
419
0.24
323
0.24
415
0.24
297
0.23
344
0.25
318
0.18
179
HGLStereotwo views0.85
369
0.38
379
0.94
352
0.80
482
1.03
523
1.17
411
0.58
361
1.52
335
1.20
365
1.19
324
1.62
444
1.13
346
1.20
448
1.80
371
1.06
413
0.24
323
0.24
415
0.24
297
0.21
292
0.23
291
0.27
367
SuperBtwo views2.53
542
0.59
467
18.45
575
0.69
435
0.50
375
1.87
498
0.88
454
1.67
377
2.39
532
1.50
450
1.42
385
1.14
348
1.15
436
4.28
486
5.07
544
0.24
323
0.19
336
0.22
239
0.19
216
7.86
582
0.34
426
ADCP+two views1.99
525
0.48
426
7.73
558
0.66
408
0.91
514
2.30
520
1.05
489
1.82
423
1.34
430
1.54
460
1.32
353
1.74
467
1.61
497
2.17
408
13.37
571
0.24
323
0.21
376
0.32
432
0.28
421
0.37
430
0.29
385
w-ln-seven-2two views1.18
459
0.61
477
4.25
543
0.68
431
0.61
440
1.20
418
0.93
467
1.63
367
1.35
440
1.66
481
1.53
417
1.47
423
1.37
473
3.00
458
1.74
491
0.25
350
0.24
415
0.29
398
0.26
389
0.33
412
0.28
379
S2M2_Ltwo views0.34
42
0.28
183
0.45
53
0.40
41
0.30
156
0.31
16
0.16
1
0.60
30
0.64
117
0.31
16
0.48
62
0.47
88
0.34
58
0.38
4
0.32
73
0.25
350
0.22
394
0.20
175
0.22
321
0.25
318
0.22
287
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
G2L-Stereotwo views0.80
343
0.32
288
0.95
356
0.60
343
0.42
321
0.78
291
0.69
404
1.50
326
1.09
293
1.33
402
1.14
278
1.45
415
0.72
263
2.45
432
1.10
422
0.25
350
0.20
354
0.26
355
0.21
292
0.20
200
0.26
357
rvit_stereo_0083two views0.47
127
0.33
310
0.81
295
0.56
296
0.36
254
0.50
108
0.44
234
0.68
54
0.95
222
0.49
102
0.57
95
0.55
128
0.49
154
0.88
151
0.46
224
0.25
350
0.25
424
0.24
297
0.20
248
0.24
306
0.17
154
rvit_stereo_0081two views0.44
104
0.33
310
0.64
169
0.54
259
0.35
244
0.41
40
0.44
234
0.66
47
0.95
222
0.48
96
0.52
78
0.50
107
0.46
126
0.82
132
0.44
197
0.25
350
0.20
354
0.22
239
0.19
216
0.25
318
0.17
154
rvit_stereo_0082two views0.44
104
0.33
310
0.64
169
0.54
259
0.35
244
0.41
40
0.44
234
0.66
47
0.95
222
0.48
96
0.52
78
0.50
107
0.46
126
0.82
132
0.44
197
0.25
350
0.20
354
0.22
239
0.19
216
0.25
318
0.17
154
rvit_stereo_fttwo views0.47
127
0.35
355
0.87
322
0.67
420
0.42
321
0.40
36
0.59
369
0.81
99
0.74
156
0.46
85
0.55
89
0.57
138
0.49
154
0.65
79
0.50
250
0.25
350
0.17
296
0.22
239
0.22
321
0.24
306
0.17
154
test_sample4two views0.69
276
0.33
310
0.91
342
0.51
205
0.30
156
0.92
350
0.52
306
1.87
437
1.15
333
1.14
290
1.18
296
0.87
245
0.75
269
1.18
237
0.68
322
0.25
350
0.20
354
0.26
355
0.26
389
0.26
330
0.25
333
test_sample3two views0.68
274
0.32
288
0.88
329
0.52
226
0.30
156
0.97
369
0.52
306
1.86
435
1.15
333
1.08
250
1.11
262
0.88
249
0.71
260
1.17
235
0.68
322
0.25
350
0.20
354
0.25
336
0.25
372
0.25
318
0.25
333
StereoVisiontwo views0.65
254
0.34
334
0.86
311
0.59
331
0.40
307
0.50
108
0.41
198
1.09
220
0.93
217
0.71
153
2.50
519
0.82
221
0.57
200
1.03
195
0.49
244
0.25
350
0.28
446
0.29
398
0.28
421
0.36
426
0.20
252
CFNet_ucstwo views0.70
280
0.33
310
0.88
329
0.50
175
0.43
331
0.74
267
0.44
234
1.60
358
1.29
409
1.22
337
1.54
422
1.09
334
0.63
232
0.99
186
0.59
290
0.25
350
0.20
354
0.37
470
0.21
292
0.40
447
0.28
379
AACVNettwo views0.86
374
0.35
355
0.79
289
0.82
493
0.39
296
0.76
278
0.49
286
1.61
361
0.81
178
1.08
250
1.33
355
1.30
386
0.93
362
4.34
487
0.74
338
0.25
350
0.21
376
0.28
387
0.22
321
0.29
374
0.25
333
PFNet+two views0.59
214
0.28
183
0.77
278
0.53
244
0.30
156
0.59
173
0.31
82
0.92
134
1.14
321
1.33
402
1.10
256
0.79
210
0.57
200
1.31
266
0.49
244
0.25
350
0.17
296
0.28
387
0.26
389
0.21
242
0.25
333
psm_uptwo views0.77
328
0.34
334
0.70
211
0.66
408
0.58
426
1.05
386
0.92
463
1.52
335
1.12
306
1.26
361
1.16
291
1.31
390
1.23
453
1.20
241
0.81
366
0.25
350
0.29
457
0.31
417
0.27
400
0.27
344
0.25
333
aanetorigintwo views1.23
461
0.79
505
2.78
534
0.70
441
0.79
494
0.99
375
1.06
491
1.06
210
1.37
448
3.52
551
2.61
521
1.72
464
1.63
498
1.99
391
1.78
493
0.25
350
0.24
415
0.26
355
0.25
372
0.38
439
0.45
473
EDNetEfficientorigintwo views10.57
577
1.47
547
177.42
600
0.67
420
0.53
401
1.58
468
1.16
502
1.90
446
3.37
552
4.71
564
3.38
534
3.10
538
2.69
547
3.13
463
3.58
533
0.25
350
0.23
406
0.33
441
0.27
400
0.83
525
0.81
529
cf-rtwo views0.73
307
0.30
239
0.77
278
0.55
283
0.63
447
0.78
291
0.48
276
1.79
416
1.15
333
1.13
287
1.26
328
1.43
408
0.87
335
1.40
299
0.85
379
0.25
350
0.18
318
0.22
239
0.23
344
0.19
166
0.19
219
GANet-RSSMtwo views0.72
289
0.28
183
0.63
162
0.64
387
0.58
426
0.80
305
0.58
361
1.89
443
1.08
285
1.04
245
1.25
321
1.15
349
1.04
410
1.49
314
0.62
303
0.25
350
0.19
336
0.22
239
0.22
321
0.22
266
0.21
269
GwcNet-RSSMtwo views0.77
328
0.32
288
1.01
377
0.62
369
0.54
405
0.78
291
0.51
295
1.73
389
1.20
365
1.09
256
1.37
371
1.46
418
0.85
322
1.53
323
1.09
419
0.25
350
0.18
318
0.23
277
0.24
357
0.20
200
0.19
219
DMCAtwo views0.67
270
0.34
334
0.90
339
0.51
205
0.44
339
0.86
333
0.47
265
1.42
305
1.02
257
1.17
315
1.12
269
1.23
365
0.75
269
0.78
116
0.95
397
0.25
350
0.19
336
0.27
372
0.19
216
0.24
306
0.27
367
NLCA_NET_v2_RVCtwo views0.79
340
0.43
405
1.05
393
0.64
387
0.58
426
0.95
359
0.53
314
1.53
341
1.18
352
1.37
414
1.15
286
1.43
408
0.88
340
1.61
337
0.84
376
0.25
350
0.22
394
0.27
372
0.27
400
0.29
374
0.29
385
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AANet_RVCtwo views1.16
457
0.52
443
1.49
477
0.65
401
0.45
346
0.75
272
0.69
404
1.42
305
1.55
488
1.34
406
1.87
481
1.53
432
0.78
288
7.43
551
1.38
459
0.25
350
0.17
296
0.19
140
0.16
155
0.22
266
0.26
357
DLCB_ROBtwo views0.86
374
0.40
390
0.78
286
0.68
431
0.54
405
1.11
396
0.84
442
1.49
322
1.23
380
1.64
480
1.65
451
1.70
462
0.91
350
1.70
355
1.05
411
0.25
350
0.24
415
0.26
355
0.27
400
0.27
344
0.24
321
coex_refinementtwo views0.80
343
0.28
183
0.73
241
0.70
441
0.51
386
0.95
359
0.60
373
1.78
410
1.23
380
1.36
411
1.37
371
1.82
477
0.81
302
1.32
270
1.13
428
0.26
373
0.17
296
0.19
140
0.20
248
0.24
306
0.25
333
rvit_stereo_0081_agatwo views0.44
104
0.34
334
0.73
241
0.51
205
0.41
316
0.50
108
0.40
182
0.81
99
0.57
99
0.58
126
0.56
92
0.53
123
0.43
107
0.66
81
0.40
162
0.26
373
0.21
376
0.22
239
0.20
248
0.26
330
0.18
179
ITSA-stereotwo views0.82
354
0.36
365
0.82
298
0.54
259
0.31
182
0.80
305
0.47
265
2.17
508
1.67
496
1.13
287
1.13
274
0.94
275
0.86
330
2.46
435
1.00
407
0.26
373
0.23
406
0.28
387
0.27
400
0.28
363
0.36
437
rvit_stereo_0080two views0.44
104
0.32
288
0.71
223
0.47
120
0.36
254
0.42
47
0.55
338
0.82
104
0.68
139
0.50
110
0.60
101
0.55
128
0.47
135
0.59
50
0.44
197
0.26
373
0.21
376
0.20
175
0.20
248
0.31
394
0.19
219
test_sample5two views0.69
276
0.34
334
0.87
322
0.52
226
0.30
156
0.84
329
0.54
320
1.83
428
1.14
321
1.11
270
1.25
321
0.88
249
0.78
288
1.23
246
0.65
312
0.26
373
0.20
354
0.27
372
0.27
400
0.27
344
0.26
357
DualNettwo views0.70
280
0.34
334
0.87
322
0.52
226
0.30
156
0.84
329
0.54
320
1.83
428
1.14
321
1.14
290
1.33
355
0.88
249
0.78
288
1.23
246
0.65
312
0.26
373
0.20
354
0.27
372
0.27
400
0.27
344
0.26
357
whm_ethtwo views0.44
104
0.32
288
0.71
223
0.47
120
0.36
254
0.42
47
0.55
338
0.82
104
0.68
139
0.50
110
0.60
101
0.55
128
0.47
135
0.59
50
0.44
197
0.26
373
0.21
376
0.20
175
0.20
248
0.31
394
0.19
219
fast-acv-fttwo views0.94
394
0.44
408
1.40
456
0.58
318
0.51
386
1.77
487
0.69
404
1.36
292
1.42
470
1.29
372
1.86
479
1.74
467
1.25
457
1.52
319
1.38
459
0.26
373
0.28
446
0.28
387
0.28
421
0.27
344
0.26
357
CRFU-Nettwo views0.86
374
0.39
384
1.00
373
0.65
401
0.57
417
1.78
489
0.86
449
2.15
499
0.81
178
1.38
419
1.18
296
1.64
453
1.19
445
1.35
278
0.90
389
0.26
373
0.22
394
0.21
210
0.19
216
0.23
291
0.24
321
GANet-ADLtwo views0.60
217
0.35
355
0.72
229
0.64
387
0.40
307
0.68
239
0.51
295
1.49
322
1.12
306
0.95
214
1.08
247
0.91
261
0.57
200
0.76
108
0.55
279
0.26
373
0.18
318
0.18
117
0.16
155
0.23
291
0.25
333
sCroCo_RVCtwo views0.49
139
0.40
390
1.02
384
0.65
401
0.60
437
0.52
129
0.40
182
0.83
108
0.61
108
0.44
72
0.74
141
0.49
101
0.50
160
0.63
71
0.48
236
0.26
373
0.27
439
0.23
277
0.22
321
0.29
374
0.25
333
EDNetEfficienttwo views2.37
536
1.10
527
8.08
560
0.74
465
0.71
470
0.98
374
1.56
527
1.46
316
4.06
559
4.90
565
2.82
526
2.25
508
3.48
555
2.95
454
9.97
564
0.26
373
0.24
415
0.26
355
0.30
442
0.68
519
0.61
511
CFNet-ftpermissivetwo views0.72
289
0.32
288
0.54
108
0.66
408
0.54
405
0.83
321
0.55
338
1.37
293
1.15
333
0.93
207
1.28
337
1.57
437
0.97
382
1.35
278
0.81
366
0.26
373
0.20
354
0.33
441
0.25
372
0.30
385
0.23
307
ADCLtwo views1.72
510
0.57
461
3.66
539
0.67
420
0.61
440
2.61
533
1.85
540
1.96
462
1.67
496
1.90
506
1.83
474
2.06
504
1.90
520
2.13
404
9.15
563
0.26
373
0.24
415
0.34
451
0.32
457
0.38
439
0.35
431
RYNettwo views1.17
458
0.49
429
1.24
435
0.70
441
0.97
522
1.71
478
0.92
463
1.91
450
1.46
475
1.38
419
1.14
278
1.88
480
1.30
466
4.24
483
1.87
496
0.26
373
0.21
376
0.35
459
0.27
400
0.55
499
0.54
496
CFNet_RVCtwo views0.72
289
0.32
288
0.54
108
0.66
408
0.54
405
0.83
321
0.55
338
1.37
293
1.15
333
0.93
207
1.28
337
1.57
437
0.97
382
1.35
278
0.81
366
0.26
373
0.20
354
0.33
441
0.25
372
0.30
385
0.23
307
MSAF-DinoV2two views1.97
523
0.80
507
10.38
567
0.86
504
0.48
364
1.39
447
0.97
475
2.55
540
1.72
502
1.53
454
1.65
451
3.59
542
2.20
535
5.39
512
3.94
538
0.27
389
0.17
296
0.26
355
0.28
421
0.47
478
0.46
476
ACV-stereotwo views0.99
410
0.51
439
1.41
461
0.56
296
0.41
316
2.43
526
0.57
357
1.15
237
1.18
352
0.81
178
1.01
213
3.39
540
2.14
532
1.60
335
1.07
416
0.27
389
0.22
394
0.22
239
0.22
321
0.28
363
0.32
415
test_sample6two views0.71
287
0.34
334
0.87
322
0.52
226
0.30
156
0.82
316
0.58
361
1.79
416
1.15
333
1.14
290
1.33
355
0.91
261
0.79
292
1.31
266
0.74
338
0.27
389
0.21
376
0.27
372
0.29
433
0.28
363
0.27
367
CAS++two views0.47
127
0.31
272
0.56
122
0.47
120
0.32
201
0.42
47
0.28
60
1.76
402
0.72
150
0.71
153
0.72
135
0.37
58
0.28
25
0.69
86
0.33
87
0.27
389
0.22
394
0.26
355
0.21
292
0.29
374
0.19
219
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024
Wz-Net-MNSevtwo views1.11
444
0.58
464
2.23
519
0.66
408
0.71
470
1.95
504
1.46
522
1.98
468
1.45
474
1.79
494
1.43
389
1.49
426
1.33
469
1.97
390
1.42
471
0.27
389
0.23
406
0.28
387
0.28
421
0.34
416
0.31
409
AASNettwo views0.76
326
0.35
355
0.91
342
0.79
479
0.81
501
1.14
401
0.56
346
2.02
479
1.08
285
1.22
337
1.24
317
0.93
272
0.76
277
0.77
111
1.16
431
0.27
389
0.23
406
0.24
297
0.20
248
0.28
363
0.24
321
GwcNet-ADLtwo views0.64
246
0.31
272
0.79
289
0.56
296
0.41
316
0.60
181
0.58
361
1.41
303
1.26
394
1.08
250
1.13
274
0.91
261
0.60
213
1.04
201
0.78
354
0.27
389
0.18
318
0.18
117
0.18
194
0.25
318
0.29
385
ADLNettwo views0.85
369
0.36
365
0.89
335
0.85
502
0.72
472
1.24
423
0.76
421
1.82
423
1.36
444
1.52
453
1.35
368
1.27
379
0.99
397
1.23
246
1.15
430
0.27
389
0.20
354
0.26
355
0.25
372
0.28
363
0.30
399
GEStwo views0.66
261
0.34
334
0.90
339
0.59
331
0.38
286
0.94
355
0.57
357
2.11
492
0.86
190
1.02
238
1.11
262
0.66
173
0.79
292
0.99
186
0.61
300
0.27
389
0.19
336
0.20
175
0.20
248
0.21
242
0.30
399
ac_64two views0.82
354
0.29
218
0.81
295
0.71
449
0.60
437
1.05
386
0.54
320
1.99
470
0.92
215
1.18
320
1.06
238
1.99
496
1.08
422
1.94
387
0.97
402
0.27
389
0.22
394
0.24
297
0.23
344
0.22
266
0.19
219
PSMNet-RSSMtwo views0.72
289
0.30
239
0.61
153
0.63
378
0.42
321
0.73
263
0.56
346
1.92
453
1.10
300
1.09
256
1.37
371
1.22
360
0.98
389
1.28
260
0.72
334
0.27
389
0.19
336
0.27
372
0.29
433
0.24
306
0.24
321
DMCA-RVCcopylefttwo views0.74
312
0.40
390
1.27
441
0.66
408
0.49
368
0.77
286
0.47
265
1.35
290
1.01
254
1.53
454
1.01
213
1.29
385
0.82
307
1.31
266
0.78
354
0.27
389
0.21
376
0.35
459
0.27
400
0.32
403
0.24
321
FADNet_RVCtwo views0.83
360
0.51
439
1.83
501
0.54
259
0.42
321
1.19
416
0.46
258
1.51
333
1.09
293
0.89
197
1.24
317
0.91
261
0.87
335
2.11
403
1.11
425
0.27
389
0.22
394
0.31
417
0.28
421
0.43
461
0.38
448
DRN-Testtwo views1.00
415
0.44
408
1.13
418
0.70
441
0.81
501
1.62
471
0.79
429
2.14
497
1.44
473
1.78
491
1.33
355
1.43
408
1.05
414
2.18
411
1.53
484
0.27
389
0.21
376
0.31
417
0.30
442
0.32
403
0.28
379
w-ln-seventwo views1.38
479
0.70
494
3.91
542
0.75
469
0.72
472
2.69
535
0.95
472
2.02
479
1.99
520
1.99
510
1.73
461
1.82
477
1.17
438
2.45
432
2.84
520
0.28
403
0.25
424
0.31
417
0.30
442
0.41
450
0.33
421
FACV-RUCAtwo views0.63
234
0.34
334
0.82
298
0.62
369
0.65
452
0.81
314
0.41
198
1.44
312
1.07
279
0.86
194
1.14
278
0.61
155
0.69
250
0.80
123
0.53
269
0.28
403
0.19
336
0.47
501
0.21
292
0.35
419
0.25
333
DDVStwo views0.78
336
0.41
398
0.94
352
0.60
343
0.43
331
1.30
432
0.43
221
1.40
301
0.91
210
1.20
328
1.15
286
1.43
408
0.64
236
2.18
411
0.89
386
0.28
403
0.22
394
0.26
355
0.23
344
0.31
394
0.33
421
Wz-Net-LNSevtwo views1.03
427
0.67
487
2.71
532
0.64
387
0.84
505
1.75
482
1.00
482
1.80
419
1.32
423
1.28
366
1.25
321
1.65
456
1.22
452
1.39
293
1.40
463
0.28
403
0.26
430
0.24
297
0.23
344
0.33
412
0.32
415
NINENettwo views0.77
328
0.37
372
0.78
286
0.62
369
0.51
386
2.34
522
0.42
202
1.83
428
1.04
266
1.14
290
1.23
315
1.03
313
0.62
227
1.24
251
0.70
326
0.28
403
0.23
406
0.31
417
0.21
292
0.26
330
0.25
333
ddtwo views0.59
214
0.48
426
0.97
364
0.55
283
0.32
201
0.64
203
0.47
265
1.02
178
1.34
430
0.78
169
0.86
168
0.58
143
0.54
179
1.01
191
0.86
381
0.28
403
0.18
318
0.26
355
0.19
216
0.32
403
0.24
321
LMCR-Stereopermissivemany views0.82
354
0.46
417
0.88
329
0.75
469
0.43
331
1.33
437
0.56
346
2.43
535
0.98
239
1.53
454
1.49
410
0.74
193
1.00
399
1.63
340
0.89
386
0.28
403
0.17
296
0.22
239
0.17
176
0.29
374
0.20
252
HCRNettwo views0.70
280
0.39
384
0.73
241
0.60
343
0.59
434
0.76
278
0.35
117
1.22
265
1.13
318
1.02
238
0.99
203
1.02
309
0.76
277
2.19
413
0.70
326
0.28
403
0.19
336
0.28
387
0.23
344
0.25
318
0.23
307
UCFNet_RVCtwo views0.69
276
0.35
355
0.49
75
0.64
387
0.39
296
0.85
332
0.58
361
1.75
396
1.14
321
0.97
219
1.19
303
1.17
351
0.93
362
0.99
186
0.62
303
0.28
403
0.20
354
0.34
451
0.31
449
0.32
403
0.27
367
StereoDRNettwo views0.98
408
0.47
422
1.70
488
0.76
472
0.94
518
1.51
462
0.91
461
1.92
453
1.32
423
1.61
472
1.13
274
1.47
423
0.97
382
1.75
362
1.46
478
0.28
403
0.23
406
0.29
398
0.27
400
0.35
419
0.27
367
NaN_ROBtwo views1.13
449
0.55
453
1.15
423
0.64
387
0.48
364
1.61
470
2.03
550
1.72
388
1.48
477
2.09
516
1.27
331
1.40
404
1.08
422
3.94
479
1.30
449
0.28
403
0.34
481
0.28
387
0.28
421
0.30
385
0.33
421
z-mn7two views1.56
493
0.84
508
4.36
546
0.71
449
0.51
386
2.60
531
1.04
487
1.73
389
2.70
544
1.53
454
2.99
529
1.94
490
1.34
470
4.78
496
2.41
513
0.29
414
0.24
415
0.27
372
0.24
357
0.34
416
0.31
409
ICVPtwo views0.63
234
0.33
310
0.57
132
0.61
357
0.40
307
0.80
305
0.58
361
1.61
361
0.89
201
0.90
199
1.24
317
0.88
249
0.73
265
0.72
97
0.88
383
0.29
414
0.21
376
0.22
239
0.21
292
0.24
306
0.27
367
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
GEStereo_RVCtwo views0.90
384
0.37
372
0.99
368
0.64
387
0.50
375
0.95
359
0.79
429
2.42
534
1.17
345
1.16
306
1.11
262
1.26
375
0.92
353
3.24
465
0.90
389
0.29
414
0.19
336
0.23
277
0.20
248
0.27
344
0.29
385
STTStereotwo views0.78
336
0.50
436
1.22
431
0.64
387
0.54
405
0.89
336
0.54
320
1.44
312
1.11
302
1.38
419
1.09
252
1.27
379
0.85
322
1.43
302
0.83
373
0.29
414
0.27
439
0.33
441
0.39
489
0.32
403
0.30
399
PA-Nettwo views1.01
421
0.57
461
1.29
443
0.64
387
0.74
478
1.19
416
0.84
442
1.69
380
1.43
472
1.16
306
1.19
303
1.32
391
1.19
445
3.42
471
1.25
441
0.29
414
0.45
522
0.33
441
0.49
513
0.32
403
0.47
480
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
zh-mn7two views1.70
506
1.21
536
8.30
562
0.69
435
0.53
401
1.45
457
0.84
442
1.70
385
2.09
526
2.41
530
2.67
523
1.68
459
1.23
453
4.49
488
2.87
521
0.30
419
0.26
430
0.27
372
0.27
400
0.31
394
0.35
431
ttttwo views0.94
394
0.34
334
0.59
145
0.61
357
0.37
269
0.94
355
0.50
294
2.17
508
1.34
430
1.23
343
1.61
441
0.91
261
0.76
277
1.85
377
3.97
540
0.30
419
0.26
430
0.26
355
0.24
357
0.29
374
0.29
385
coex-fttwo views8.13
573
2.13
565
98.04
599
0.67
420
0.53
401
1.71
478
1.56
527
1.65
370
11.11
573
18.17
588
3.75
539
3.88
546
7.61
575
2.98
457
6.49
550
0.30
419
0.30
461
0.32
432
0.31
449
0.66
517
0.50
489
ssnet_v2two views0.88
379
0.36
365
1.02
384
0.62
369
0.38
286
1.32
435
0.97
475
2.07
488
1.34
430
1.37
414
1.18
296
1.54
433
0.92
353
1.10
216
1.65
488
0.30
419
0.27
439
0.30
411
0.28
421
0.27
344
0.26
357
GwcNetcopylefttwo views1.08
436
0.51
439
2.33
521
0.79
479
1.18
537
1.76
484
0.70
407
1.68
378
1.47
476
1.41
428
1.64
449
1.74
467
1.04
410
2.20
414
1.41
467
0.30
419
0.29
457
0.29
398
0.27
400
0.30
385
0.35
431
DSFCAtwo views0.93
392
0.34
334
1.06
397
0.52
226
0.65
452
1.55
466
0.93
467
1.49
322
1.19
360
1.56
464
1.15
286
1.50
427
0.96
379
3.07
459
1.02
409
0.30
419
0.26
430
0.25
336
0.25
372
0.28
363
0.24
321
FADNet-RVCtwo views0.88
379
0.67
487
1.93
505
0.60
343
0.48
364
0.91
343
0.60
373
1.71
387
1.18
352
0.90
199
0.96
191
1.36
399
0.92
353
2.25
418
1.17
434
0.30
419
0.29
457
0.32
432
0.32
457
0.41
450
0.35
431
GANettwo views1.36
476
0.47
422
0.86
311
0.67
420
0.45
346
1.34
439
1.73
534
1.64
369
1.24
386
1.49
449
2.38
511
1.55
435
1.20
448
9.30
566
0.93
391
0.30
419
0.31
467
0.33
441
0.28
421
0.39
443
0.30
399
TCMNettwo views1.01
421
0.60
475
2.10
511
0.86
504
1.33
544
1.14
401
0.67
396
1.69
380
1.23
380
1.11
270
1.57
432
1.30
386
0.97
382
2.01
393
1.50
482
0.31
427
0.31
467
0.38
473
0.34
473
0.42
455
0.36
437
test_sample7two views0.74
312
0.37
372
0.76
271
0.52
226
0.35
244
0.91
343
0.67
396
1.78
410
1.21
371
1.22
337
1.18
296
1.08
324
0.92
353
1.23
246
0.67
318
0.31
427
0.28
446
0.32
432
0.31
449
0.33
412
0.29
385
Wz-Net-SNSevtwo views1.49
486
1.23
537
6.27
555
0.68
431
0.67
459
1.37
442
1.41
519
2.00
471
1.39
457
1.48
447
1.61
441
2.29
510
1.32
468
3.93
478
2.14
509
0.31
427
0.28
446
0.31
417
0.33
467
0.42
455
0.36
437
APVNettwo views1.06
431
0.53
447
1.42
462
0.84
497
0.79
494
1.92
501
0.82
440
1.90
446
1.08
285
1.08
250
1.43
389
1.56
436
1.13
434
3.07
459
1.58
485
0.31
427
0.34
481
0.42
489
0.36
482
0.36
426
0.37
442
AdaStereotwo views0.70
280
0.43
405
0.75
261
0.73
461
0.37
269
0.92
350
0.53
314
1.85
432
1.18
352
1.12
272
1.23
315
1.07
323
0.65
242
0.96
173
0.63
307
0.31
427
0.15
227
0.32
432
0.21
292
0.29
374
0.22
287
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
MDST_ROBtwo views1.67
502
0.34
334
1.58
482
0.92
521
0.58
426
4.26
560
1.11
495
2.83
543
1.41
467
4.49
562
2.55
520
1.45
415
0.97
382
7.79
557
1.17
434
0.31
427
0.25
424
0.37
470
0.33
467
0.31
394
0.30
399
SGM_RVCbinarytwo views1.68
504
0.36
365
0.61
153
0.59
331
0.29
134
2.25
518
1.18
504
2.38
531
1.68
498
3.60
552
2.67
523
3.69
544
2.42
541
8.13
560
1.90
499
0.31
427
0.31
467
0.30
411
0.28
421
0.30
385
0.29
385
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
zh-sn7two views1.76
512
1.38
539
6.58
556
0.74
465
0.72
472
1.78
489
1.31
514
1.88
440
1.56
489
1.86
502
2.47
518
1.81
474
2.08
530
5.12
503
3.80
536
0.32
434
0.32
475
0.32
432
0.32
457
0.44
467
0.40
452
rvit_0105_6two views0.53
156
0.37
372
0.98
367
0.65
401
0.38
286
0.51
125
0.51
295
0.77
77
1.20
365
0.54
121
0.55
89
0.65
169
0.53
174
0.94
170
0.44
197
0.32
434
0.32
475
0.28
387
0.24
357
0.28
363
0.21
269
rvit_0105_5two views0.58
208
0.39
384
1.05
393
0.66
408
0.37
269
0.58
168
0.56
346
0.94
148
1.18
352
0.64
142
0.68
120
0.75
195
0.63
232
0.88
151
0.50
250
0.32
434
0.32
475
0.30
411
0.27
400
0.28
363
0.25
333
rvit_0105_4two views0.56
195
0.38
379
1.06
397
0.66
408
0.38
286
0.53
138
0.53
314
0.84
111
1.17
345
0.56
123
0.61
103
0.72
191
0.59
210
0.98
182
0.45
210
0.32
434
0.33
480
0.29
398
0.25
372
0.29
374
0.23
307
GMStereo_Zeroshotpermissivetwo views0.67
270
0.61
477
1.01
377
0.64
387
0.37
269
0.84
329
0.35
117
1.05
197
1.12
306
1.12
272
1.06
238
1.27
379
0.54
179
1.19
239
0.59
290
0.32
434
0.17
296
0.31
417
0.18
194
0.52
493
0.22
287
CSP-Nettwo views0.97
404
0.38
379
0.83
303
0.53
244
0.41
316
1.63
472
0.77
424
2.00
471
1.05
270
1.25
357
1.20
307
1.33
392
0.83
315
4.93
501
0.85
379
0.32
434
0.22
394
0.20
175
0.20
248
0.23
291
0.25
333
pcwnet_v2two views0.97
404
0.37
372
4.33
544
0.62
369
0.54
405
0.79
297
0.45
251
2.02
479
1.58
490
1.42
434
1.64
449
1.09
334
0.79
292
1.24
251
0.67
318
0.32
434
0.25
424
0.29
398
0.27
400
0.37
430
0.35
431
RTSCtwo views1.29
466
0.73
497
2.44
524
0.83
496
0.57
417
1.85
496
0.65
387
1.88
440
2.00
521
2.20
519
1.66
454
1.60
443
1.26
459
2.33
424
3.92
537
0.32
434
0.23
406
0.27
372
0.29
433
0.37
430
0.37
442
ETE_ROBtwo views0.96
398
0.64
484
1.16
424
0.69
435
0.48
364
1.14
401
1.13
498
1.77
406
1.19
360
1.91
507
1.45
396
1.73
465
1.05
414
1.60
335
1.14
429
0.32
434
0.26
430
0.38
473
0.34
473
0.39
443
0.41
457
YMNettwo views1.00
415
0.54
448
1.40
456
0.81
485
0.85
508
1.87
498
0.62
378
1.55
348
1.18
352
1.63
478
1.99
490
1.77
471
0.97
382
1.50
316
1.45
475
0.33
443
0.37
499
0.31
417
0.32
457
0.32
403
0.29
385
YMNet_1two views1.00
415
0.54
448
1.40
456
0.81
485
0.85
508
1.87
498
0.62
378
1.55
348
1.18
352
1.63
478
1.99
490
1.77
471
0.97
382
1.50
316
1.45
475
0.33
443
0.37
499
0.31
417
0.32
457
0.32
403
0.29
385
PSMNet-ADLtwo views0.72
289
0.35
355
0.62
159
0.69
435
0.46
358
1.14
401
0.44
234
1.37
293
1.01
254
0.83
184
1.17
294
1.33
392
0.96
379
1.43
302
0.95
397
0.33
443
0.22
394
0.21
210
0.23
344
0.27
344
0.29
385
hitnet-ftcopylefttwo views0.79
340
0.35
355
0.57
132
0.58
318
0.42
321
0.96
365
0.46
258
1.47
318
1.33
427
1.19
324
1.22
311
1.81
474
0.98
389
1.66
347
0.94
393
0.33
443
0.28
446
0.34
451
0.27
400
0.35
419
0.31
409
FADNettwo views0.92
389
0.61
477
1.81
498
0.62
369
0.55
411
0.96
365
0.57
357
1.78
410
1.33
427
0.93
207
1.01
213
1.36
399
1.01
401
2.71
447
0.75
343
0.33
443
0.34
481
0.31
417
0.34
473
0.59
506
0.40
452
ADCMidtwo views1.89
520
0.73
497
5.06
548
0.72
453
0.67
459
2.00
508
1.14
499
1.97
466
1.48
477
2.86
543
1.81
473
2.37
515
2.05
528
2.24
416
10.39
568
0.33
443
0.31
467
0.39
479
0.43
499
0.50
487
0.44
471
DANettwo views1.08
436
0.61
477
1.32
448
0.85
502
0.72
472
1.37
442
0.51
295
1.54
344
1.15
333
1.78
491
1.54
422
2.01
498
1.11
427
2.90
453
2.00
504
0.33
443
0.30
461
0.40
484
0.30
442
0.44
467
0.45
473
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
TDLMtwo views1.06
431
0.44
408
0.79
289
0.63
378
0.50
375
0.89
336
1.44
521
1.48
320
1.26
394
1.12
272
1.40
382
1.08
324
0.98
389
6.65
536
0.78
354
0.33
443
0.21
376
0.33
441
0.26
389
0.37
430
0.24
321
PWC_ROBbinarytwo views1.24
462
0.76
503
2.46
525
0.72
453
0.78
491
1.15
407
0.49
286
1.75
396
1.92
516
2.31
522
3.07
530
1.59
441
1.40
474
2.46
435
2.10
508
0.33
443
0.22
394
0.35
459
0.24
357
0.38
439
0.41
457
PSMNet_ROBtwo views0.90
384
0.52
443
1.17
426
0.72
453
0.61
440
1.27
427
1.12
497
1.76
402
1.12
306
1.09
256
1.28
337
1.45
415
0.89
346
1.65
343
1.42
471
0.33
443
0.25
424
0.37
470
0.39
489
0.35
419
0.29
385
WZ-Nettwo views1.95
521
0.95
517
10.10
564
0.86
504
0.78
491
1.69
477
1.60
530
2.20
515
1.98
519
2.08
515
1.93
486
2.30
511
1.97
523
5.30
506
3.17
528
0.34
453
0.26
430
0.29
398
0.31
449
0.51
491
0.47
480
SACVNettwo views0.85
369
0.46
417
0.85
305
0.81
485
0.56
414
0.80
305
0.79
429
1.68
378
1.12
306
1.34
406
1.33
355
1.25
371
0.94
367
2.39
429
0.76
346
0.34
453
0.26
430
0.31
417
0.29
433
0.35
419
0.44
471
CVANet_RVCtwo views1.07
433
0.43
405
0.76
271
0.60
343
0.50
375
0.90
339
0.97
475
1.52
335
1.26
394
1.33
402
1.38
376
1.24
367
1.18
442
6.75
542
0.75
343
0.34
453
0.23
406
0.34
451
0.29
433
0.42
455
0.27
367
DeepPruner_ROBtwo views0.74
312
0.48
426
0.87
322
0.57
312
0.44
339
0.79
297
0.54
320
1.73
389
0.96
227
1.38
419
1.27
331
1.24
367
0.73
265
1.43
302
0.73
337
0.34
453
0.28
446
0.27
372
0.26
389
0.31
394
0.31
409
FBW_ROBtwo views1.71
509
0.62
481
1.45
468
0.67
420
0.61
440
1.81
491
1.08
493
2.52
538
1.70
499
1.77
490
1.73
461
1.98
495
1.25
457
12.57
579
1.84
495
0.34
453
0.37
499
0.56
522
0.38
487
0.45
471
0.43
468
SANettwo views1.88
517
0.57
461
2.18
518
0.63
378
0.40
307
2.80
539
1.57
529
2.39
532
5.88
568
2.36
527
3.57
537
3.72
545
2.97
550
4.74
494
1.76
492
0.34
453
0.30
461
0.32
432
0.29
433
0.48
483
0.37
442
CBMVpermissivetwo views0.95
397
0.44
408
0.66
183
0.53
244
0.35
244
1.53
464
1.63
532
1.69
380
1.42
470
2.00
513
1.60
437
1.43
408
1.17
438
1.59
334
0.99
406
0.34
453
0.34
481
0.39
479
0.33
467
0.33
412
0.32
415
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
rvit_0105_3two views0.63
234
0.44
408
1.08
406
0.72
453
0.40
307
0.64
203
0.71
409
1.03
183
1.17
345
0.82
182
0.70
128
0.80
212
0.70
255
0.91
159
0.56
281
0.35
460
0.34
481
0.34
451
0.32
457
0.27
344
0.28
379
CASStwo views0.65
254
0.34
334
0.72
229
0.56
296
0.27
92
0.78
291
0.42
202
1.59
354
0.86
190
1.30
380
1.25
321
0.87
245
0.84
319
0.84
137
0.54
275
0.35
460
0.19
336
0.26
355
0.21
292
0.28
363
0.42
461
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
Anonymous3two views0.61
223
0.44
408
1.11
414
0.59
331
0.49
368
0.93
354
0.65
387
0.93
141
0.81
178
0.72
158
0.88
173
0.65
169
0.69
250
1.06
204
0.53
269
0.35
460
0.30
461
0.26
355
0.26
389
0.31
394
0.27
367
NCCL2two views1.00
415
0.56
457
1.06
397
0.75
469
0.57
417
1.31
434
1.72
533
1.77
406
1.36
444
1.50
450
1.17
294
1.91
485
1.17
438
1.54
325
1.29
448
0.35
460
0.31
467
0.45
496
0.44
501
0.40
447
0.40
452
Syn2CoExtwo views1.14
451
0.69
491
1.66
486
0.80
482
0.67
459
1.40
449
0.88
454
2.06
487
1.54
486
1.25
357
1.58
435
1.42
407
1.50
489
4.09
481
1.40
463
0.36
464
0.32
475
0.34
451
0.29
433
0.29
374
0.34
426
stereogantwo views1.15
455
0.42
402
1.40
456
0.86
504
0.84
505
2.38
524
0.71
409
1.88
440
1.73
503
1.72
486
1.94
488
2.31
512
1.29
462
2.07
399
1.08
417
0.36
464
0.35
492
0.39
479
0.31
449
0.51
491
0.46
476
SGM-ForestMtwo views6.52
568
0.38
379
1.26
438
0.63
378
0.35
244
13.59
578
5.32
575
6.32
574
6.70
570
11.14
580
9.18
573
22.51
590
13.93
579
16.89
581
20.07
581
0.36
464
0.37
499
0.36
467
0.35
478
0.36
426
0.34
426
SGM-Foresttwo views1.24
462
0.38
379
0.60
150
0.52
226
0.37
269
1.56
467
1.30
513
1.65
370
1.36
444
2.11
517
1.79
470
1.63
450
0.93
362
7.48
553
0.95
397
0.36
464
0.37
499
0.39
479
0.34
473
0.37
430
0.32
415
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
rvit_stereo_0075_2two views0.64
246
0.46
417
1.05
393
0.66
408
0.66
455
0.53
138
0.48
276
1.20
256
1.12
306
0.76
161
0.92
181
0.78
206
0.53
174
1.03
195
0.59
290
0.37
468
0.28
446
0.40
484
0.31
449
0.37
430
0.32
415
AnyNet_C32two views1.96
522
1.10
527
5.17
549
0.90
516
1.11
529
2.12
514
2.37
561
1.85
432
1.48
477
2.45
531
1.70
458
2.05
503
1.64
499
2.50
438
10.28
567
0.37
468
0.34
481
0.35
459
0.41
494
0.49
486
0.54
496
PS-NSSStwo views0.99
410
0.58
464
0.93
348
0.58
318
0.57
417
0.91
343
0.80
435
1.81
422
1.14
321
1.14
290
1.67
456
1.00
300
0.83
315
4.62
492
0.78
354
0.37
468
0.31
467
0.52
509
0.32
457
0.45
471
0.38
448
LALA_ROBtwo views1.01
421
0.59
467
1.16
424
0.67
420
0.51
386
1.63
472
1.26
512
1.69
380
1.38
452
1.81
498
1.37
371
1.94
490
1.02
406
1.58
332
1.38
459
0.37
468
0.27
439
0.43
491
0.37
485
0.43
461
0.37
442
SHDtwo views1.31
470
0.71
496
2.34
522
0.86
504
0.75
485
1.77
487
0.65
387
2.22
516
2.50
538
2.40
529
1.71
459
1.91
485
1.60
496
1.93
386
2.37
512
0.38
472
0.31
467
0.38
473
0.40
493
0.48
483
0.50
489
ADCPNettwo views1.85
515
0.69
491
8.07
559
0.71
449
0.58
426
2.79
538
1.22
507
1.94
459
1.54
486
1.88
503
1.69
457
2.46
521
2.04
526
2.37
427
6.48
549
0.38
472
0.37
499
0.38
473
0.43
499
0.47
478
0.45
473
XPNet_ROBtwo views0.96
398
0.49
429
1.09
409
0.72
453
0.57
417
1.11
396
1.14
499
1.66
375
1.23
380
1.85
501
1.39
380
1.64
453
1.11
427
1.80
371
1.42
471
0.38
472
0.30
461
0.33
441
0.29
433
0.37
430
0.34
426
ISRNettwo views0.80
343
0.33
310
1.07
402
0.81
485
0.66
455
0.60
181
0.34
109
1.19
254
1.13
318
1.59
471
1.53
417
1.35
397
0.77
281
1.27
258
0.94
393
0.39
475
0.34
481
0.43
491
0.38
487
0.34
416
0.49
487
Wz-Net-TNSevtwo views1.88
517
2.08
564
7.66
557
0.67
420
0.64
450
2.42
525
1.83
539
2.33
525
1.74
505
1.57
468
1.56
428
2.58
523
1.90
520
4.86
497
3.12
525
0.39
475
0.37
499
0.33
441
0.37
485
0.53
495
0.58
505
psmorigintwo views1.52
490
0.69
491
10.52
568
0.68
431
0.59
434
1.13
400
0.70
407
1.57
352
1.19
360
1.99
510
1.79
470
2.26
509
1.47
484
2.09
401
1.36
457
0.39
475
0.40
510
0.34
451
0.33
467
0.43
461
0.56
500
S-Stereotwo views1.15
455
0.46
417
2.17
516
0.81
485
0.80
499
1.21
420
1.19
505
1.93
457
2.02
522
1.47
441
2.11
499
1.57
437
1.17
438
2.05
398
1.41
467
0.40
478
0.40
510
0.35
459
0.31
449
0.44
467
0.70
522
Nwc_Nettwo views1.09
439
0.49
429
1.33
450
0.89
515
0.80
499
1.49
461
0.66
392
2.19
512
1.27
400
1.32
394
2.26
506
1.96
493
1.54
490
1.92
383
1.34
453
0.40
478
0.30
461
0.43
491
0.45
503
0.38
439
0.37
442
RTStwo views2.67
544
1.38
539
15.28
573
0.99
526
1.26
541
3.78
552
1.96
547
2.15
499
2.62
541
2.61
534
2.85
527
2.60
524
1.59
494
6.27
530
5.71
547
0.40
478
0.28
446
0.35
459
0.35
478
0.50
487
0.48
483
RTSAtwo views2.67
544
1.38
539
15.28
573
0.99
526
1.26
541
3.78
552
1.96
547
2.15
499
2.62
541
2.61
534
2.85
527
2.60
524
1.59
494
6.27
530
5.71
547
0.40
478
0.28
446
0.35
459
0.35
478
0.50
487
0.48
483
rvit_105_1two views0.72
289
0.52
443
1.01
377
0.78
477
0.49
368
0.75
272
0.87
451
1.12
231
1.18
352
0.99
226
0.79
155
0.90
258
0.77
281
1.26
255
0.75
343
0.41
482
0.36
497
0.36
467
0.41
494
0.30
385
0.33
421
ADCStwo views2.25
531
0.99
521
5.55
550
0.81
485
0.74
478
2.19
516
1.80
536
2.27
521
2.14
527
2.80
542
2.13
501
2.40
517
2.03
525
2.64
445
13.69
572
0.41
482
0.39
508
0.40
484
0.45
503
0.58
504
0.56
500
AnyNet_C01two views2.26
532
1.78
553
10.22
566
0.93
522
0.74
478
2.92
541
2.20
556
2.29
523
1.80
508
2.53
533
2.41
514
2.71
528
1.73
506
3.41
470
6.72
551
0.41
482
0.39
508
0.40
484
0.42
497
0.67
518
0.63
513
LSMtwo views6.33
567
1.10
527
13.19
570
1.41
544
68.17
595
1.64
474
1.90
544
1.92
453
2.46
534
2.99
546
3.11
531
1.88
480
1.80
512
2.61
443
2.06
507
0.41
482
0.58
541
0.50
506
0.57
524
0.64
513
17.66
589
dadtwo views0.86
374
0.66
486
1.06
397
0.56
296
0.37
269
0.76
278
0.44
234
1.17
241
1.50
480
1.44
436
1.27
331
1.34
396
0.75
269
2.52
439
0.84
376
0.42
486
0.27
439
0.83
535
0.26
389
0.41
450
0.29
385
FINETtwo views0.97
404
0.54
448
1.60
483
0.63
378
0.79
494
1.08
392
1.07
492
1.56
351
2.20
529
1.15
296
1.49
410
0.94
275
0.88
340
2.32
423
1.05
411
0.42
486
0.35
492
0.32
432
0.28
421
0.43
461
0.38
448
FAT-Stereotwo views1.07
433
0.41
398
1.32
448
0.72
453
0.58
426
1.08
392
0.89
456
1.96
462
1.65
494
1.75
488
1.98
489
2.03
501
1.48
485
2.02
394
1.18
437
0.42
486
0.35
492
0.34
451
0.29
433
0.35
419
0.53
495
edge stereotwo views1.11
444
0.50
436
1.30
444
0.71
449
0.65
452
1.14
401
0.75
418
1.93
457
1.37
448
1.71
485
1.83
474
2.54
522
1.44
479
2.43
431
1.23
439
0.42
486
0.41
512
0.54
515
0.35
478
0.42
455
0.46
476
DeepPrunerFtwo views1.60
496
0.73
497
5.81
553
0.88
512
1.19
538
0.91
343
0.95
472
2.19
512
5.24
566
1.17
315
1.30
341
1.19
355
1.30
466
4.90
499
1.66
490
0.42
486
0.34
481
0.52
509
0.47
508
0.41
450
0.40
452
GASNettwo views0.99
410
0.97
518
1.72
491
0.98
525
0.68
465
0.83
321
0.67
396
1.60
358
1.28
405
1.31
390
1.22
311
1.22
360
1.21
451
2.41
430
1.41
467
0.43
491
0.26
430
0.36
467
0.34
473
0.55
499
0.31
409
NVstereo2Dtwo views0.92
389
0.41
398
1.48
475
0.72
453
0.72
472
1.20
418
0.87
451
1.75
396
1.38
452
0.99
226
1.13
274
1.26
375
0.98
389
2.21
415
0.89
386
0.43
491
0.20
354
0.38
473
0.24
357
0.57
502
0.63
513
CBMV_ROBtwo views0.90
384
0.44
408
0.63
162
0.51
205
0.37
269
1.25
425
0.49
286
1.77
406
1.27
400
1.41
428
2.00
492
1.33
392
1.08
422
2.17
408
0.76
346
0.43
491
0.42
514
0.47
501
0.44
501
0.41
450
0.36
437
CSANtwo views1.41
483
0.59
467
1.26
438
0.70
441
0.50
375
1.76
484
1.78
535
1.77
406
1.90
515
2.35
525
2.32
508
1.92
488
1.94
522
5.56
517
1.49
481
0.43
491
0.35
492
0.40
484
0.41
494
0.43
461
0.41
457
MeshStereopermissivetwo views2.26
532
0.56
457
0.92
346
0.61
357
0.49
368
2.60
531
1.02
485
3.18
549
2.05
524
7.40
577
4.98
554
7.58
565
2.98
551
6.37
532
1.96
502
0.43
491
0.43
515
0.45
496
0.39
489
0.43
461
0.42
461
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
RGCtwo views1.14
451
0.79
505
1.26
438
0.91
519
0.96
521
1.52
463
0.77
424
1.92
453
1.26
394
1.54
460
1.93
486
2.02
500
1.54
490
2.25
418
1.31
450
0.44
496
0.35
492
0.58
525
0.48
510
0.47
478
0.46
476
HBP-ISPtwo views0.96
398
0.58
464
0.72
229
0.61
357
0.46
358
1.64
474
0.76
421
1.86
435
1.28
405
1.30
380
1.53
417
0.86
241
0.94
367
3.27
467
0.69
325
0.45
497
0.44
518
0.54
515
0.48
510
0.47
478
0.40
452
DGSMNettwo views1.14
451
0.76
503
2.49
526
0.81
485
0.86
510
1.39
447
1.39
518
2.13
493
1.35
440
1.26
361
1.63
448
1.48
425
0.98
389
1.75
362
1.10
422
0.45
497
0.43
515
0.55
519
0.49
513
0.75
524
0.70
522
MFN_U_SF_DS_RVCtwo views1.74
511
0.87
513
3.56
538
0.80
482
0.75
485
3.72
551
2.44
563
1.82
423
1.82
510
1.74
487
1.91
485
1.92
488
1.26
459
7.69
556
1.28
447
0.45
497
0.47
526
0.52
509
0.77
538
0.50
487
0.50
489
NCC-stereotwo views1.10
441
0.54
448
1.24
435
0.84
497
0.94
518
1.29
430
0.89
456
2.01
475
1.34
430
1.32
394
1.74
463
1.88
480
1.74
507
2.35
425
1.25
441
0.45
497
0.37
499
0.45
496
0.58
525
0.42
455
0.42
461
Abc-Nettwo views1.10
441
0.54
448
1.24
435
0.84
497
0.94
518
1.29
430
0.89
456
2.01
475
1.34
430
1.32
394
1.74
463
1.88
480
1.74
507
2.35
425
1.25
441
0.45
497
0.37
499
0.45
496
0.58
525
0.42
455
0.42
461
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
NOSS_ROBtwo views1.26
465
0.46
417
0.62
159
0.56
296
0.38
286
1.06
389
0.78
426
1.73
389
1.40
462
1.01
234
1.43
389
1.10
336
0.75
269
10.62
576
0.65
312
0.45
497
0.43
515
0.48
503
0.45
503
0.44
467
0.41
457
SAMSARAtwo views1.55
492
0.84
508
2.61
529
1.22
538
1.07
525
2.50
528
1.93
545
2.05
482
1.89
513
2.75
539
1.66
454
2.81
530
1.69
505
3.08
461
1.97
503
0.46
503
0.51
533
0.42
489
0.46
506
0.58
504
0.59
507
PVDtwo views1.70
506
0.84
508
2.26
520
0.94
524
0.83
504
2.48
527
0.97
475
2.59
541
3.35
551
3.01
548
2.77
525
2.34
514
2.47
543
2.67
446
3.14
526
0.47
504
0.45
522
0.59
526
0.48
510
0.59
506
0.75
527
AF-Nettwo views1.13
449
0.52
443
1.33
450
0.86
504
0.91
514
1.38
445
0.71
409
2.16
502
1.62
492
1.56
464
2.40
513
1.99
496
1.65
500
1.81
373
1.48
480
0.48
505
0.28
446
0.49
505
0.33
467
0.39
443
0.32
415
G-Nettwo views1.66
501
0.63
482
1.56
480
1.11
535
0.74
478
2.98
543
0.91
461
1.55
348
1.22
377
2.76
540
8.18
571
2.32
513
2.53
545
1.92
383
1.87
496
0.48
505
0.44
518
0.45
496
0.31
449
0.60
510
0.57
504
XQCtwo views1.37
477
0.87
513
2.56
528
0.84
497
0.69
467
1.83
494
0.89
456
2.07
488
1.88
512
1.88
503
1.53
417
1.91
485
1.55
492
2.85
452
3.05
523
0.48
505
0.29
457
0.44
495
0.39
489
0.69
520
0.60
510
DPSNettwo views1.69
505
0.59
467
4.33
544
0.70
441
0.57
417
2.02
509
1.62
531
3.35
552
1.78
506
1.48
447
1.38
376
2.17
506
2.84
548
4.77
495
3.66
534
0.48
505
0.31
467
0.29
398
0.25
372
0.64
513
0.48
483
BEATNet-Init1two views26.87
588
13.43
584
70.68
598
0.91
519
0.68
465
57.02
598
21.06
583
32.82
594
32.67
591
52.12
599
53.61
598
66.05
599
49.56
599
48.79
600
34.71
593
0.49
509
0.44
518
0.53
514
0.53
520
0.63
511
0.59
507
UDGNettwo views0.72
289
1.17
535
0.80
294
0.77
475
0.41
316
0.77
286
0.38
159
0.97
161
1.34
430
0.81
178
0.88
173
0.71
190
0.60
213
1.21
243
0.54
275
0.52
510
0.19
336
1.02
543
0.26
389
0.71
522
0.31
409
FCDSN-DCtwo views2.32
534
0.63
482
0.81
295
0.84
497
0.75
485
2.23
517
0.94
470
2.09
491
1.80
508
5.45
570
7.72
568
7.77
567
6.93
574
3.39
468
1.80
494
0.52
510
0.48
527
0.52
509
0.51
518
0.57
502
0.58
505
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_RVCtwo views1.52
490
0.84
508
3.42
537
0.87
511
0.66
455
2.56
530
0.95
472
2.36
528
1.70
499
1.98
509
1.86
479
2.45
520
1.79
511
2.95
454
2.58
515
0.52
510
0.48
527
0.55
519
0.59
528
0.59
506
0.61
511
RPtwo views1.09
439
0.50
436
1.12
416
0.90
516
1.04
524
1.11
396
0.84
442
1.80
419
1.62
492
1.55
463
2.00
492
1.90
484
1.78
510
1.84
374
1.25
441
0.52
510
0.36
497
0.48
503
0.36
482
0.45
471
0.43
468
MSMD_ROBtwo views1.99
525
0.59
467
0.89
335
0.70
441
0.61
440
3.95
556
0.94
470
1.80
419
1.79
507
4.41
560
4.43
544
8.17
568
3.66
557
3.40
469
1.33
451
0.52
510
0.48
527
0.54
515
0.58
525
0.53
495
0.50
489
WCMA_ROBtwo views1.84
514
0.47
422
1.31
445
0.69
435
0.57
417
2.11
513
1.14
499
1.87
437
1.73
503
4.04
556
6.43
559
5.62
559
3.61
556
2.59
441
1.94
501
0.52
510
0.44
518
0.39
479
0.42
497
0.48
483
0.47
480
FC-DCNN v2copylefttwo views2.81
550
0.59
467
0.85
305
0.73
461
0.57
417
2.97
542
1.05
489
3.39
553
2.61
540
6.98
573
7.67
567
10.38
575
6.31
571
5.75
522
3.37
532
0.53
516
0.48
527
0.51
507
0.50
515
0.53
495
0.51
493
FC-DCNNcopylefttwo views2.72
549
0.59
467
0.86
311
0.73
461
0.57
417
2.91
540
1.04
487
3.01
547
2.60
539
6.83
572
7.64
566
9.92
572
6.33
572
5.21
504
3.14
526
0.53
516
0.48
527
0.51
507
0.50
515
0.53
495
0.51
493
GANetREF_RVCpermissivetwo views1.07
433
0.86
512
1.31
445
0.82
493
0.53
401
1.41
454
1.31
514
1.76
402
1.52
483
1.27
364
1.31
347
1.46
418
1.24
456
2.03
395
0.96
401
0.56
518
0.45
522
0.67
530
0.50
515
0.88
529
0.59
507
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
DualNet (step1)two views0.83
360
0.49
429
1.13
418
0.56
296
0.39
296
1.02
380
0.73
413
1.78
410
1.21
371
1.22
337
1.18
296
1.08
324
0.92
353
1.23
246
0.67
318
0.57
519
0.28
446
0.62
527
0.67
533
0.45
471
0.42
461
test_sample9two views1.86
516
0.49
429
1.13
418
0.56
296
0.39
296
1.02
380
0.73
413
1.78
410
1.21
371
1.22
337
1.18
296
1.08
324
0.92
353
2.27
420
7.92
559
0.57
519
12.61
588
0.62
527
0.67
533
0.45
471
0.42
461
test_sample8two views2.19
530
0.49
429
1.13
418
0.56
296
0.39
296
1.02
380
0.73
413
1.82
423
1.15
333
2.26
520
1.30
341
4.94
554
2.52
544
2.27
420
7.92
559
0.57
519
12.61
588
0.62
527
0.67
533
0.45
471
0.42
461
ccnettwo views1.12
446
0.67
487
1.01
377
0.78
477
0.73
477
1.72
480
0.99
480
1.84
431
1.26
394
1.47
441
1.85
478
1.75
470
1.29
462
1.75
362
1.88
498
0.57
519
0.53
535
0.57
524
0.55
522
0.59
506
0.54
496
MANEtwo views6.19
566
0.59
467
1.03
388
0.93
522
1.22
540
13.38
577
2.69
564
12.81
581
17.94
585
8.21
578
10.82
576
14.72
578
11.68
576
11.39
578
11.90
570
0.59
523
0.50
532
0.52
509
1.76
568
0.55
499
0.54
496
PWCDC_ROBbinarytwo views1.29
466
0.75
502
1.33
450
1.05
530
0.88
513
1.73
481
0.52
306
1.89
443
3.28
550
1.29
372
4.88
553
1.22
360
1.46
482
1.77
369
1.45
475
0.60
524
0.26
430
0.29
398
0.25
372
0.52
493
0.37
442
PASMtwo views1.34
474
0.92
516
2.62
530
0.86
504
0.87
512
1.03
383
1.08
493
1.50
326
1.51
482
1.82
499
1.41
384
1.68
459
1.26
459
4.87
498
1.34
453
0.61
525
0.65
546
0.68
531
0.78
539
0.69
520
0.68
521
Anonymous_2two views1.30
468
0.55
453
0.82
298
0.52
226
0.58
426
1.01
378
0.64
385
1.25
273
0.97
234
0.96
216
0.78
149
1.33
392
1.29
462
1.03
195
0.74
338
0.62
526
0.64
544
1.06
544
9.63
584
1.16
539
0.49
487
ELAScopylefttwo views2.37
536
0.74
500
1.54
479
0.99
526
0.92
516
4.78
562
2.33
560
3.33
551
3.37
552
5.05
568
4.77
552
3.67
543
4.53
564
3.42
471
4.50
542
0.62
526
0.53
535
0.55
519
0.53
520
0.63
511
0.64
517
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAS_RVCcopylefttwo views2.48
541
0.74
500
1.90
503
1.05
530
0.92
516
2.76
536
4.01
572
2.76
542
4.11
560
4.69
563
4.63
548
4.62
549
5.96
569
3.97
480
3.96
539
0.63
528
0.53
535
0.56
522
0.52
519
0.64
513
0.63
513
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MSC_U_SF_DS_RVCtwo views2.12
527
1.15
533
3.10
535
1.05
530
0.76
488
5.03
565
2.40
562
2.16
502
2.62
541
1.89
505
2.28
507
2.69
527
1.65
500
9.35
568
2.04
505
0.64
529
0.51
533
0.68
531
0.71
536
1.09
538
0.67
519
SDNRtwo views1.62
499
0.51
439
2.17
516
0.53
244
0.56
414
3.80
554
0.45
251
1.54
344
1.29
409
1.33
402
2.41
514
1.08
324
0.96
379
11.18
577
1.16
431
0.66
530
0.63
543
0.43
491
0.32
457
0.64
513
0.67
519
PSMNet-RUCAtwo views1.02
424
0.97
518
1.44
463
1.23
539
1.10
527
1.40
449
0.62
378
1.69
380
1.38
452
0.94
212
1.53
417
0.97
291
0.83
315
1.17
235
0.93
391
0.69
531
0.34
481
0.99
541
0.60
529
0.97
531
0.64
517
Consistency-Rafttwo views1.25
464
0.99
521
1.93
505
1.02
529
1.21
539
0.96
365
1.01
484
1.75
396
1.92
516
1.36
411
2.12
500
1.44
413
1.01
401
1.14
226
1.40
463
0.72
532
0.82
550
0.89
537
0.98
552
1.31
544
0.95
535
MADNet+two views2.69
546
3.22
575
11.53
569
1.44
545
1.12
531
3.19
545
1.81
537
2.85
544
2.37
531
1.68
483
2.07
498
2.85
532
2.18
533
7.41
550
5.23
545
0.79
533
0.76
548
0.69
533
0.65
532
0.98
532
0.95
535
JetBluetwo views3.97
556
2.01
559
10.19
565
1.38
541
2.84
567
10.53
573
9.54
576
3.60
555
2.41
533
2.73
538
3.39
535
4.54
548
4.31
562
7.85
559
6.84
552
0.88
534
0.93
561
0.89
537
0.91
546
1.74
545
1.91
556
UDGtwo views1.41
483
2.65
570
0.99
368
1.44
545
1.64
549
1.34
439
0.80
435
1.60
358
1.23
380
1.23
343
1.71
459
2.01
498
1.34
470
1.47
312
1.41
467
0.90
535
0.54
538
2.29
555
0.75
537
1.84
546
1.04
540
MFMNet_retwo views1.40
482
1.14
532
1.68
487
1.39
542
1.07
525
1.48
459
1.43
520
1.87
437
1.82
510
2.26
520
2.19
503
1.51
429
1.86
517
1.52
319
1.25
441
0.93
536
0.83
551
0.84
536
0.80
540
0.99
534
1.05
542
PMTNettwo views0.46
119
0.21
30
0.38
8
0.37
13
0.23
25
0.71
256
0.27
54
0.74
70
1.04
266
0.64
142
0.70
128
0.55
128
0.47
135
0.86
146
0.35
114
1.00
537
0.13
117
0.15
25
0.10
2
0.15
43
0.13
38
PDISCO_ROBtwo views1.32
472
0.65
485
1.44
463
1.36
540
1.46
547
2.55
529
0.92
463
2.45
536
2.07
525
1.37
414
1.49
410
1.65
456
1.00
399
2.82
449
1.35
456
1.01
538
0.27
439
0.54
515
0.47
508
0.71
522
0.73
525
DispFullNettwo views2.34
535
2.85
572
3.66
539
3.08
566
2.27
557
1.97
505
0.67
396
2.00
471
1.70
499
2.52
532
2.00
492
2.23
507
5.86
567
3.44
473
1.58
485
1.01
538
0.32
475
2.64
566
1.94
571
2.85
561
2.24
560
anonymitytwo views1.12
446
0.97
518
1.21
429
1.07
533
1.12
531
1.08
392
0.89
456
1.95
461
1.16
342
1.29
372
1.26
328
1.22
360
1.09
425
1.15
227
1.01
408
1.02
540
1.00
563
0.97
539
0.97
550
0.98
532
0.99
537
SPS-STEREOcopylefttwo views1.67
502
1.04
524
1.23
432
1.21
537
1.13
533
1.82
493
1.11
495
2.16
502
1.52
483
3.07
550
2.32
508
2.82
531
1.80
512
4.11
482
2.04
505
1.03
541
0.99
562
0.97
539
0.94
548
1.03
537
1.02
538
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM+DAISYtwo views2.41
539
1.07
525
2.14
515
1.18
536
1.10
527
2.14
515
1.36
517
1.96
462
1.66
495
5.46
571
7.07
562
4.95
555
4.32
563
5.50
514
2.26
511
1.04
542
1.02
565
0.99
541
0.97
550
1.02
535
1.04
540
NVStereoNet_ROBtwo views1.88
517
1.07
525
1.45
468
1.07
533
1.17
535
1.47
458
1.48
524
1.89
443
1.93
518
1.94
508
4.67
551
3.08
537
1.80
512
6.51
534
1.65
488
1.06
543
0.86
557
1.08
545
1.32
557
0.93
530
1.26
546
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
CC-Net-ROBtwo views1.49
486
1.26
538
1.27
441
0.88
512
0.79
494
1.76
484
1.00
482
1.79
416
1.26
394
1.10
264
1.61
441
1.21
358
0.99
397
8.13
560
0.84
376
1.09
544
0.41
512
2.20
553
0.46
506
1.20
542
0.48
483
DDUNettwo views1.50
488
2.69
571
1.12
416
1.77
549
1.88
551
1.84
495
0.92
463
1.70
385
1.16
342
1.38
419
1.79
470
1.60
443
1.12
430
1.37
284
1.08
417
1.10
545
0.76
548
2.37
557
0.94
548
2.00
547
1.37
548
WAO-7two views2.66
543
1.40
542
1.73
493
1.39
542
1.17
535
3.93
555
1.94
546
4.11
559
3.88
558
2.92
544
5.50
555
4.18
547
3.00
552
7.63
555
3.71
535
1.13
546
1.00
563
1.17
546
1.13
556
1.18
541
1.09
544
GCSTcopylefttwo views1.08
436
1.47
547
0.93
348
1.73
548
1.14
534
1.30
432
0.31
82
1.33
282
1.16
342
1.29
372
0.97
200
0.98
293
0.49
154
2.08
400
0.46
224
1.19
547
0.70
547
1.30
547
0.85
544
1.02
535
0.89
533
IGEV-BASED-STEREO-two views0.70
280
3.18
574
2.55
527
0.39
34
0.23
25
0.44
62
0.23
27
0.63
37
0.42
47
0.44
72
0.44
48
0.34
49
0.28
25
0.56
42
0.29
40
1.35
548
0.10
9
0.22
239
0.19
216
0.46
477
1.31
547
WAO-6two views2.81
550
1.60
550
1.46
470
2.36
556
2.28
558
3.55
549
2.29
559
4.21
560
4.56
564
2.36
527
4.51
545
4.88
553
2.66
546
4.60
491
4.07
541
1.72
549
1.15
569
2.31
556
1.46
563
2.31
548
1.85
555
MaskLacGwcNet_RVCtwo views1.10
441
1.02
523
1.00
373
0.82
493
0.67
459
1.93
502
0.93
467
1.62
365
1.11
302
1.15
296
1.25
321
1.50
427
0.79
292
1.96
389
0.76
346
1.89
550
0.34
481
0.79
534
0.36
482
1.25
543
0.83
530
WAO-8two views4.40
558
1.82
556
1.79
496
2.34
554
2.20
553
9.19
570
1.53
525
6.09
571
16.46
579
3.94
554
7.84
569
7.32
562
3.72
559
9.41
570
3.31
529
2.00
551
1.07
566
2.44
562
1.37
561
2.50
551
1.68
552
Venustwo views4.40
558
1.82
556
1.79
496
2.34
554
2.20
553
9.19
570
1.53
525
6.09
571
16.46
579
3.94
554
7.84
569
7.32
562
3.72
559
9.41
570
3.31
529
2.00
551
1.07
566
2.44
562
1.37
561
2.50
551
1.68
552
PWCKtwo views2.88
552
2.05
562
5.72
552
2.08
551
1.11
529
3.55
549
3.90
571
2.86
545
3.54
556
3.03
549
3.63
538
3.10
538
2.31
538
8.15
562
3.09
524
2.12
553
0.91
560
1.75
550
0.98
552
2.57
553
1.18
545
CAStwo views0.63
234
0.18
1
0.37
5
2.27
553
0.84
505
0.57
165
0.54
320
0.79
86
0.62
110
0.48
96
0.70
128
0.36
53
0.26
19
0.45
13
0.35
114
2.24
554
0.10
9
0.14
3
0.09
1
0.15
43
1.06
543
test_for_modeltwo views1.30
468
3.71
577
0.58
138
3.22
567
2.84
567
0.59
173
0.33
97
1.40
301
0.83
184
1.42
434
0.61
103
0.52
118
0.37
80
0.51
25
0.33
87
2.46
555
0.15
227
0.16
55
0.11
9
4.39
577
1.50
550
SQANettwo views1.31
470
0.88
515
1.08
406
1.83
550
1.44
546
1.44
456
0.75
418
1.74
394
1.09
293
1.32
394
1.26
328
1.28
382
1.01
401
1.50
316
0.83
373
2.50
556
0.34
481
1.47
548
0.55
522
2.32
549
1.57
551
ACVNet_2two views2.43
540
1.41
543
2.04
508
2.62
558
2.24
556
2.63
534
1.88
543
3.31
550
3.01
547
2.19
518
3.45
536
4.62
549
2.04
526
4.50
490
1.47
479
2.55
557
0.64
544
2.22
554
0.84
542
2.69
555
2.29
561
JetRedtwo views6.91
570
8.80
581
25.96
584
2.85
561
3.25
572
13.98
580
11.87
578
6.25
573
4.28
562
4.45
561
4.56
546
6.69
561
5.46
566
7.46
552
14.05
573
2.59
558
3.31
576
2.59
565
2.29
575
4.20
574
3.36
575
testlalala_basetwo views0.77
328
0.40
390
0.70
211
0.65
401
0.50
375
0.79
297
0.28
60
1.50
326
0.51
81
0.73
159
0.90
177
0.69
183
0.54
179
0.66
81
0.40
162
2.82
559
0.14
169
0.17
82
0.12
43
2.68
554
0.19
219
DPSimNet_ROBtwo views11.20
580
4.98
578
35.43
588
2.90
564
4.52
578
7.89
569
17.09
581
4.66
563
6.06
569
14.89
584
10.93
577
17.29
581
36.81
593
13.18
580
15.68
577
2.86
560
6.29
581
5.75
582
5.09
580
3.91
572
7.70
581
otakutwo views1.60
496
1.11
530
1.21
429
2.20
552
1.56
548
1.97
505
1.24
508
2.07
488
1.36
444
1.44
436
1.62
444
1.73
465
1.19
445
1.73
361
0.98
405
2.89
561
0.57
540
1.74
549
0.60
529
2.78
556
1.94
557
Ntrotwo views1.64
500
1.15
533
1.23
432
2.48
557
1.83
550
2.09
512
1.16
502
1.96
462
1.38
452
1.21
332
1.62
444
1.62
445
1.29
462
1.87
380
1.11
425
3.04
562
0.56
539
1.82
551
0.64
531
2.80
557
2.05
558
ACVNet_1two views2.18
529
1.45
546
1.72
491
2.85
561
2.33
560
2.28
519
1.46
522
3.08
548
2.22
530
1.82
499
2.05
497
3.56
541
1.98
524
3.09
462
1.40
463
3.17
563
0.60
542
2.40
561
0.92
547
2.91
563
2.37
562
Deantwo views2.91
553
1.53
549
2.07
509
2.96
565
2.51
562
3.15
544
2.14
554
4.75
564
4.41
563
2.76
540
6.10
558
5.53
558
2.37
539
2.97
456
1.92
500
3.18
564
0.85
555
2.51
564
1.04
555
2.88
562
2.47
565
LVEtwo views3.31
555
1.67
551
1.64
484
2.85
561
2.42
561
3.20
546
2.26
558
4.78
565
5.05
565
2.35
525
6.91
560
6.02
560
2.37
539
9.15
564
2.17
510
3.19
565
1.08
568
2.38
559
1.47
564
2.81
558
2.40
564
ACVNet-4btwo views2.15
528
1.41
543
1.64
484
2.80
559
2.31
559
2.31
521
1.24
508
2.32
524
2.14
527
1.26
361
2.39
512
2.66
526
1.48
485
5.95
527
1.06
413
3.20
566
0.45
522
2.37
557
0.89
545
2.83
560
2.37
562
TorneroNet-64two views5.30
565
2.03
560
1.74
494
3.43
571
2.81
566
10.09
572
2.12
553
9.10
578
17.12
584
4.96
567
9.27
574
10.72
577
3.70
558
9.20
565
4.55
543
3.31
567
0.84
552
2.88
570
1.55
566
3.49
568
3.04
571
RainbowNettwo views1.97
523
1.76
552
1.57
481
2.81
560
2.21
555
1.98
507
1.81
537
2.54
539
1.89
513
1.50
450
1.84
476
1.96
493
1.65
500
2.14
405
1.25
441
3.33
568
0.85
555
2.39
560
0.98
552
2.82
559
2.22
559
KSHMRtwo views8.75
574
2.06
563
2.11
513
3.53
573
3.11
570
4.13
559
2.69
564
5.60
568
61.37
599
3.00
547
55.83
599
4.98
557
2.45
542
4.49
488
2.61
518
3.46
569
1.55
573
3.14
573
1.94
571
3.72
570
3.18
573
TorneroNettwo views10.70
578
2.03
560
1.82
499
3.43
571
3.01
569
43.83
593
2.22
557
8.87
577
67.47
600
7.17
576
27.36
588
10.68
576
3.85
561
8.67
563
7.65
558
3.59
570
0.88
558
3.04
571
1.57
567
3.71
569
3.17
572
UNDER WATER-64two views5.27
564
2.32
566
8.78
563
3.93
577
3.54
575
7.61
568
3.03
570
5.84
570
14.19
575
4.04
556
4.04
542
9.39
571
6.26
570
5.93
526
8.48
561
3.60
571
1.51
572
3.13
572
1.88
569
4.29
575
3.61
576
IMH-64-1two views2.70
547
1.79
554
1.46
470
3.26
569
2.66
563
3.23
547
2.10
551
4.08
557
2.75
545
2.34
523
3.81
540
3.06
535
2.22
536
4.25
484
2.59
516
3.75
572
0.84
552
2.75
567
1.35
558
3.15
565
2.60
568
IMH-64two views2.70
547
1.79
554
1.46
470
3.26
569
2.66
563
3.23
547
2.10
551
4.08
557
2.75
545
2.34
523
3.81
540
3.06
535
2.22
536
4.25
484
2.59
516
3.75
572
0.84
552
2.75
567
1.35
558
3.15
565
2.60
568
UNDER WATERtwo views5.08
563
2.33
567
5.55
550
3.94
578
3.51
574
5.20
566
2.72
566
5.61
569
16.52
581
3.84
553
4.60
547
9.21
570
5.89
568
5.90
524
8.66
562
3.75
572
1.34
570
3.18
574
1.88
569
4.33
576
3.61
576
USTesttwo views14.33
583
14.94
585
21.04
576
17.44
584
16.05
579
23.26
581
33.84
589
21.73
584
11.80
574
9.36
579
10.14
575
15.97
579
13.20
578
17.28
582
22.43
584
3.78
575
5.01
580
6.17
584
6.16
581
9.25
583
7.72
582
IMHtwo views3.21
554
1.85
558
1.48
475
3.25
568
2.69
565
4.07
558
2.02
549
4.41
562
3.80
557
2.72
537
7.11
563
4.75
552
2.92
549
5.92
525
2.55
514
3.85
576
0.88
558
2.78
569
1.36
560
3.19
567
2.59
567
ktntwo views4.70
561
2.38
568
2.12
514
3.76
574
3.24
571
4.85
563
2.95
569
5.52
567
7.37
571
4.07
558
19.32
584
7.46
564
3.47
554
7.39
549
2.95
522
4.04
577
1.85
574
3.26
575
2.22
574
3.08
564
2.65
570
notakertwo views3.98
557
2.40
569
2.68
531
3.82
576
3.27
573
3.97
557
2.14
554
4.78
565
3.45
554
4.12
559
6.94
561
7.65
566
3.26
553
7.82
558
5.30
546
4.04
577
1.41
571
3.36
576
2.10
573
3.88
571
3.31
574
MADNet++two views5.01
562
3.14
573
4.91
547
4.55
580
3.94
577
5.20
566
4.41
573
4.40
561
4.13
561
4.95
566
6.08
557
4.74
551
5.37
565
9.40
569
10.67
569
4.65
579
4.15
579
3.97
578
3.34
577
4.09
573
4.08
579
DGTPSM_ROBtwo views13.01
581
8.23
579
21.87
577
9.51
582
18.10
580
11.56
575
32.01
587
10.63
579
16.20
577
7.03
574
19.48
585
10.15
573
16.66
581
9.83
574
22.42
583
4.75
580
8.68
582
5.37
580
10.25
585
6.16
579
11.36
584
DPSMNet_ROBtwo views13.02
582
8.23
579
21.91
578
9.53
583
18.11
581
11.56
575
32.02
588
10.64
580
16.23
578
7.05
575
19.49
586
10.16
574
16.66
581
9.85
575
22.43
584
4.77
581
8.68
582
5.38
581
10.26
586
6.17
580
11.36
584
TCMNet-wrong-testtwo views10.31
576
11.40
583
14.84
572
20.96
585
18.45
582
13.80
579
10.76
577
15.78
583
3.53
555
5.20
569
5.52
556
16.26
580
12.61
577
7.51
554
10.15
565
7.43
582
2.37
575
4.31
579
3.43
578
11.36
584
10.61
583
HanzoNettwo views11.04
579
3.62
576
8.10
561
4.08
579
3.55
576
4.90
564
2.73
567
7.19
575
10.10
572
31.86
595
28.92
589
21.96
589
36.36
591
18.08
583
10.17
566
7.94
583
3.32
577
3.47
577
3.31
576
7.06
581
4.04
578
tttwo views6.58
569
0.26
131
6.10
554
3.77
575
2.16
552
11.55
574
19.63
582
13.33
582
5.74
567
2.96
545
2.65
522
4.97
556
6.33
572
3.81
477
7.24
553
9.15
584
11.32
587
5.89
583
6.24
582
6.03
578
2.55
566
DLNR_Zeroshot_testpermissivetwo views23.17
587
48.52
601
43.29
591
176.68
600
78.69
596
0.35
21
0.21
15
23.41
586
0.75
157
0.66
147
0.86
168
0.59
150
0.30
33
1.56
329
0.44
197
9.57
585
0.12
56
0.18
117
0.14
95
76.92
599
0.16
128
PMLtwo views51.67
597
36.25
593
13.28
571
7.46
581
20.81
583
108.69
600
232.22
601
8.72
576
27.82
590
87.01
600
269.67
601
69.67
600
61.95
600
24.76
591
14.20
574
9.74
586
3.40
578
9.62
585
4.70
579
18.74
587
4.72
580
DPSM_ROBtwo views19.08
584
19.14
587
25.17
582
22.15
587
20.85
584
28.17
583
37.82
591
26.56
587
16.85
582
14.14
581
14.84
579
21.70
584
18.75
584
21.87
585
26.55
588
10.16
587
9.30
585
10.47
586
10.42
587
14.03
585
12.61
587
DPSMtwo views19.08
584
19.14
587
25.17
582
22.15
587
20.85
584
28.17
583
37.82
591
26.56
587
16.85
582
14.14
581
14.84
579
21.70
584
18.75
584
21.87
585
26.55
588
10.16
587
9.30
585
10.47
586
10.42
587
14.03
585
12.61
587
CasAABBNettwo views38.33
589
38.46
595
50.35
593
44.75
594
41.84
590
56.68
595
76.37
598
53.22
597
33.83
593
28.31
592
29.54
591
43.62
597
37.71
595
43.84
597
53.41
599
20.30
589
18.70
591
21.07
588
21.07
590
28.24
589
25.34
591
Selective-RAFT-Errortwo views38.39
591
38.47
596
50.44
595
44.73
593
41.97
592
56.68
595
76.38
599
53.24
598
33.92
594
28.34
593
29.85
593
43.60
595
38.20
597
43.75
595
53.34
597
20.38
590
18.70
591
21.09
590
21.05
589
28.30
590
25.43
592
FlowAnythingtwo views38.37
590
38.41
594
50.38
594
44.76
595
41.94
591
56.64
594
76.34
597
53.28
599
34.23
595
28.25
591
29.72
592
43.60
595
37.79
596
43.83
596
53.38
598
20.39
591
18.71
593
21.07
588
21.14
592
28.23
588
25.29
590
LSM0two views42.82
595
38.75
597
50.81
596
47.07
596
109.38
600
57.00
597
76.02
596
53.74
600
33.71
592
29.02
594
30.41
594
43.87
598
37.22
594
43.91
598
53.54
600
20.52
592
18.62
590
21.10
591
21.11
591
28.41
591
42.22
594
LRCNet_RVCtwo views22.74
586
32.10
592
21.97
579
29.84
589
26.23
586
4.42
561
0.81
438
22.66
585
2.02
522
26.93
590
29.26
590
23.06
591
15.59
580
23.84
587
18.88
580
31.75
593
19.90
594
34.65
592
32.13
593
30.54
592
28.32
593
xxxxx1two views54.10
598
25.67
589
27.13
585
113.43
597
96.96
597
30.69
587
47.44
593
32.38
591
25.60
586
17.75
585
17.27
581
21.81
586
21.02
586
24.43
588
33.82
590
33.37
594
40.54
595
157.71
598
175.86
598
66.16
596
72.93
598
tt_lltwo views54.10
598
25.67
589
27.13
585
113.43
597
96.96
597
30.69
587
47.44
593
32.38
591
25.60
586
17.75
585
17.27
581
21.81
586
21.02
586
24.43
588
33.82
590
33.37
594
40.54
595
157.71
598
175.86
598
66.16
596
72.93
598
fftwo views54.10
598
25.67
589
27.13
585
113.43
597
96.96
597
30.69
587
47.44
593
32.38
591
25.60
586
17.75
585
17.27
581
21.81
586
21.02
586
24.43
588
33.82
590
33.37
594
40.54
595
157.71
598
175.86
598
66.16
596
72.93
598
HaxPigtwo views38.92
592
41.40
598
41.64
589
29.95
590
32.27
587
28.90
585
27.60
584
29.73
590
37.71
596
43.82
596
43.87
595
33.17
592
35.56
590
41.53
593
40.37
595
43.94
597
47.51
599
45.82
593
47.08
595
42.38
593
44.15
596
AVERAGE_ROBtwo views40.43
593
42.37
599
42.73
590
36.96
592
35.58
589
30.50
586
27.61
585
36.71
596
38.39
597
44.91
597
44.36
596
37.45
594
36.70
592
41.88
594
40.35
594
45.43
598
46.81
598
47.11
594
46.35
594
42.51
594
43.87
595
MEDIAN_ROBtwo views42.00
594
44.40
600
44.29
592
35.15
591
34.95
588
31.28
591
29.60
586
35.88
595
40.02
598
47.20
598
46.64
597
37.37
593
38.48
598
44.35
599
42.45
596
48.03
599
49.39
600
49.71
595
49.03
596
45.14
595
46.65
597
Anonymous_1two views43.04
596
18.73
586
24.79
581
21.81
586
46.26
593
27.80
582
37.60
590
28.08
589
16.14
576
14.66
583
14.30
578
20.65
583
17.88
583
21.56
584
25.94
587
117.93
600
8.92
584
100.65
597
126.50
597
158.64
600
12.08
586
test_example2two views192.40
601
210.76
602
206.48
601
199.83
601
204.73
601
172.94
601
183.52
600
133.93
601
133.41
601
191.38
601
196.19
600
187.13
601
178.77
601
205.33
601
208.00
601
222.09
601
238.72
601
186.54
601
190.54
601
227.34
601
170.31
601
ccccctwo views492.34
603
530.87
602
530.37
602
478.08
602
491.76
602
448.18
602
476.12
602
541.64
602
663.49
602
459.54
602
353.94
602
309.79
602
586.66
602
ASD4two views10.99
582