This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-Stereopermissivetwo views0.11
7
0.09
13
0.09
22
0.08
28
0.06
13
0.12
45
0.03
5
0.05
1
0.05
4
0.05
3
0.06
13
0.12
15
0.05
6
0.05
8
0.46
15
0.34
50
0.22
54
0.10
16
0.21
39
0.12
27
0.13
8
0.12
6
0.04
8
0.05
10
0.08
6
0.10
18
0.13
15
0.06
3
RSMtwo views0.11
7
0.09
13
0.09
22
0.07
20
0.06
13
0.14
60
0.03
5
0.05
1
0.05
4
0.05
3
0.07
17
0.13
21
0.06
16
0.04
1
0.51
21
0.26
16
0.10
3
0.10
16
0.14
16
0.11
20
0.17
20
0.13
9
0.04
8
0.06
18
0.09
12
0.11
22
0.13
15
0.07
9
111111two views0.13
15
0.08
11
0.06
9
0.06
12
0.07
21
0.10
19
0.03
5
0.06
3
0.07
17
0.03
1
0.06
13
0.14
29
0.06
16
0.10
32
0.50
18
0.25
12
0.11
5
0.09
9
0.15
22
0.07
5
0.37
75
0.60
82
0.05
17
0.05
10
0.08
6
0.08
8
0.09
4
0.05
1
MLG-Stereo_test1two views0.11
7
0.06
1
0.04
1
0.04
1
0.05
8
0.36
211
0.03
5
0.06
3
0.06
6
0.07
15
0.04
7
0.09
4
0.05
6
0.06
11
0.38
7
0.33
43
0.12
14
0.09
9
0.13
8
0.06
1
0.17
20
0.18
21
0.03
1
0.03
1
0.07
1
0.07
4
0.12
13
0.07
9
MLG-Stereotwo views0.10
4
0.07
5
0.04
1
0.04
1
0.05
8
0.28
165
0.02
1
0.06
3
0.06
6
0.07
15
0.03
3
0.09
4
0.05
6
0.06
11
0.38
7
0.35
53
0.11
5
0.09
9
0.12
5
0.06
1
0.16
17
0.15
12
0.03
1
0.03
1
0.07
1
0.06
1
0.11
7
0.07
9
AIO-test2two views0.10
4
0.06
1
0.04
1
0.04
1
0.08
30
0.08
11
0.05
29
0.06
3
0.07
17
0.05
3
0.08
23
0.10
7
0.05
6
0.04
1
0.58
31
0.15
1
0.09
1
0.07
2
0.09
1
0.13
37
0.11
3
0.19
24
0.03
1
0.08
32
0.09
12
0.07
4
0.06
1
0.06
3
Pointernettwo views0.09
1
0.06
1
0.06
9
0.04
1
0.03
1
0.07
9
0.31
191
0.06
3
0.04
1
0.05
3
0.06
13
0.08
2
0.04
2
0.04
1
0.25
2
0.33
43
0.09
1
0.06
1
0.09
1
0.16
50
0.09
1
0.09
2
0.03
1
0.04
3
0.07
1
0.06
1
0.13
15
0.08
19
GASTEREOtwo views0.18
35
0.09
13
0.09
22
0.08
28
0.05
8
0.30
175
0.04
18
0.07
8
0.08
26
0.10
29
0.05
11
0.13
21
0.08
29
0.08
21
0.70
60
0.36
60
0.13
21
0.10
16
0.14
16
0.11
20
0.14
10
1.06
148
0.12
91
0.06
18
0.10
16
0.29
137
0.15
24
0.07
9
MSCFtwo views0.18
35
0.09
13
0.09
22
0.08
28
0.06
13
0.30
175
0.03
5
0.07
8
0.09
30
0.10
29
0.05
11
0.13
21
0.08
29
0.09
26
0.72
66
0.35
53
0.13
21
0.10
16
0.14
16
0.12
27
0.14
10
1.03
144
0.11
78
0.06
18
0.10
16
0.36
172
0.14
21
0.07
9
GIP-stereotwo views0.15
24
0.12
28
0.09
22
0.07
20
0.06
13
0.23
135
0.10
77
0.07
8
0.06
6
0.08
20
0.09
31
0.11
13
0.05
6
0.13
48
0.60
35
0.26
16
0.13
21
0.11
24
0.19
33
0.31
140
0.17
20
0.60
82
0.05
17
0.06
18
0.10
16
0.12
28
0.16
28
0.07
9
IGEV-Stereo++two views0.15
24
0.10
20
0.06
9
0.07
20
0.07
21
0.09
15
0.03
5
0.07
8
0.07
17
0.06
8
0.09
31
0.15
31
0.07
25
0.14
58
0.48
16
0.26
16
0.11
5
0.10
16
0.17
26
0.09
10
0.15
13
1.09
152
0.05
17
0.05
10
0.08
6
0.09
13
0.18
38
0.08
19
MoCha-V2two views0.15
24
0.09
13
0.09
22
0.06
12
0.07
21
0.16
79
0.04
18
0.07
8
0.04
1
0.06
8
0.08
23
0.12
15
0.16
79
0.05
8
0.79
81
0.24
10
0.11
5
0.09
9
0.13
8
0.21
89
0.16
17
0.76
107
0.04
8
0.05
10
0.09
12
0.09
13
0.08
3
0.05
1
ProNettwo views0.10
4
0.07
5
0.09
22
0.06
12
0.04
2
0.10
19
0.32
194
0.07
8
0.04
1
0.04
2
0.11
44
0.07
1
0.03
1
0.20
114
0.33
5
0.21
4
0.11
5
0.08
5
0.11
3
0.07
5
0.10
2
0.08
1
0.08
39
0.05
10
0.10
16
0.06
1
0.10
5
0.06
3
AdaDepthtwo views0.14
19
0.11
23
0.07
14
0.07
20
0.08
30
0.17
89
0.05
29
0.08
14
0.08
26
0.06
8
0.08
23
0.10
7
0.06
16
0.11
37
0.57
27
0.37
65
0.14
25
0.12
28
0.22
41
0.17
53
0.15
13
0.21
27
0.04
8
0.06
18
0.10
16
0.11
22
0.17
32
0.11
32
MM-Stereo_test2two views0.17
32
0.13
34
0.08
18
0.07
20
0.05
8
0.06
6
0.03
5
0.08
14
0.06
6
0.09
23
0.04
7
0.11
13
0.05
6
0.05
8
0.50
18
0.40
79
0.12
14
0.10
16
0.13
8
0.27
116
0.18
25
0.64
91
0.06
25
0.05
10
0.09
12
0.84
254
0.11
7
0.08
19
MM-Stereo_test1two views0.11
7
0.11
23
0.07
14
0.06
12
0.04
2
0.05
4
0.02
1
0.08
14
0.06
6
0.07
15
0.03
3
0.10
7
0.04
2
0.04
1
0.39
10
0.25
12
0.12
14
0.08
5
0.13
8
0.21
89
0.13
8
0.15
12
0.05
17
0.04
3
0.08
6
0.34
161
0.13
15
0.07
9
GREAT-IGEVtwo views0.17
32
0.09
13
0.08
18
0.05
6
0.04
2
0.24
143
0.03
5
0.08
14
0.10
39
0.06
8
0.06
13
0.15
31
0.05
6
0.06
11
0.84
102
0.30
29
0.12
14
0.09
9
0.13
8
0.12
27
0.11
3
1.21
174
0.06
25
0.12
61
0.08
6
0.08
8
0.17
32
0.06
3
CoSvtwo views0.09
1
0.11
23
0.07
14
0.05
6
0.04
2
0.09
15
0.04
18
0.08
14
0.06
6
0.06
8
0.03
3
0.08
2
0.04
2
0.04
1
0.29
4
0.30
29
0.11
5
0.07
2
0.13
8
0.06
1
0.12
7
0.09
2
0.03
1
0.04
3
0.11
25
0.07
4
0.10
5
0.06
3
Occ-Gtwo views0.15
24
0.13
34
0.10
36
0.09
36
0.08
30
0.12
45
0.04
18
0.08
14
0.06
6
0.05
3
0.10
35
0.10
7
0.06
16
0.06
11
0.49
17
0.31
34
0.13
21
0.13
29
0.84
196
0.09
10
0.21
33
0.20
26
0.06
25
0.07
25
0.10
16
0.08
8
0.18
38
0.09
25
RSM++two views0.12
12
0.10
20
0.09
22
0.08
28
0.07
21
0.10
19
0.04
18
0.08
14
0.07
17
0.06
8
0.07
17
0.13
21
0.07
25
0.04
1
0.50
18
0.26
16
0.12
14
0.11
24
0.14
16
0.11
20
0.20
31
0.14
10
0.06
25
0.10
47
0.11
25
0.09
13
0.13
15
0.08
19
AEACVtwo views0.25
57
0.17
53
0.11
42
0.09
36
0.07
21
0.15
68
0.04
18
0.08
14
0.06
6
0.07
15
0.07
17
0.13
21
0.08
29
0.12
46
1.39
177
0.79
207
0.16
32
0.14
34
0.25
45
0.19
66
0.24
40
1.00
139
0.10
59
0.07
25
0.10
16
0.95
263
0.14
21
0.08
19
CroCo-Stereo Lap2two views0.12
12
0.07
5
0.05
6
0.05
6
0.06
13
0.04
1
0.03
5
0.08
14
0.06
6
0.11
32
0.03
3
0.12
15
0.06
16
0.08
21
0.59
32
0.36
60
0.11
5
0.10
16
0.12
5
0.07
5
0.25
41
0.17
18
0.04
8
0.07
25
0.11
25
0.11
22
0.11
7
0.08
19
CroCo-Stereocopylefttwo views0.12
12
0.07
5
0.04
1
0.05
6
0.05
8
0.04
1
0.02
1
0.08
14
0.06
6
0.06
8
0.02
1
0.10
7
0.06
16
0.07
17
0.85
112
0.38
68
0.11
5
0.09
9
0.16
24
0.06
1
0.22
35
0.18
21
0.04
8
0.05
10
0.10
16
0.09
13
0.11
7
0.07
9
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MLG-Stereo_test2two views0.14
19
0.12
28
0.06
9
0.05
6
0.06
13
0.31
178
0.03
5
0.09
24
0.07
17
0.09
23
0.22
110
0.12
15
0.05
6
0.07
17
0.60
35
0.39
73
0.15
29
0.13
29
0.21
39
0.10
16
0.21
33
0.21
27
0.05
17
0.04
3
0.10
16
0.08
8
0.15
24
0.10
28
LG-Stereotwo views0.13
15
0.07
5
0.05
6
0.06
12
0.06
13
0.21
119
0.03
5
0.09
24
0.08
26
0.09
23
0.32
167
0.16
34
0.05
6
0.06
11
0.67
52
0.31
34
0.11
5
0.09
9
0.18
32
0.08
8
0.14
10
0.12
6
0.03
1
0.04
3
0.08
6
0.12
28
0.11
7
0.07
9
AIO-test1two views0.11
7
0.06
1
0.06
9
0.04
1
0.07
21
0.08
11
0.03
5
0.09
24
0.08
26
0.08
20
0.07
17
0.10
7
0.05
6
0.06
11
0.42
11
0.22
6
0.10
3
0.08
5
0.11
3
0.20
73
0.11
3
0.47
60
0.04
8
0.04
3
0.07
1
0.07
4
0.07
2
0.06
3
Utwo views0.14
19
0.09
13
0.05
6
0.05
6
0.06
13
0.04
1
0.02
1
0.09
24
0.06
6
0.09
23
0.02
1
0.12
15
0.10
42
0.07
17
0.77
77
0.44
98
0.15
29
0.11
24
0.15
22
0.09
10
0.27
47
0.26
34
0.03
1
0.06
18
0.13
32
0.10
18
0.11
7
0.09
25
MM-Stereo_test3two views0.09
1
0.08
11
0.04
1
0.06
12
0.04
2
0.05
4
0.03
5
0.10
28
0.07
17
0.07
15
0.04
7
0.09
4
0.04
2
0.04
1
0.23
1
0.30
29
0.12
14
0.07
2
0.12
5
0.20
73
0.11
3
0.11
4
0.05
17
0.04
3
0.07
1
0.08
8
0.16
28
0.07
9
DEFOM-Stereotwo views0.14
19
0.12
28
0.09
22
0.08
28
0.08
30
0.11
30
0.04
18
0.10
28
0.07
17
0.08
20
0.10
35
0.12
15
0.06
16
0.07
17
0.51
21
0.29
25
0.17
37
0.14
34
0.17
26
0.10
16
0.32
59
0.16
16
0.08
39
0.07
25
0.12
30
0.13
38
0.25
65
0.13
37
RAStereotwo views0.16
29
0.12
28
0.08
18
0.06
12
0.08
30
0.06
6
0.04
18
0.10
28
0.07
17
0.20
57
0.04
7
0.14
29
0.06
16
0.09
26
0.96
135
0.35
53
0.18
40
0.13
29
0.20
36
0.08
8
0.46
94
0.23
32
0.05
17
0.06
18
0.13
32
0.11
22
0.12
13
0.11
32
StereoVisiontwo views0.13
15
0.10
20
0.07
14
0.06
12
0.07
21
0.07
9
0.07
50
0.10
28
0.13
60
0.09
23
0.07
17
0.16
34
0.07
25
0.11
37
0.56
25
0.29
25
0.14
25
0.13
29
0.17
26
0.09
10
0.18
25
0.15
12
0.04
8
0.08
32
0.15
47
0.13
38
0.19
46
0.15
44
MLG-Stereo_test3two views0.25
57
0.11
23
0.09
22
0.11
49
0.14
71
0.14
60
0.05
29
0.11
32
0.09
30
0.17
49
0.10
35
0.19
47
0.08
29
0.09
26
0.66
48
0.38
68
0.17
37
0.15
40
2.15
262
0.11
20
0.29
51
0.75
105
0.05
17
0.08
32
0.11
25
0.10
18
0.18
38
0.12
34
MaDis-Stereotwo views0.19
39
0.16
48
0.11
42
0.07
20
0.10
41
0.06
6
0.06
39
0.12
33
0.10
39
0.19
54
0.08
23
0.19
47
0.08
29
0.14
58
0.52
23
0.39
73
0.24
66
0.18
57
0.30
64
0.12
27
0.46
94
0.36
45
0.07
33
0.10
47
0.19
79
0.23
86
0.20
49
0.25
99
delettwo views0.15
24
0.14
38
0.12
51
0.12
56
0.12
56
0.13
50
0.09
66
0.12
33
0.09
30
0.15
41
0.11
44
0.16
34
0.09
36
0.11
37
0.57
27
0.23
9
0.16
32
0.13
29
0.13
8
0.12
27
0.17
20
0.29
36
0.09
50
0.10
47
0.13
32
0.12
28
0.20
49
0.13
37
SM2two views0.17
32
0.15
40
0.09
22
0.11
49
0.11
47
0.08
11
0.05
29
0.13
35
0.13
60
0.15
41
0.11
44
0.16
34
0.16
79
0.09
26
0.88
124
0.30
29
0.14
25
0.10
16
0.14
16
0.09
10
0.18
25
0.31
39
0.11
78
0.07
25
0.18
69
0.16
46
0.17
32
0.25
99
LG-G_1two views0.23
50
0.15
40
0.11
42
0.12
56
0.15
84
0.24
143
0.06
39
0.13
35
0.09
30
0.11
32
0.18
82
0.17
40
0.11
48
0.15
69
0.70
60
0.44
98
0.21
51
0.19
62
0.26
50
0.17
53
0.32
59
1.48
211
0.06
25
0.09
39
0.13
32
0.12
28
0.18
38
0.16
49
LG-Gtwo views0.23
50
0.15
40
0.11
42
0.12
56
0.15
84
0.24
143
0.06
39
0.13
35
0.09
30
0.11
32
0.18
82
0.17
40
0.11
48
0.15
69
0.70
60
0.44
98
0.21
51
0.19
62
0.26
50
0.17
53
0.32
59
1.48
211
0.06
25
0.09
39
0.13
32
0.12
28
0.18
38
0.16
49
SGD-Stereotwo views0.37
118
0.13
34
0.10
36
0.09
36
0.09
36
0.11
30
0.05
29
0.13
35
0.12
53
0.14
39
0.08
23
0.28
93
0.15
75
0.10
32
4.91
268
0.59
161
0.29
107
0.18
57
0.37
88
0.33
145
0.47
101
0.33
41
0.10
59
0.09
39
0.14
39
0.16
46
0.22
56
0.19
66
RYNettwo views0.49
175
0.11
23
0.10
36
0.08
28
0.09
36
0.10
19
0.06
39
0.13
35
0.18
111
0.10
29
0.10
35
0.13
21
0.08
29
0.08
21
9.58
316
0.37
65
0.14
25
0.22
87
0.17
26
0.09
10
0.19
29
0.12
6
0.15
140
0.09
39
0.14
39
0.33
157
0.24
61
0.13
37
LGtest1two views0.21
43
0.15
40
0.12
51
0.10
40
0.14
71
0.35
204
0.05
29
0.14
40
0.13
60
0.12
35
0.34
176
0.16
34
0.13
65
0.10
32
0.74
67
0.48
123
0.23
57
0.23
99
0.25
45
0.20
73
0.29
51
0.44
53
0.08
39
0.10
47
0.14
39
0.12
28
0.18
38
0.15
44
TDLMtwo views0.13
15
0.14
38
0.13
62
0.10
40
0.12
56
0.11
30
0.10
77
0.14
40
0.10
39
0.09
23
0.16
80
0.17
40
0.10
42
0.09
26
0.28
3
0.19
3
0.15
29
0.14
34
0.13
8
0.10
16
0.15
13
0.11
4
0.09
50
0.10
47
0.11
25
0.10
18
0.15
24
0.15
44
AANet_RVCtwo views0.16
29
0.13
34
0.13
62
0.10
40
0.15
84
0.08
11
0.13
114
0.14
40
0.15
77
0.13
36
0.13
57
0.13
21
0.11
48
0.10
32
0.42
11
0.24
10
0.16
32
0.16
45
0.20
36
0.15
46
0.15
13
0.17
18
0.11
78
0.11
56
0.16
57
0.17
52
0.22
56
0.24
93
UniTT-Stereotwo views0.24
55
0.15
40
0.11
42
0.09
36
0.11
47
0.09
15
0.05
29
0.16
43
0.11
46
0.21
58
0.09
31
0.19
47
0.15
75
0.27
151
1.23
165
0.46
116
0.23
57
0.18
57
0.63
166
0.13
37
0.53
120
0.37
46
0.10
59
0.12
61
0.17
62
0.23
86
0.15
24
0.17
59
anonymousdsptwo views0.23
50
0.12
28
0.11
42
0.12
56
0.10
41
0.12
45
0.06
39
0.16
43
0.09
30
0.15
41
0.79
238
0.15
31
0.07
25
0.10
32
0.84
102
0.30
29
0.18
40
0.14
34
0.22
41
0.24
109
0.25
41
1.12
160
0.17
157
0.09
39
0.12
30
0.09
13
0.23
58
0.10
28
MMNettwo views0.24
55
0.15
40
0.12
51
0.13
66
0.13
66
0.13
50
0.10
77
0.16
43
0.12
53
0.13
36
0.14
67
0.19
47
0.09
36
0.18
103
2.14
209
0.25
12
0.18
40
0.16
45
0.20
36
0.14
43
0.20
31
0.37
46
0.10
59
0.12
61
0.15
47
0.15
44
0.28
75
0.16
49
AIO_rvctwo views0.34
98
0.17
53
0.12
51
0.10
40
0.09
36
0.38
216
0.11
84
0.17
46
0.11
46
0.15
41
0.07
17
0.17
40
0.10
42
0.14
58
1.81
192
1.13
245
0.16
32
0.45
231
0.34
81
0.11
20
0.26
44
2.17
288
0.17
157
0.07
25
0.14
39
0.16
46
0.16
28
0.10
28
MIF-Stereo (partial)two views0.23
50
0.20
90
0.12
51
0.10
40
0.12
56
0.10
19
0.07
50
0.17
46
0.14
69
0.18
52
0.10
35
0.20
53
0.11
48
0.17
84
1.11
159
0.44
98
0.25
75
0.21
79
0.26
50
0.13
37
0.49
104
0.32
40
0.08
39
0.14
94
0.17
62
0.17
52
0.38
115
0.20
69
AASNettwo views0.20
42
0.17
53
0.13
62
0.14
79
0.15
84
0.15
68
0.13
114
0.17
46
0.09
30
0.15
41
0.15
70
0.16
34
0.09
36
0.14
58
1.03
144
0.22
6
0.18
40
0.16
45
0.17
26
0.14
43
0.17
20
0.76
107
0.10
59
0.11
56
0.15
47
0.13
38
0.17
32
0.12
34
iRaftStereo_RVCtwo views0.16
29
0.15
40
0.11
42
0.10
40
0.10
41
0.09
15
0.05
29
0.17
46
0.09
30
0.15
41
0.15
70
0.18
44
0.09
36
0.18
103
0.38
7
0.28
23
0.20
48
0.14
34
0.19
33
0.12
27
0.34
66
0.30
38
0.07
33
0.09
39
0.14
39
0.12
28
0.18
38
0.13
37
RAFT + AFFtwo views0.42
142
0.12
28
0.09
22
0.13
66
0.07
21
0.11
30
0.06
39
0.17
46
0.10
39
0.19
54
0.10
35
0.28
93
0.08
29
0.11
37
7.47
301
0.33
43
0.20
48
0.11
24
0.33
76
0.10
16
0.39
79
0.16
16
0.07
33
0.09
39
0.16
57
0.11
22
0.13
15
0.09
25
MStwo views0.19
39
0.16
48
0.10
36
0.08
28
0.09
36
0.13
50
0.06
39
0.18
51
0.11
46
0.24
68
0.08
23
0.19
47
0.11
48
0.12
46
0.59
32
0.48
123
0.24
66
0.19
62
0.19
33
0.35
156
0.35
71
0.37
46
0.10
59
0.09
39
0.14
39
0.16
46
0.17
32
0.15
44
DMCAtwo views0.26
62
0.17
53
0.16
94
0.13
66
0.14
71
0.13
50
0.11
84
0.18
51
0.15
77
0.19
54
0.18
82
0.28
93
0.12
59
0.15
69
1.79
190
0.60
162
0.32
127
0.46
235
0.24
43
0.15
46
0.26
44
0.21
27
0.13
111
0.12
61
0.17
62
0.17
52
0.21
52
0.17
59
LG-Stereo_L2two views0.21
43
0.16
48
0.09
22
0.07
20
0.11
47
0.23
135
0.04
18
0.19
53
0.12
53
0.26
80
0.23
115
0.25
75
0.11
48
0.17
84
0.63
42
0.52
143
0.24
66
0.16
45
0.29
62
0.25
111
0.40
81
0.44
53
0.07
33
0.08
32
0.15
47
0.12
28
0.16
28
0.16
49
LG-Stereo_L1two views0.21
43
0.16
48
0.09
22
0.07
20
0.11
47
0.24
143
0.04
18
0.19
53
0.12
53
0.27
84
0.23
115
0.23
64
0.11
48
0.17
84
0.60
35
0.53
147
0.24
66
0.16
45
0.33
76
0.27
116
0.40
81
0.44
53
0.06
25
0.08
32
0.15
47
0.11
22
0.17
32
0.16
49
DFGA-Nettwo views0.18
35
0.17
53
0.10
36
0.13
66
0.08
30
0.10
19
0.08
56
0.19
53
0.10
39
0.28
89
0.11
44
0.18
44
0.09
36
0.13
48
0.68
57
0.27
20
0.20
48
0.15
40
0.28
60
0.12
27
0.22
35
0.17
18
0.08
39
0.12
61
0.15
47
0.12
28
0.35
95
0.14
42
YMNettwo views0.46
156
0.20
90
0.12
51
0.16
96
0.15
84
0.32
185
0.87
269
0.19
53
0.16
84
0.27
84
0.11
44
0.24
67
0.36
199
0.15
69
5.11
273
0.66
178
0.23
57
0.22
87
0.26
50
0.21
89
0.19
29
0.29
36
0.09
50
0.13
82
0.74
259
0.16
46
0.66
214
0.19
66
AIO_testtwo views0.48
173
0.19
75
0.13
62
0.14
79
0.10
41
0.38
216
0.28
185
0.19
53
0.13
60
0.17
49
0.10
35
0.18
44
0.09
36
0.11
37
2.64
226
2.40
307
0.22
54
0.22
87
0.32
73
0.12
27
0.29
51
2.50
308
0.15
140
0.08
32
0.16
57
1.42
282
0.21
52
0.10
28
RAFTtwo views0.14
19
0.07
5
0.10
36
0.08
28
0.04
2
0.24
143
0.28
185
0.19
53
0.07
17
0.13
36
0.08
23
0.13
21
0.06
16
0.11
37
0.44
14
0.17
2
0.12
14
0.08
5
0.14
16
0.21
89
0.16
17
0.18
21
0.04
8
0.05
10
0.15
47
0.15
44
0.21
52
0.16
49
IGEV-Stereo+two views0.31
85
0.72
276
0.08
18
0.12
56
0.10
41
0.34
199
0.04
18
0.20
59
0.12
53
0.30
103
0.59
215
0.21
56
0.38
211
0.13
48
0.64
44
0.51
138
0.19
46
0.19
62
0.30
64
0.34
151
0.51
113
0.56
69
0.13
111
0.07
25
0.13
32
1.20
274
0.14
21
0.12
34
HCRNettwo views0.34
98
0.24
155
0.13
62
0.26
183
0.11
47
0.18
98
0.13
114
0.20
59
0.09
30
0.54
224
0.20
97
0.29
103
0.10
42
0.13
48
3.96
257
0.29
25
0.21
51
0.15
40
0.25
45
0.13
37
0.25
41
0.40
50
0.13
111
0.10
47
0.13
32
0.14
42
0.36
106
0.15
44
ARAFTtwo views0.27
66
0.17
53
0.12
51
0.15
86
0.12
56
0.12
45
0.06
39
0.20
59
0.13
60
0.36
163
0.15
70
0.29
103
0.11
48
0.27
151
0.88
124
0.39
73
0.27
87
0.24
110
0.52
139
0.13
37
0.50
110
0.90
124
0.09
50
0.11
56
0.21
88
0.14
42
0.38
115
0.18
63
GANettwo views0.19
39
0.17
53
0.16
94
0.16
96
0.16
96
0.21
119
0.14
124
0.20
59
0.13
60
0.15
41
0.20
97
0.37
150
0.10
42
0.14
58
0.42
11
0.22
6
0.40
167
0.20
70
0.17
26
0.11
20
0.22
35
0.14
10
0.12
91
0.12
61
0.15
47
0.13
38
0.20
49
0.17
59
MGS-Stereotwo views0.36
117
0.22
118
0.14
80
0.13
66
0.13
66
0.11
30
0.10
77
0.21
63
0.12
53
0.18
52
0.13
57
0.21
56
0.16
79
0.13
48
4.38
263
0.33
43
0.26
82
0.22
87
0.31
70
0.18
59
0.38
77
0.70
97
0.11
78
0.13
82
0.19
79
0.17
52
0.26
70
0.21
78
DISCOtwo views0.32
91
0.24
155
0.17
105
0.19
127
0.21
148
0.23
135
0.27
181
0.21
63
0.21
138
0.36
163
0.25
124
0.24
67
0.16
79
0.19
106
1.86
196
0.35
53
0.29
107
0.22
87
0.42
101
0.22
99
0.28
48
0.56
69
0.14
124
0.16
118
0.23
95
0.23
86
0.40
125
0.24
93
HUFtwo views0.50
176
0.17
53
0.13
62
0.11
49
0.12
56
0.40
226
0.11
84
0.22
65
0.11
46
0.22
59
0.09
31
0.19
47
0.19
109
0.11
37
3.00
237
2.86
316
0.70
255
0.49
246
0.61
161
0.20
73
0.53
120
1.85
252
0.28
218
0.18
142
0.15
47
0.18
66
0.18
38
0.13
37
plaintwo views0.21
43
0.20
90
0.12
51
0.11
49
0.14
71
0.10
19
0.06
39
0.22
65
0.11
46
0.23
61
0.08
23
0.22
61
0.11
48
0.17
84
0.66
48
0.45
109
0.25
75
0.20
70
0.26
50
0.12
27
0.46
94
0.42
51
0.07
33
0.14
94
0.17
62
0.17
52
0.19
46
0.21
78
iinet-ftwo views0.35
109
0.23
140
0.17
105
0.20
137
0.14
71
0.21
119
0.17
148
0.22
65
0.16
84
0.38
179
0.39
187
0.26
82
0.23
132
0.17
84
1.84
195
0.49
126
0.27
87
0.21
79
0.66
172
0.34
151
0.46
94
0.83
117
0.15
140
0.14
94
0.26
118
0.19
71
0.45
154
0.25
99
UPFNettwo views0.25
57
0.18
63
0.19
124
0.17
110
0.18
124
0.19
105
0.14
124
0.22
65
0.16
84
0.23
61
0.18
82
0.21
56
0.13
65
0.26
145
1.51
180
0.28
23
0.23
57
0.21
79
0.25
45
0.18
59
0.22
35
0.35
43
0.13
111
0.15
102
0.18
69
0.18
66
0.39
119
0.18
63
PWCDC_ROBbinarytwo views0.55
188
0.18
63
0.19
124
0.17
110
0.26
185
0.16
79
0.19
160
0.22
65
0.54
255
0.16
48
0.43
192
0.25
75
1.12
267
0.45
232
5.47
276
0.50
132
0.31
122
0.28
138
0.36
86
0.26
115
0.60
135
1.14
164
0.25
204
0.28
208
0.18
69
0.29
137
0.26
70
0.32
139
DEFOM-Stereo_RVCtwo views0.29
74
0.18
63
0.12
51
0.11
49
0.12
56
0.10
19
0.05
29
0.23
70
0.14
69
0.30
103
0.13
57
0.27
88
0.17
89
0.11
37
1.00
141
0.40
79
0.29
107
0.30
151
0.36
86
0.34
151
0.56
126
1.17
169
0.17
157
0.10
47
0.15
47
0.48
214
0.23
58
0.22
81
IGEV-BASED-STEREO-two views0.27
66
0.18
63
0.11
42
0.12
56
0.11
47
0.35
204
0.05
29
0.23
70
0.14
69
0.30
103
0.21
102
0.24
67
0.35
197
0.13
48
0.76
76
0.60
162
0.27
87
0.28
138
0.32
73
0.33
145
0.61
138
0.60
82
0.09
50
0.08
32
0.14
39
0.38
179
0.24
61
0.14
42
CAStwo views0.34
98
0.20
90
0.13
62
0.15
86
0.15
84
0.13
50
0.15
136
0.23
70
0.23
152
0.37
170
0.27
140
0.28
93
0.30
172
0.53
248
0.74
67
0.69
184
0.38
157
0.37
199
0.35
83
0.36
157
0.72
155
1.09
152
0.11
78
0.13
82
0.24
102
0.25
115
0.28
75
0.34
149
IERtwo views0.35
109
0.19
75
0.16
94
0.17
110
0.16
96
0.17
89
0.12
94
0.23
70
0.14
69
0.28
89
0.25
124
0.31
122
0.14
68
0.23
126
3.85
256
0.29
25
0.25
75
0.20
70
0.24
43
0.20
73
0.28
48
0.21
27
0.18
168
0.14
94
0.19
79
0.24
98
0.38
115
0.25
99
FINETtwo views0.28
70
0.21
101
0.21
153
0.21
145
0.17
115
0.17
89
0.18
153
0.23
70
0.19
119
0.23
61
0.48
203
0.28
93
0.17
89
0.17
84
0.57
27
0.33
43
0.25
75
0.18
57
0.38
92
0.17
53
0.30
55
0.22
31
0.15
140
0.17
129
0.42
207
0.96
264
0.27
72
0.21
78
HGLStereotwo views0.30
78
0.23
140
0.19
124
0.18
120
0.23
169
0.18
98
0.13
114
0.23
70
0.16
84
0.31
117
0.31
160
0.21
56
0.14
68
0.22
118
1.81
192
0.35
53
0.37
152
0.24
110
0.29
62
0.20
73
0.41
85
0.39
49
0.14
124
0.16
118
0.23
95
0.23
86
0.32
78
0.22
81
DSFCAtwo views0.33
92
0.25
167
0.21
153
0.20
137
0.26
185
0.22
131
0.27
181
0.23
70
0.21
138
0.22
59
0.27
140
0.25
75
0.15
75
0.14
58
1.43
179
0.64
174
0.28
98
0.27
127
0.31
70
0.21
89
0.39
79
0.52
65
0.18
168
0.19
153
0.28
136
0.28
126
0.54
183
0.45
183
CVANet_RVCtwo views0.18
35
0.18
63
0.18
113
0.20
137
0.15
84
0.17
89
0.13
114
0.23
70
0.11
46
0.14
39
0.22
110
0.20
53
0.12
59
0.48
241
0.35
6
0.21
4
0.17
37
0.16
45
0.16
24
0.13
37
0.18
25
0.15
12
0.10
59
0.12
61
0.14
39
0.12
28
0.19
46
0.16
49
LoS_RVCtwo views0.37
118
0.25
167
0.20
138
0.10
40
0.17
115
0.13
50
0.09
66
0.24
78
0.25
165
0.38
179
0.25
124
0.36
145
0.34
191
0.22
118
0.81
86
0.78
205
0.41
173
0.42
224
0.56
145
0.27
116
0.97
173
1.33
187
0.14
124
0.15
102
0.28
136
0.22
78
0.25
65
0.29
119
tt_lltwo views0.37
118
0.25
167
0.20
138
0.10
40
0.17
115
0.13
50
0.09
66
0.24
78
0.25
165
0.38
179
0.25
124
0.36
145
0.34
191
0.22
118
0.81
86
0.78
205
0.41
173
0.42
224
0.56
145
0.27
116
0.97
173
1.33
187
0.14
124
0.15
102
0.28
136
0.22
78
0.25
65
0.29
119
TestStereo1two views0.27
66
0.22
118
0.12
51
0.12
56
0.12
56
0.11
30
0.09
66
0.24
78
0.15
77
0.24
68
0.12
51
0.34
139
0.23
132
0.14
58
1.09
153
0.44
98
0.24
66
0.17
52
0.51
131
0.15
46
0.35
71
0.79
113
0.08
39
0.12
61
0.22
92
0.24
98
0.49
166
0.23
88
TESTrafttwo views0.26
62
0.21
101
0.13
62
0.11
49
0.11
47
0.10
19
0.09
66
0.24
78
0.15
77
0.24
68
0.12
51
0.28
93
0.23
132
0.15
69
1.11
159
0.42
86
0.23
57
0.17
52
0.49
122
0.18
59
0.34
66
0.50
63
0.09
50
0.12
61
0.22
92
0.25
115
0.48
164
0.23
88
RAFT_CTSACEtwo views0.21
43
0.20
90
0.13
62
0.12
56
0.10
41
0.14
60
0.08
56
0.24
78
0.10
39
0.26
80
0.10
35
0.21
56
0.18
98
0.11
37
0.57
27
0.35
53
0.19
46
0.14
34
0.26
50
0.18
59
0.31
57
0.70
97
0.08
39
0.10
47
0.27
127
0.17
52
0.33
83
0.16
49
SA-5Ktwo views0.27
66
0.22
118
0.12
51
0.12
56
0.12
56
0.11
30
0.09
66
0.24
78
0.15
77
0.24
68
0.12
51
0.34
139
0.23
132
0.14
58
1.09
153
0.44
98
0.24
66
0.17
52
0.51
131
0.15
46
0.35
71
0.79
113
0.08
39
0.12
61
0.22
92
0.24
98
0.49
166
0.23
88
test_4two views0.38
123
0.17
53
0.16
94
0.14
79
0.13
66
0.11
30
0.38
215
0.24
78
0.14
69
0.31
117
0.11
44
0.24
67
0.12
59
0.34
196
0.91
126
0.70
193
0.24
66
0.29
145
0.37
88
0.29
125
0.51
113
1.32
186
0.09
50
0.12
61
0.27
127
0.91
258
0.91
248
0.87
233
AFF-stereotwo views0.22
48
0.19
75
0.15
86
0.14
79
0.12
56
0.14
60
0.06
39
0.24
78
0.13
60
0.29
96
0.12
51
0.24
67
0.10
42
0.08
21
0.60
35
0.38
68
0.18
40
0.19
62
0.48
114
0.12
27
0.28
48
0.56
69
0.08
39
0.10
47
0.19
79
0.18
66
0.43
147
0.16
49
PDISCO_ROBtwo views0.30
78
0.23
140
0.20
138
0.22
155
0.20
140
0.17
89
0.18
153
0.24
78
0.19
119
0.29
96
0.27
140
0.23
64
0.18
98
0.17
84
0.71
64
0.45
109
0.27
87
0.33
171
0.39
93
0.25
111
0.47
101
0.62
87
0.13
111
0.18
142
0.31
159
0.29
137
0.54
183
0.29
119
STTStereotwo views0.37
118
0.28
202
0.28
204
0.24
167
0.27
195
0.22
131
0.33
201
0.25
87
0.36
218
0.29
96
0.27
140
0.33
133
0.20
119
0.27
151
2.32
217
0.31
34
0.26
82
0.25
117
0.30
64
0.20
73
0.34
66
0.66
94
0.31
233
0.18
142
0.25
111
0.31
148
0.35
95
0.41
174
coex_refinementtwo views0.40
138
0.25
167
0.18
113
0.19
127
0.21
148
0.20
113
0.14
124
0.27
88
0.26
173
0.27
84
0.27
140
0.28
93
0.14
68
0.25
140
3.44
249
0.47
119
0.28
98
0.21
79
0.62
162
0.19
66
0.56
126
0.54
66
0.15
140
0.17
129
0.26
118
0.25
115
0.42
138
0.33
144
G2L-Stereotwo views0.34
98
0.22
118
0.16
94
0.18
120
0.22
163
0.16
79
0.14
124
0.27
88
0.16
84
0.30
103
0.25
124
0.26
82
0.22
125
0.30
174
2.53
223
0.31
34
0.27
87
0.20
70
0.33
76
0.18
59
0.40
81
0.54
66
0.16
149
0.15
102
0.24
102
0.26
120
0.41
127
0.24
93
MIM_Stereotwo views0.26
62
0.18
63
0.14
80
0.15
86
0.14
71
0.24
143
0.07
50
0.27
88
0.11
46
0.24
68
0.12
51
0.20
53
0.12
59
0.17
84
0.85
112
0.44
98
0.24
66
0.19
62
0.54
143
0.20
73
0.46
94
0.70
97
0.08
39
0.12
61
0.17
62
0.29
137
0.34
92
0.16
49
TANstereotwo views0.43
145
0.22
118
0.18
113
0.21
145
0.21
148
0.22
131
0.11
84
0.27
88
0.22
143
0.32
130
0.25
124
0.25
75
0.25
144
0.24
133
1.37
174
0.81
213
0.43
187
0.41
221
0.67
174
0.39
177
1.08
184
1.16
166
0.48
263
0.16
118
0.17
62
0.23
86
0.99
256
0.24
93
XX-TBDtwo views0.43
145
0.22
118
0.18
113
0.21
145
0.21
148
0.22
131
0.11
84
0.27
88
0.22
143
0.32
130
0.25
124
0.25
75
0.25
144
0.24
133
1.37
174
0.81
213
0.43
187
0.41
221
0.67
174
0.39
177
1.08
184
1.16
166
0.48
263
0.16
118
0.17
62
0.23
86
0.99
256
0.24
93
UNettwo views0.30
78
0.21
101
0.19
124
0.19
127
0.20
140
0.21
119
0.15
136
0.27
88
0.17
102
0.29
96
0.21
102
0.25
75
0.18
98
0.59
259
1.64
185
0.31
34
0.27
87
0.22
87
0.30
64
0.21
89
0.34
66
0.25
33
0.15
140
0.19
153
0.21
88
0.24
98
0.44
150
0.26
107
CFNet_RVCtwo views0.35
109
0.26
184
0.23
168
0.25
173
0.24
175
0.24
143
0.16
142
0.27
88
0.19
119
0.30
103
0.29
154
0.31
122
0.17
89
0.33
192
0.75
74
0.46
116
0.51
219
0.24
110
0.81
189
0.21
89
0.58
132
0.70
97
0.18
168
0.34
222
0.30
150
0.31
148
0.42
138
0.34
149
DLCB_ROBtwo views0.33
92
0.25
167
0.24
174
0.22
155
0.23
169
0.20
113
0.19
160
0.27
88
0.22
143
0.31
117
0.34
176
0.34
139
0.25
144
0.33
192
0.84
102
0.33
43
0.30
117
0.28
138
0.30
64
0.21
89
0.52
118
0.72
101
0.20
184
0.21
174
0.47
222
0.36
172
0.38
115
0.46
185
XPNet_ROBtwo views0.48
173
0.40
247
0.29
207
0.27
185
0.32
210
0.31
178
0.28
185
0.27
88
0.32
205
0.32
130
0.43
192
1.12
259
0.24
137
0.32
188
1.68
186
0.51
138
0.66
250
0.29
145
0.41
99
0.33
145
0.69
149
1.26
179
0.26
208
0.26
200
0.30
150
0.35
165
0.75
232
0.44
179
S2M2two views0.39
131
0.22
118
0.24
174
0.17
110
0.15
84
0.19
105
0.13
114
0.28
97
0.20
129
0.40
187
0.11
44
0.33
133
0.25
144
0.21
116
1.09
153
0.71
196
0.42
181
0.44
229
0.31
70
0.37
163
1.34
223
1.30
185
0.17
157
0.14
94
0.21
88
0.22
78
0.59
202
0.29
119
anonymousdsp2two views0.30
78
0.20
90
0.16
94
0.14
79
0.13
66
0.15
68
0.11
84
0.28
97
0.12
53
0.25
77
1.08
261
0.24
67
0.12
59
0.15
69
0.71
64
0.42
86
0.25
75
0.20
70
0.45
112
0.38
171
0.41
85
0.96
132
0.10
59
0.13
82
0.20
86
0.17
52
0.43
147
0.18
63
ddtwo views0.37
118
0.25
167
0.15
86
0.44
242
0.16
96
0.32
185
0.19
160
0.28
97
0.13
60
0.29
96
0.14
67
0.44
183
0.14
68
0.15
69
2.86
230
0.38
68
0.36
148
0.22
87
0.52
139
0.34
151
0.32
59
0.28
35
0.17
157
0.29
214
0.27
127
0.20
75
0.40
125
0.32
139
RALAANettwo views0.30
78
0.22
118
0.19
124
0.17
110
0.17
115
0.16
79
0.11
84
0.28
97
0.16
84
0.24
68
0.21
102
0.24
67
0.18
98
0.30
174
0.63
42
0.39
73
0.28
98
0.25
117
0.56
145
0.29
125
0.76
156
1.03
144
0.11
78
0.17
129
0.23
95
0.24
98
0.41
127
0.23
88
NLCA_NET_v2_RVCtwo views0.33
92
0.26
184
0.24
174
0.23
158
0.29
198
0.21
119
0.35
207
0.28
97
0.52
251
0.37
170
0.25
124
0.35
143
0.17
89
0.29
168
1.32
169
0.32
42
0.25
75
0.21
79
0.35
83
0.23
103
0.29
51
0.62
87
0.16
149
0.18
142
0.23
95
0.42
193
0.32
78
0.32
139
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
S2M2_XLtwo views0.35
109
0.15
40
0.16
94
0.10
40
0.12
56
0.13
50
0.12
94
0.29
102
0.19
119
0.27
84
0.13
57
0.36
145
0.34
191
0.13
48
1.05
149
0.79
207
0.48
210
0.44
229
0.28
60
0.20
73
1.53
245
1.16
166
0.13
111
0.12
61
0.18
69
0.16
46
0.23
58
0.25
99
castereotwo views0.42
142
0.20
90
0.19
124
0.16
96
0.16
96
0.27
160
0.09
66
0.29
102
0.21
138
0.33
138
0.22
110
0.40
166
0.37
210
0.19
106
0.81
86
0.77
204
0.45
193
0.34
183
0.57
153
0.43
190
1.52
240
1.45
207
0.13
111
0.15
102
0.27
127
0.59
231
0.52
177
0.31
133
Former-RAFT_DAM_RVCtwo views0.29
74
0.16
48
0.16
94
0.15
86
0.13
66
0.14
60
0.08
56
0.29
102
0.23
152
0.28
89
0.29
154
0.26
82
0.17
89
0.17
84
0.79
81
0.54
148
0.27
87
0.24
110
0.32
73
0.20
73
0.42
88
1.19
171
0.10
59
0.13
82
0.23
95
0.33
157
0.21
52
0.28
115
LL-Strereo2two views0.28
70
0.17
53
0.14
80
0.12
56
0.11
47
0.10
19
0.06
39
0.29
102
0.16
84
0.30
103
0.14
67
0.22
61
0.11
48
0.34
196
0.56
25
0.42
86
0.23
57
0.17
52
0.39
93
0.17
53
0.70
151
1.53
223
0.10
59
0.11
56
0.24
102
0.17
52
0.25
65
0.17
59
RAFT-Stereo + iAFFtwo views0.25
57
0.20
90
0.18
113
0.15
86
0.17
115
0.13
50
0.10
77
0.29
102
0.15
77
0.33
138
0.15
70
0.31
122
0.22
125
0.14
58
0.66
48
0.37
65
0.22
54
0.15
40
0.50
128
0.16
50
0.32
59
0.59
79
0.10
59
0.13
82
0.24
102
0.19
71
0.47
161
0.20
69
GMStereopermissivetwo views0.23
50
0.24
155
0.13
62
0.19
127
0.17
115
0.19
105
0.14
124
0.29
102
0.16
84
0.23
61
0.19
94
0.32
129
0.16
79
0.13
48
0.53
24
0.27
20
0.28
98
0.19
62
0.43
107
0.20
73
0.30
55
0.19
24
0.12
91
0.15
102
0.24
102
0.19
71
0.39
119
0.20
69
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
HITNettwo views0.31
85
0.18
63
0.15
86
0.17
110
0.15
84
0.14
60
0.10
77
0.29
102
0.19
119
0.30
103
0.20
97
0.28
93
0.18
98
0.29
168
1.30
168
0.42
86
0.27
87
0.20
70
0.37
88
0.17
53
0.64
143
0.99
137
0.12
91
0.15
102
0.19
79
0.19
71
0.39
119
0.26
107
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
castereo++two views0.43
145
0.19
75
0.17
105
0.19
127
0.15
84
0.44
237
0.08
56
0.30
109
0.20
129
0.34
141
0.18
82
0.45
189
0.35
197
0.15
69
0.78
78
0.73
198
0.43
187
0.32
165
0.57
153
0.43
190
1.42
226
1.35
192
0.22
195
0.16
118
0.24
102
0.33
157
1.16
268
0.33
144
AE-Stereotwo views0.44
151
0.22
118
0.24
174
0.23
158
0.24
175
0.18
98
0.16
142
0.30
109
0.21
138
0.34
141
0.16
80
0.44
183
0.27
155
0.21
116
0.94
131
0.81
213
0.41
173
0.32
165
0.52
139
0.55
218
1.07
183
1.71
242
0.12
91
0.21
174
0.34
169
0.89
257
0.46
159
0.28
115
CASnettwo views0.31
85
0.22
118
0.14
80
0.15
86
0.17
115
0.17
89
0.08
56
0.30
109
0.18
111
0.34
141
0.21
102
0.38
153
0.28
162
0.13
48
0.75
74
0.44
98
0.32
127
0.26
123
0.43
107
0.34
151
1.11
188
0.69
96
0.11
78
0.14
94
0.25
111
0.17
52
0.33
83
0.25
99
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
AACVNettwo views0.31
85
0.26
184
0.21
153
0.27
185
0.28
196
0.25
152
0.18
153
0.30
109
0.20
129
0.31
117
0.30
158
0.29
103
0.18
98
0.36
204
0.62
40
0.43
94
0.31
122
0.26
123
0.37
88
0.25
111
0.42
88
0.62
87
0.20
184
0.20
163
0.29
142
0.31
148
0.42
138
0.37
164
LMCR-Stereopermissivemany views0.33
92
0.23
140
0.19
124
0.19
127
0.18
124
0.20
113
0.13
114
0.30
109
0.19
119
0.29
96
0.23
115
0.33
133
0.29
164
0.40
224
0.67
52
0.45
109
0.39
162
0.28
138
0.53
142
0.38
171
0.51
113
0.96
132
0.14
124
0.19
153
0.25
111
0.24
98
0.33
83
0.31
133
raft+_RVCtwo views0.26
62
0.19
75
0.15
86
0.15
86
0.15
84
0.13
50
0.14
124
0.30
109
0.14
69
0.28
89
0.18
82
0.22
61
0.11
48
0.19
106
0.62
40
0.43
94
0.23
57
0.17
52
0.41
99
0.28
121
0.45
93
0.95
130
0.09
50
0.11
56
0.20
86
0.18
66
0.25
65
0.20
69
ADLNettwo views0.53
182
0.26
184
0.18
113
0.21
145
0.21
148
0.23
135
0.19
160
0.30
109
0.17
102
0.23
61
0.22
110
0.62
225
0.18
98
0.48
241
6.87
293
0.38
68
0.28
98
0.21
79
0.25
45
0.20
73
0.33
64
0.90
124
0.18
168
0.13
82
0.25
111
0.26
120
0.34
92
0.23
88
CFNettwo views0.29
74
0.23
140
0.19
124
0.25
173
0.22
163
0.19
105
0.15
136
0.30
109
0.17
102
0.28
89
0.23
115
0.37
150
0.19
109
0.22
118
1.38
176
0.25
12
0.26
82
0.21
79
0.27
59
0.19
66
0.31
57
0.45
57
0.12
91
0.17
129
0.28
136
0.24
98
0.37
110
0.31
133
UCFNet_RVCtwo views0.39
131
0.36
230
0.26
192
0.29
199
0.31
207
0.26
155
0.19
160
0.30
109
0.23
152
0.35
149
0.27
140
0.45
189
0.25
144
0.34
196
0.82
99
0.45
109
0.30
117
0.25
117
0.96
209
0.23
103
0.69
149
0.75
105
0.45
256
0.21
174
0.35
176
0.31
148
0.35
95
0.45
183
NVstereo2Dtwo views0.63
204
0.25
167
0.20
138
0.28
193
0.25
178
0.34
199
0.35
207
0.30
109
0.22
143
0.39
184
0.33
173
0.26
82
0.16
79
0.42
229
9.29
314
0.43
94
0.32
127
0.27
127
0.35
83
0.20
73
0.35
71
0.44
53
0.30
227
0.21
174
0.31
159
0.23
86
0.27
72
0.25
99
GCAP-BATtwo views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
test_for_modeltwo views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
testlalala2two views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
testlalalatwo views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
testlalala_basetwo views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
GCAP-Stereotwo views0.46
156
0.21
101
0.13
62
0.13
66
0.14
71
0.11
30
0.12
94
0.31
119
0.16
84
0.31
117
0.13
57
0.45
189
0.19
109
0.28
159
0.84
102
0.69
184
3.42
314
0.23
99
0.48
114
0.30
132
1.24
206
0.57
72
0.12
91
0.12
61
0.18
69
0.28
126
0.35
95
0.79
218
UDGNettwo views0.39
131
0.29
205
0.21
153
0.55
254
0.44
249
0.50
245
0.42
224
0.31
119
0.20
129
0.27
84
0.28
151
0.28
93
0.12
59
0.70
268
0.66
48
0.44
98
0.29
107
0.25
117
0.60
159
0.24
109
0.61
138
0.98
135
0.39
246
0.15
102
0.34
169
0.27
123
0.42
138
0.29
119
ICVPtwo views0.44
151
0.24
155
0.30
209
0.25
173
0.23
169
0.26
155
0.18
153
0.31
119
0.25
165
0.37
170
0.31
160
0.33
133
0.29
164
0.25
140
0.64
44
0.61
166
0.50
215
0.78
294
0.59
158
0.44
201
0.99
177
1.82
250
0.33
239
0.24
193
0.30
150
0.35
165
0.37
110
0.34
149
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
CFNet_pseudotwo views0.47
166
0.23
140
0.23
168
0.27
185
0.25
178
0.23
135
0.17
148
0.31
119
0.19
119
0.37
170
0.29
154
0.38
153
0.27
155
0.23
126
4.35
262
0.44
98
0.28
98
0.23
99
1.00
210
0.19
66
0.46
94
0.59
79
0.40
249
0.18
142
0.27
127
0.28
126
0.36
106
0.35
159
APVNettwo views0.39
131
0.27
192
0.20
138
0.24
167
0.26
185
0.27
160
0.24
168
0.31
119
0.22
143
0.26
80
0.31
160
0.29
103
0.17
89
0.27
151
1.75
189
0.50
132
0.45
193
0.35
188
0.66
172
0.32
142
0.51
113
0.97
134
0.16
149
0.25
198
0.28
136
0.24
98
0.44
150
0.30
125
PMTNettwo views0.42
142
0.24
155
0.21
153
0.18
120
0.17
115
0.14
60
0.32
194
0.31
119
0.24
157
0.37
170
0.25
124
0.38
153
0.38
211
0.17
84
1.19
164
1.08
239
0.45
193
0.27
127
0.56
145
0.43
190
1.15
194
1.08
151
0.13
111
0.14
94
0.40
203
0.26
120
0.32
78
0.37
164
BEATNet_4xtwo views0.40
138
0.23
140
0.19
124
0.20
137
0.19
133
0.16
79
0.14
124
0.31
119
0.27
183
0.35
149
0.22
110
0.32
129
0.23
132
0.29
168
1.51
180
0.58
157
0.52
224
0.51
255
0.49
122
0.22
99
0.91
169
1.44
205
0.14
124
0.23
187
0.23
95
0.23
86
0.42
138
0.31
133
ADCP+two views0.99
243
0.33
220
0.34
225
0.25
173
0.34
224
0.35
204
0.49
235
0.31
119
0.66
266
0.59
234
0.48
203
0.75
241
0.18
98
0.30
174
9.27
313
0.47
119
0.27
87
0.27
127
0.78
187
0.80
262
0.51
113
0.72
101
0.18
168
0.18
142
0.69
256
2.01
300
1.44
279
3.81
308
RASNettwo views0.29
74
0.21
101
0.21
153
0.19
127
0.18
124
0.18
98
0.14
124
0.31
119
0.18
111
0.32
130
0.20
97
0.26
82
0.18
98
0.17
84
0.86
115
0.66
178
0.25
75
0.19
62
0.26
50
0.16
50
0.65
144
0.61
85
0.11
78
0.21
174
0.21
88
0.22
78
0.45
154
0.30
125
EGLCR-Stereotwo views0.60
194
0.22
118
0.22
162
0.15
86
0.18
124
0.23
135
0.09
66
0.32
133
0.22
143
0.32
130
0.19
94
0.38
153
0.27
155
0.14
58
0.81
86
0.74
200
0.39
162
0.37
199
0.72
181
0.28
121
1.20
203
2.19
291
0.12
91
0.68
288
0.23
95
1.54
287
3.67
321
0.34
149
RAFT+CT+SAtwo views0.25
57
0.21
101
0.13
62
0.13
66
0.09
36
0.10
19
0.08
56
0.32
133
0.13
60
0.24
68
0.10
35
0.26
82
0.21
120
0.09
26
0.98
139
0.58
157
0.18
40
0.16
45
0.40
98
0.14
43
0.33
64
0.72
101
0.07
33
0.12
61
0.19
79
0.17
52
0.32
78
0.20
69
test_5two views0.22
48
0.19
75
0.11
42
0.11
49
0.07
21
0.21
119
0.07
50
0.32
133
0.10
39
0.17
49
0.21
102
0.24
67
0.21
120
0.08
21
0.97
138
0.46
116
0.16
32
0.15
40
0.26
50
0.11
20
0.23
39
0.46
59
0.06
25
0.12
61
0.16
57
0.17
52
0.33
83
0.20
69
CIPLGtwo views0.34
98
0.19
75
0.19
124
0.16
96
0.16
96
0.16
79
0.24
168
0.32
133
0.26
173
0.30
103
0.31
160
0.31
122
0.16
79
0.38
214
0.86
115
0.40
79
0.34
139
0.20
70
0.50
128
0.20
73
0.49
104
1.39
197
0.11
78
0.15
102
0.53
233
0.17
52
0.57
193
0.20
69
IPLGR_Ctwo views0.34
98
0.19
75
0.19
124
0.16
96
0.16
96
0.16
79
0.25
177
0.32
133
0.26
173
0.30
103
0.32
167
0.30
115
0.17
89
0.37
208
0.79
81
0.40
79
0.33
135
0.20
70
0.51
131
0.19
66
0.49
104
1.39
197
0.12
91
0.15
102
0.50
229
0.17
52
0.58
197
0.20
69
ACREtwo views0.35
109
0.19
75
0.18
113
0.16
96
0.16
96
0.16
79
0.24
168
0.32
133
0.25
165
0.30
103
0.43
192
0.31
122
0.17
89
0.38
214
0.81
86
0.40
79
0.34
139
0.20
70
0.51
131
0.20
73
0.50
110
1.39
197
0.12
91
0.15
102
0.51
231
0.17
52
0.57
193
0.20
69
sCroCo_RVCtwo views0.46
156
0.20
90
0.16
94
0.15
86
0.16
96
0.20
113
0.12
94
0.32
133
0.32
205
0.35
149
0.24
120
0.43
179
0.45
230
0.15
69
0.83
101
1.10
243
0.47
204
0.40
219
0.67
174
0.43
190
1.55
249
1.85
252
0.14
124
0.22
182
0.30
150
0.30
145
0.49
166
0.32
139
DeepPrunerFtwo views0.79
224
0.36
230
0.20
138
0.53
249
1.05
291
0.38
216
0.52
237
0.32
133
0.92
283
0.23
61
0.32
167
0.23
64
0.17
89
0.26
145
5.65
279
0.50
132
0.28
98
0.24
110
0.50
128
0.25
111
0.40
81
0.47
60
0.21
188
0.19
153
5.96
324
0.50
219
0.47
161
0.30
125
DeepPruner_ROBtwo views0.52
180
0.25
167
0.25
187
0.25
173
0.26
185
0.23
135
0.65
258
0.32
133
0.25
165
0.37
170
0.39
187
0.29
103
0.25
144
0.31
184
3.43
248
0.72
197
0.34
139
0.29
145
0.49
122
0.23
103
1.30
219
1.20
172
0.23
197
0.23
187
0.29
142
0.42
193
0.46
159
0.29
119
4D-IteraStereotwo views0.33
92
0.18
63
0.21
153
0.16
96
0.16
96
0.11
30
0.08
56
0.33
142
0.17
102
0.33
138
0.18
82
0.27
88
0.13
65
0.33
192
0.80
84
0.66
178
0.26
82
0.30
151
0.49
122
0.36
157
0.82
162
1.41
201
0.10
59
0.15
102
0.19
79
0.21
77
0.41
127
0.19
66
IPLGRtwo views0.76
220
0.26
184
0.21
153
0.23
158
0.23
169
0.17
89
0.12
94
0.33
142
0.20
129
0.41
192
1.59
286
0.32
129
0.31
174
0.53
248
9.00
310
0.62
171
0.41
173
0.38
212
0.65
169
0.47
209
0.76
156
1.41
201
0.12
91
0.24
193
0.35
176
0.39
181
0.63
210
0.28
115
RALCasStereoNettwo views0.30
78
0.24
155
0.19
124
0.20
137
0.19
133
0.15
68
0.17
148
0.33
142
0.14
69
0.30
103
0.20
97
0.27
88
0.15
75
0.26
145
0.65
46
0.61
166
0.31
122
0.23
99
0.34
81
0.29
125
0.58
132
1.04
146
0.11
78
0.16
118
0.25
111
0.25
115
0.24
61
0.26
107
FADNet-RVCtwo views0.38
123
0.25
167
0.26
192
0.27
185
0.26
185
0.21
119
0.42
224
0.33
142
0.24
157
0.34
141
0.26
136
0.42
176
0.28
162
0.27
151
0.95
133
0.42
86
0.39
162
0.27
127
0.73
182
0.41
183
0.63
142
0.86
121
0.21
188
0.27
204
0.34
169
0.33
157
0.33
83
0.42
177
PA-Nettwo views0.52
180
0.36
230
0.36
232
0.25
173
0.37
236
0.26
155
0.32
194
0.33
142
0.36
218
0.30
103
0.26
136
0.30
115
0.31
174
0.47
237
2.30
214
0.51
138
0.24
66
0.28
138
0.30
64
0.29
125
0.34
66
0.90
124
0.60
272
0.26
200
0.32
164
0.72
245
0.32
78
2.29
282
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
ETE_ROBtwo views0.60
194
0.48
258
0.30
209
0.36
222
0.36
234
0.39
223
0.32
194
0.33
142
0.49
248
0.40
187
0.61
217
1.32
267
0.29
164
0.40
224
2.38
219
0.50
132
0.95
266
0.34
183
0.65
169
0.41
183
0.96
172
1.18
170
0.28
218
0.31
217
0.39
199
0.45
206
0.73
229
0.52
200
MIPNettwo views0.77
221
0.23
140
0.18
113
0.24
167
0.22
163
0.17
89
0.13
114
0.34
148
0.70
270
0.40
187
2.24
304
0.31
122
0.29
164
0.57
257
5.70
280
1.03
232
0.45
193
0.33
171
0.82
193
0.56
220
0.62
141
1.53
223
0.12
91
0.92
303
0.91
273
0.39
181
1.12
267
0.30
125
rafts_anoytwo views0.28
70
0.23
140
0.18
113
0.17
110
0.19
133
0.15
68
0.11
84
0.34
148
0.14
69
0.26
80
0.21
102
0.25
75
0.14
68
0.22
118
0.65
46
0.40
79
0.34
139
0.24
110
0.48
114
0.33
145
0.52
118
0.76
107
0.11
78
0.16
118
0.24
102
0.23
86
0.24
61
0.26
107
CREStereo++_RVCtwo views0.45
153
0.22
118
0.20
138
0.17
110
0.20
140
0.15
68
0.11
84
0.34
148
0.19
119
0.35
149
0.19
94
0.32
129
0.31
174
0.16
78
1.29
167
0.81
213
0.38
157
0.27
127
0.56
145
0.36
157
1.08
184
1.26
179
0.13
111
0.15
102
0.26
118
0.22
78
2.29
308
0.31
133
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
pcwnet_v2two views0.69
211
0.27
192
0.31
217
0.31
207
0.33
214
0.29
173
0.24
168
0.34
148
0.25
165
0.50
213
0.40
189
1.66
282
0.40
218
0.31
184
5.73
282
0.60
162
0.36
148
0.30
151
1.08
219
0.23
103
0.82
162
0.90
124
0.57
269
0.22
182
0.35
176
0.36
172
0.51
174
0.87
233
GEStwo views0.54
184
0.23
140
0.19
124
0.21
145
0.22
163
0.26
155
0.18
153
0.34
148
0.31
200
0.36
163
0.28
151
0.30
115
0.22
125
0.22
118
2.69
228
0.58
157
0.37
152
0.28
138
1.14
225
0.32
142
1.08
184
0.88
122
0.18
168
0.24
193
0.26
118
0.23
86
0.58
197
2.34
283
DMCA-RVCcopylefttwo views0.41
140
0.21
101
0.22
162
0.32
210
0.28
196
0.18
98
0.45
229
0.34
148
0.30
194
0.32
130
1.09
262
0.31
122
0.16
79
0.30
174
2.90
233
0.35
53
0.26
82
0.25
117
0.26
50
0.30
132
0.38
77
0.34
42
0.16
149
0.28
208
0.35
176
0.20
75
0.36
106
0.27
113
RPtwo views0.45
153
0.29
205
0.33
221
0.30
201
0.31
207
0.28
165
0.35
207
0.34
148
0.33
211
0.23
61
0.36
184
0.36
145
0.26
153
0.24
133
3.81
254
0.31
34
0.28
98
0.22
87
0.33
76
0.23
103
0.26
44
0.85
120
0.19
176
0.22
182
0.29
142
0.29
137
0.52
177
0.36
163
R-Stereo Traintwo views0.54
184
0.24
155
0.24
174
0.24
167
0.18
124
0.24
143
0.09
66
0.34
148
0.30
194
0.52
218
0.66
223
0.44
183
0.32
183
0.55
253
0.74
67
1.07
236
0.58
242
0.52
259
1.27
241
0.64
241
1.51
238
1.89
256
0.14
124
0.20
163
0.35
176
0.42
193
0.35
95
0.47
188
RAFT-Stereopermissivetwo views0.54
184
0.24
155
0.24
174
0.24
167
0.18
124
0.24
143
0.09
66
0.34
148
0.30
194
0.52
218
0.66
223
0.44
183
0.32
183
0.55
253
0.74
67
1.07
236
0.58
242
0.52
259
1.27
241
0.64
241
1.51
238
1.89
256
0.14
124
0.20
163
0.35
176
0.42
193
0.35
95
0.47
188
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
PS-NSSStwo views0.43
145
0.38
244
0.25
187
0.42
235
0.30
203
0.35
204
0.32
194
0.34
148
0.20
129
0.36
163
0.24
120
0.74
240
0.24
137
0.40
224
1.98
201
0.34
50
0.33
135
0.23
99
0.55
144
0.20
73
0.41
85
0.57
72
0.52
266
0.20
163
0.31
159
0.31
148
0.87
242
0.37
164
LALA_ROBtwo views0.62
200
0.52
262
0.32
219
0.33
212
0.35
229
0.40
226
0.31
191
0.34
148
0.40
224
0.46
204
0.61
217
1.27
263
0.29
164
0.39
220
3.75
253
0.45
109
0.51
219
0.38
212
0.57
153
0.40
181
0.82
162
1.11
158
0.24
201
0.31
217
0.36
185
0.43
199
0.81
238
0.51
198
trnettwo views0.35
109
0.23
140
0.19
124
0.17
110
0.20
140
0.14
60
0.08
56
0.35
159
0.20
129
0.35
149
0.21
102
0.38
153
0.31
174
0.14
58
0.78
78
0.76
203
0.40
167
0.30
151
0.43
107
0.52
215
0.98
176
0.80
115
0.12
91
0.15
102
0.25
111
0.24
98
0.37
110
0.32
139
SAtwo views0.30
78
0.21
101
0.14
80
0.14
79
0.14
71
0.15
68
0.07
50
0.35
159
0.16
84
0.31
117
0.12
51
0.41
173
0.14
68
0.20
114
0.74
67
0.56
154
0.27
87
0.30
151
0.58
157
0.21
89
0.49
104
0.88
122
0.08
39
0.15
102
0.27
127
0.28
126
0.56
189
0.26
107
DDUNettwo views0.75
219
0.91
280
0.42
250
1.24
285
1.03
289
1.19
284
1.16
283
0.35
159
0.35
214
0.37
170
0.45
195
0.64
231
0.32
183
1.77
291
2.89
231
0.44
98
0.71
256
0.48
242
0.87
199
0.59
228
0.53
120
0.64
91
0.85
287
0.28
208
0.34
169
0.34
161
0.61
206
0.39
171
IPLGtwo views0.72
216
0.20
90
0.18
113
0.16
96
0.17
115
0.15
68
0.13
114
0.35
159
0.22
143
0.35
149
1.18
268
0.29
103
0.24
137
0.54
251
9.17
312
0.54
148
0.35
146
0.29
145
0.56
145
0.37
163
0.54
125
1.38
195
0.11
78
0.57
272
0.35
176
0.29
137
0.67
217
0.22
81
GMOStereotwo views0.34
98
0.19
75
0.15
86
0.16
96
0.16
96
0.32
185
0.12
94
0.35
159
0.17
102
0.35
149
0.15
70
0.29
103
0.22
125
0.17
84
0.81
86
0.49
126
0.29
107
0.33
171
0.51
131
0.37
163
0.56
126
1.49
214
0.10
59
0.13
82
0.30
150
0.24
98
0.41
127
0.22
81
error versiontwo views0.34
98
0.19
75
0.15
86
0.16
96
0.16
96
0.32
185
0.12
94
0.35
159
0.17
102
0.35
149
0.15
70
0.29
103
0.22
125
0.17
84
0.81
86
0.49
126
0.29
107
0.33
171
0.51
131
0.37
163
0.56
126
1.49
214
0.10
59
0.13
82
0.30
150
0.24
98
0.41
127
0.22
81
test-vtwo views0.34
98
0.19
75
0.15
86
0.16
96
0.16
96
0.32
185
0.12
94
0.35
159
0.17
102
0.35
149
0.15
70
0.29
103
0.22
125
0.17
84
0.81
86
0.49
126
0.29
107
0.33
171
0.51
131
0.37
163
0.56
126
1.49
214
0.10
59
0.13
82
0.30
150
0.24
98
0.41
127
0.22
81
GANet-ADLtwo views0.60
194
0.27
192
0.26
192
0.28
193
0.29
198
0.32
185
0.25
177
0.35
159
0.27
183
0.61
241
1.04
260
0.41
173
0.29
164
0.30
174
1.87
197
1.08
239
0.51
219
0.37
199
1.17
228
0.85
270
1.27
215
1.88
255
0.19
176
0.23
187
0.32
164
0.37
176
0.58
197
0.46
185
AnonymousMtwo views0.60
194
0.18
63
0.13
62
0.13
66
0.11
47
0.31
178
0.07
50
0.35
159
0.23
152
0.31
117
0.42
191
0.28
93
0.31
174
0.37
208
1.34
173
0.89
225
0.44
191
0.33
171
0.42
101
0.57
222
0.97
173
1.20
172
0.17
157
0.34
222
0.16
57
0.82
252
2.20
306
3.23
300
test-2two views0.34
98
0.19
75
0.15
86
0.16
96
0.16
96
0.32
185
0.12
94
0.35
159
0.17
102
0.35
149
0.15
70
0.29
103
0.22
125
0.17
84
0.81
86
0.49
126
0.29
107
0.33
171
0.51
131
0.37
163
0.56
126
1.49
214
0.10
59
0.13
82
0.30
150
0.24
98
0.41
127
0.22
81
TestStereotwo views0.28
70
0.25
167
0.20
138
0.21
145
0.15
84
0.21
119
0.13
114
0.35
159
0.18
111
0.38
179
0.18
82
0.33
133
0.16
79
0.13
48
1.02
143
0.27
20
0.34
139
0.18
57
0.42
101
0.18
59
0.46
94
0.35
43
0.13
111
0.17
129
0.27
127
0.22
78
0.34
92
0.26
107
raftrobusttwo views0.31
85
0.20
90
0.20
138
0.18
120
0.18
124
0.12
45
0.09
66
0.35
159
0.15
77
0.34
141
0.21
102
0.27
88
0.14
68
0.39
220
0.70
60
0.54
148
0.27
87
0.21
79
0.75
184
0.19
66
0.59
134
1.07
150
0.19
176
0.14
94
0.26
118
0.24
98
0.27
72
0.24
93
XX-Stereotwo views4.69
316
0.19
75
0.24
174
0.27
185
0.16
96
0.42
231
0.32
194
0.35
159
0.21
138
0.73
276
1.64
289
0.46
197
0.38
211
0.30
174
0.95
133
1.09
241
0.43
187
0.38
212
1.25
236
0.47
209
1.42
226
1.54
225
0.21
188
0.17
129
110.85
340
0.46
209
1.00
259
0.84
230
psm_uptwo views0.35
109
0.26
184
0.27
199
0.28
193
0.25
178
0.27
160
0.18
153
0.35
159
0.32
205
0.29
96
0.24
120
0.30
115
0.25
144
0.50
245
0.93
128
0.34
50
0.34
139
0.31
161
0.62
162
0.36
157
0.43
90
0.50
63
0.16
149
0.27
204
0.33
166
0.34
161
0.39
119
0.34
149
stereogantwo views0.43
145
0.33
220
0.30
209
0.33
212
0.37
236
0.35
204
0.30
189
0.35
159
0.32
205
0.30
103
0.31
160
0.46
197
0.30
172
0.27
151
1.62
184
0.41
85
0.30
117
0.25
117
0.44
111
0.29
125
0.37
75
1.61
232
0.23
197
0.24
193
0.29
142
0.31
148
0.57
193
0.39
171
RTSCtwo views0.65
208
0.25
167
0.27
199
0.24
167
0.26
185
0.28
165
0.42
224
0.35
159
0.33
211
0.43
195
0.47
200
0.30
115
0.27
155
0.29
168
7.17
297
0.50
132
0.48
210
0.30
151
0.75
184
0.33
145
0.78
159
0.93
129
0.17
157
0.30
216
0.28
136
0.31
148
0.49
166
0.59
206
NCCL2two views0.55
188
0.35
225
0.31
217
0.30
201
0.40
242
0.25
152
0.24
168
0.35
159
0.31
200
0.41
192
0.33
173
0.35
143
0.24
137
0.53
248
4.10
258
0.47
119
0.40
167
0.31
161
0.39
93
0.31
140
0.70
151
0.99
137
0.41
251
0.32
219
0.45
218
0.45
206
0.75
232
0.51
198
zero-FEtwo views5.34
319
0.32
216
0.17
105
27.02
336
1.78
314
37.04
340
12.26
331
0.36
176
0.65
264
2.17
318
1.17
267
25.79
335
4.97
309
0.43
230
2.31
216
0.87
224
2.76
307
2.15
322
2.47
268
0.43
190
14.67
332
2.09
279
0.16
149
0.23
187
0.29
142
1.00
267
0.41
127
0.34
149
Sa-1000two views0.33
92
0.21
101
0.14
80
0.15
86
0.16
96
0.15
68
0.08
56
0.36
176
0.17
102
0.31
117
0.15
70
0.41
173
0.18
98
0.25
140
0.82
99
0.48
123
0.32
127
0.33
171
0.65
169
0.19
66
0.65
144
1.11
158
0.09
50
0.17
129
0.33
166
0.29
137
0.51
174
0.27
113
s12784htwo views0.54
184
0.28
202
0.26
192
0.30
201
0.23
169
0.17
89
0.12
94
0.36
176
0.24
157
0.38
179
0.23
115
0.40
166
0.38
211
0.16
78
1.09
153
1.11
244
0.47
204
0.27
127
0.71
180
0.37
163
1.49
234
1.46
208
0.12
91
0.17
129
0.39
199
0.32
156
2.18
304
0.88
235
CREStereotwo views0.38
123
0.22
118
0.20
138
0.17
110
0.16
96
0.15
68
0.08
56
0.36
176
0.24
157
0.36
163
0.27
140
0.39
158
0.39
216
0.16
78
0.92
127
0.97
228
0.46
199
0.27
127
0.43
107
0.52
215
1.15
194
1.04
146
0.13
111
0.16
118
0.25
111
0.24
98
0.37
110
0.31
133
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNettwo views0.39
131
0.27
192
0.23
168
0.29
199
0.26
185
0.25
152
0.39
220
0.36
176
0.24
157
0.35
149
0.34
176
0.36
145
0.27
155
0.27
151
0.93
128
0.39
73
0.31
122
0.34
183
0.68
177
0.43
190
0.60
135
0.90
124
0.19
176
0.22
182
0.38
195
0.42
193
0.37
110
0.44
179
AF-Nettwo views0.38
123
0.25
167
0.25
187
0.25
173
0.30
203
0.28
165
0.41
222
0.36
176
0.30
194
0.25
77
0.32
167
0.39
158
0.21
120
0.23
126
2.08
207
0.31
34
0.23
57
0.22
87
0.39
93
0.22
99
0.53
120
0.78
111
0.21
188
0.19
153
0.26
118
0.27
123
0.42
138
0.33
144
Nwc_Nettwo views0.38
123
0.25
167
0.25
187
0.25
173
0.30
203
0.28
165
0.41
222
0.36
176
0.30
194
0.25
77
0.32
167
0.39
158
0.21
120
0.23
126
2.08
207
0.31
34
0.23
57
0.22
87
0.39
93
0.22
99
0.53
120
0.78
111
0.21
188
0.19
153
0.26
118
0.27
123
0.42
138
0.33
144
ADCReftwo views1.02
246
0.34
224
0.38
238
0.23
158
0.35
229
0.32
185
0.40
221
0.36
176
0.86
277
0.39
184
0.31
160
0.39
158
0.25
144
0.28
159
9.75
318
0.63
173
0.33
135
0.32
165
0.81
189
0.56
220
0.47
101
0.72
101
0.47
260
0.34
222
1.00
277
1.09
270
0.99
256
5.10
316
SACVNettwo views0.38
123
0.30
210
0.26
192
0.28
193
0.29
198
0.26
155
0.34
206
0.37
184
0.29
189
0.35
149
0.27
140
0.29
103
0.25
144
0.38
214
0.59
32
0.43
94
0.36
148
0.29
145
0.56
145
0.29
125
0.68
147
1.21
174
0.19
176
0.25
198
0.37
191
0.35
165
0.45
154
0.38
169
RGCtwo views0.51
178
0.36
230
0.46
255
0.35
220
0.36
234
0.40
226
0.30
189
0.37
184
0.39
221
0.32
130
0.45
195
0.40
166
0.42
224
0.35
201
2.99
236
0.36
60
0.32
127
0.28
138
0.47
113
0.33
145
0.61
138
1.00
139
0.24
201
0.28
208
0.38
195
0.46
209
0.52
177
0.53
201
MyStereo04two views0.43
145
0.28
202
0.26
192
0.23
158
0.24
175
0.18
98
0.14
124
0.38
186
0.28
187
0.59
234
0.28
151
0.39
158
0.18
98
0.36
204
1.03
144
0.61
166
0.35
146
0.27
127
1.20
230
0.43
190
1.04
178
0.77
110
0.38
243
0.26
200
0.37
191
0.39
181
0.55
187
0.30
125
UDGtwo views0.91
236
0.94
282
0.44
253
1.22
284
1.16
293
1.14
283
1.35
286
0.38
186
0.36
218
0.43
195
0.55
211
0.62
225
0.33
189
1.60
289
5.73
282
0.80
211
0.75
259
0.45
231
0.94
206
0.65
247
1.13
191
1.10
155
0.64
275
0.32
219
0.36
185
0.39
181
0.53
181
0.38
169
GLC_STEREOtwo views0.31
85
0.23
140
0.24
174
0.20
137
0.20
140
0.18
98
0.14
124
0.38
186
0.16
84
0.34
141
0.25
124
0.29
103
0.16
79
0.17
84
0.68
57
0.52
143
0.37
152
0.27
127
0.42
101
0.37
163
0.90
167
0.42
51
0.13
111
0.15
102
0.24
102
0.18
66
0.48
164
0.25
99
sAnonymous2two views0.38
123
0.21
101
0.17
105
0.16
96
0.16
96
0.21
119
0.15
136
0.38
186
0.26
173
0.28
89
0.26
136
0.30
115
0.32
183
0.16
78
0.67
52
0.61
166
0.40
167
0.36
193
0.81
189
0.39
177
1.05
181
1.29
183
0.14
124
0.19
153
0.29
142
0.35
165
0.33
83
0.35
159
CroCo_RVCtwo views0.38
123
0.21
101
0.17
105
0.16
96
0.16
96
0.21
119
0.15
136
0.38
186
0.26
173
0.28
89
0.26
136
0.30
115
0.32
183
0.16
78
0.67
52
0.61
166
0.40
167
0.36
193
0.81
189
0.39
177
1.05
181
1.29
183
0.14
124
0.19
153
0.29
142
0.35
165
0.33
83
0.35
159
ADCLtwo views1.10
251
0.44
256
0.36
232
0.33
212
0.33
214
0.38
216
0.47
231
0.38
186
1.23
295
0.60
238
0.47
200
0.43
179
0.27
155
0.32
188
7.84
304
0.57
156
0.38
157
0.55
266
0.68
177
0.69
250
0.65
144
0.81
116
0.29
226
0.36
229
1.73
301
1.85
298
1.77
292
5.47
318
LG-Stereo_Zeroshottwo views0.62
200
1.03
285
0.18
113
0.89
278
0.50
258
0.74
272
0.26
179
0.39
192
0.22
143
0.92
296
0.69
228
1.06
257
0.44
226
0.32
188
0.86
115
0.99
230
0.48
210
0.31
161
0.56
145
0.38
171
1.49
234
1.87
254
0.12
91
0.16
118
0.27
127
0.29
137
0.52
177
0.80
226
FCDSN-DCtwo views0.84
233
0.37
236
0.67
279
0.40
233
0.40
242
0.35
204
0.89
270
0.39
192
0.31
200
0.46
204
0.35
182
0.44
183
0.31
174
0.38
214
8.90
307
0.84
220
0.47
204
0.48
242
0.73
182
0.38
171
1.12
189
1.58
227
0.30
227
0.57
272
0.37
191
0.42
193
0.42
138
0.37
164
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet-RVC-Resampletwo views0.45
153
0.30
210
0.59
274
0.28
193
0.45
251
0.21
119
0.24
168
0.39
192
0.32
205
0.44
199
0.31
160
0.43
179
0.44
226
0.43
230
1.18
161
0.51
138
0.37
152
0.43
227
0.60
159
0.64
241
0.49
104
1.02
143
0.30
227
0.37
231
0.31
159
0.39
181
0.33
83
0.41
174
PWC_ROBbinarytwo views0.69
211
0.37
236
0.41
246
0.30
201
0.35
229
0.34
199
0.50
236
0.39
192
0.69
269
0.45
203
0.80
240
0.54
215
1.20
269
0.29
168
2.36
218
1.23
251
0.63
248
0.53
262
1.01
211
0.46
208
1.15
194
1.40
200
0.26
208
0.49
255
0.38
195
0.37
176
0.68
218
0.97
238
CASStwo views0.51
178
0.27
192
0.27
199
0.32
210
0.26
185
0.29
173
0.67
260
0.40
196
0.30
194
0.47
207
0.52
208
0.47
202
0.36
199
0.16
78
0.74
67
0.67
183
0.71
256
0.46
235
0.78
187
0.28
121
1.67
256
1.48
211
0.17
157
0.20
163
0.42
207
0.34
161
0.53
181
0.46
185
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
GwcNet-ADLtwo views0.72
216
0.35
225
0.37
236
0.41
234
0.34
224
0.32
185
0.27
181
0.40
196
0.27
183
0.61
241
1.53
284
0.63
229
0.41
222
0.33
192
3.69
252
1.34
260
0.50
215
0.56
270
0.91
201
0.87
273
1.18
201
1.60
230
0.24
201
0.27
204
0.36
185
0.48
214
0.47
161
0.66
214
test-3two views0.47
166
0.22
118
0.20
138
0.18
120
0.21
148
0.19
105
0.12
94
0.41
198
0.16
84
0.35
149
0.18
82
0.42
176
0.19
109
0.19
106
1.04
147
0.66
178
0.32
127
0.30
151
1.28
244
0.44
201
1.13
191
1.75
247
0.10
59
0.17
129
0.45
218
0.23
86
0.56
189
1.21
256
test_1two views0.47
166
0.22
118
0.20
138
0.18
120
0.21
148
0.19
105
0.12
94
0.41
198
0.16
84
0.34
141
0.18
82
0.42
176
0.19
109
0.19
106
1.04
147
0.66
178
0.32
127
0.30
151
1.28
244
0.44
201
1.13
191
1.75
247
0.10
59
0.17
129
0.45
218
0.23
86
0.56
189
1.22
257
test_3two views0.47
166
0.22
118
0.20
138
0.18
120
0.21
148
0.19
105
0.12
94
0.41
198
0.18
111
0.36
163
0.18
82
0.44
183
0.21
120
0.19
106
1.03
144
0.64
174
0.32
127
0.31
161
1.28
244
0.44
201
1.12
189
1.74
244
0.10
59
0.18
142
0.47
222
0.28
126
0.59
202
1.22
257
GEStereo_RVCtwo views0.47
166
0.27
192
0.34
225
0.27
185
0.26
185
0.31
178
0.53
240
0.41
198
0.24
157
0.35
149
0.27
140
0.40
166
0.24
137
0.30
174
0.81
86
0.74
200
0.49
214
0.37
199
0.91
201
0.38
171
0.90
167
1.80
249
0.21
188
0.34
222
0.31
159
0.30
145
0.51
174
0.48
190
NCC-stereotwo views0.47
166
0.33
220
0.30
209
0.31
207
0.33
214
0.31
178
0.38
215
0.41
198
0.40
224
0.24
68
0.38
185
0.39
158
0.36
199
0.28
159
3.13
241
0.36
60
0.29
107
0.32
165
0.42
101
0.43
190
0.44
91
0.84
118
0.28
218
0.23
187
0.36
185
0.44
204
0.45
154
0.44
179
Abc-Nettwo views0.47
166
0.33
220
0.30
209
0.31
207
0.33
214
0.31
178
0.38
215
0.41
198
0.40
224
0.24
68
0.38
185
0.39
158
0.36
199
0.28
159
3.13
241
0.36
60
0.29
107
0.32
165
0.42
101
0.43
190
0.44
91
0.84
118
0.28
218
0.23
187
0.36
185
0.44
204
0.45
154
0.44
179
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RTStwo views0.80
225
0.32
216
0.28
204
0.30
201
0.33
214
0.44
237
0.59
248
0.41
198
0.46
237
0.43
195
0.34
176
0.51
210
0.34
191
0.30
174
7.29
298
0.70
193
0.55
232
0.36
193
1.02
212
0.45
205
0.93
170
1.01
141
0.25
204
0.37
231
0.54
236
1.72
293
0.58
197
0.79
218
RTSAtwo views0.80
225
0.32
216
0.28
204
0.30
201
0.33
214
0.44
237
0.59
248
0.41
198
0.46
237
0.43
195
0.34
176
0.51
210
0.34
191
0.30
174
7.29
298
0.70
193
0.55
232
0.36
193
1.02
212
0.45
205
0.93
170
1.01
141
0.25
204
0.37
231
0.54
236
1.72
293
0.58
197
0.79
218
HSMtwo views0.39
131
0.24
155
0.23
168
0.26
183
0.25
178
0.20
113
0.18
153
0.41
198
0.20
129
0.32
130
0.30
158
0.39
158
0.24
137
0.22
118
2.57
225
0.39
73
0.33
135
0.22
87
0.49
122
0.30
132
0.70
151
0.47
60
0.14
124
0.20
163
0.29
142
0.31
148
0.44
150
0.33
144
MSKI-zero shottwo views0.70
213
0.21
101
0.21
153
0.20
137
0.19
133
0.43
235
0.16
142
0.42
207
0.29
189
0.44
199
1.16
265
0.48
204
0.36
199
0.17
84
1.60
183
1.42
266
0.47
204
0.37
199
1.37
251
0.95
284
1.79
269
2.06
273
0.22
195
0.19
153
0.53
233
1.21
275
0.72
224
1.17
255
Any-RAFTtwo views0.58
192
0.22
118
0.32
219
0.23
158
0.21
148
0.20
113
0.14
124
0.42
207
0.25
165
0.40
187
1.16
265
0.49
206
0.32
183
0.37
208
0.87
122
0.85
221
0.67
251
0.38
212
1.20
230
0.41
183
2.25
299
1.67
236
0.18
168
0.17
129
0.43
212
0.49
217
0.44
150
0.84
230
HHtwo views0.60
194
0.18
63
0.35
229
0.23
158
0.21
148
0.28
165
0.24
168
0.42
207
0.26
173
0.74
277
0.25
124
0.46
197
0.36
199
0.24
133
0.81
86
1.44
269
0.38
157
0.37
199
1.21
232
0.64
241
2.13
288
1.97
267
0.27
212
0.20
163
0.59
248
0.41
190
0.83
239
0.63
210
HanStereotwo views0.60
194
0.18
63
0.35
229
0.23
158
0.21
148
0.28
165
0.24
168
0.42
207
0.26
173
0.74
277
0.25
124
0.46
197
0.36
199
0.24
133
0.81
86
1.44
269
0.38
157
0.37
199
1.21
232
0.64
241
2.13
288
1.97
267
0.27
212
0.20
163
0.59
248
0.41
190
0.83
239
0.63
210
raft_robusttwo views0.39
131
0.22
118
0.16
94
0.20
137
0.16
96
0.16
79
0.11
84
0.42
207
0.18
111
0.42
194
0.15
70
0.33
133
0.24
137
0.27
151
1.23
165
0.80
211
0.31
122
0.33
171
0.91
201
0.36
157
0.71
154
1.21
174
0.11
78
0.20
163
0.30
150
0.30
145
0.36
106
0.30
125
SFCPSMtwo views2.02
290
0.37
236
0.29
207
0.38
228
0.33
214
0.38
216
0.38
215
0.42
207
0.48
245
0.63
249
1.10
263
1.09
258
4.92
308
0.35
201
1.80
191
1.39
263
0.59
244
0.50
251
31.93
335
0.84
268
1.50
237
1.59
229
0.30
227
0.37
231
0.42
207
0.52
221
0.69
219
1.01
242
DN-CSS_ROBtwo views0.35
109
0.22
118
0.24
174
0.23
158
0.26
185
0.15
68
0.12
94
0.42
207
0.19
119
0.39
184
0.41
190
0.34
139
0.26
153
0.32
188
0.67
52
0.42
86
0.30
117
0.23
99
0.92
204
0.21
89
0.80
160
0.68
95
0.15
140
0.27
204
0.24
102
0.22
78
0.41
127
0.30
125
model_zeroshottwo views0.81
228
0.22
118
0.23
168
0.34
217
0.21
148
0.45
241
0.16
142
0.43
214
0.23
152
0.59
234
1.10
263
0.50
209
0.31
174
0.26
145
2.66
227
1.04
235
0.42
181
0.35
188
1.40
253
0.52
215
1.90
274
1.60
230
0.15
140
0.20
163
2.65
311
1.52
286
0.79
237
1.54
272
EKT-Stereotwo views1.22
259
0.27
192
0.24
174
0.28
193
0.25
178
0.31
178
0.54
241
0.43
214
0.29
189
0.44
199
0.57
212
0.49
206
0.44
226
0.31
184
13.29
330
2.18
303
0.54
230
0.53
262
1.26
238
1.02
290
5.16
324
2.03
271
0.14
124
0.19
153
0.42
207
0.35
165
0.56
189
0.34
149
FADNet_RVCtwo views0.85
234
0.35
225
1.01
295
0.44
242
0.63
272
0.27
160
0.63
253
0.43
214
0.46
237
0.48
210
0.50
205
0.65
232
0.54
235
0.58
258
3.52
250
0.82
218
0.52
224
1.02
308
1.68
258
0.71
252
1.59
253
1.50
218
0.45
256
0.59
277
0.56
241
0.43
199
1.89
297
0.62
209
MSMDNettwo views0.63
204
0.24
155
0.22
162
0.19
127
0.20
140
0.38
216
0.17
148
0.43
214
0.24
157
0.60
238
0.33
173
0.40
166
1.53
278
0.50
245
0.85
112
1.50
274
0.42
181
0.35
188
1.26
238
0.67
249
1.90
274
2.18
289
0.17
157
0.18
142
0.58
245
0.53
223
0.39
119
0.58
204
CC-Net-ROBtwo views0.62
200
0.60
272
0.40
242
0.81
274
0.59
266
0.75
273
0.57
242
0.43
214
0.31
200
0.47
207
0.32
167
1.38
269
0.73
254
0.62
263
0.60
35
0.33
43
0.42
181
0.32
165
2.70
272
0.28
121
0.50
110
0.61
85
0.98
290
0.28
208
0.39
199
0.37
176
0.39
119
0.54
202
iRaft-Stereo_20wtwo views0.96
238
0.31
214
0.58
273
0.57
258
0.34
224
0.51
248
0.58
245
0.44
219
0.32
205
0.90
294
1.59
286
0.56
219
0.49
234
0.37
208
2.05
205
1.22
250
0.42
181
0.52
259
1.04
214
0.82
266
1.52
240
2.14
282
0.27
212
0.38
236
1.04
280
3.39
315
2.04
300
1.45
268
TRStereotwo views1.21
258
0.32
216
0.47
257
0.25
173
0.18
124
0.64
264
0.26
179
0.44
219
0.20
129
0.70
269
0.57
212
0.80
248
0.29
164
0.23
126
1.08
152
1.85
291
0.37
152
0.35
188
1.05
215
0.88
279
1.36
224
1.89
256
0.17
157
0.16
118
0.67
255
16.20
334
0.88
244
0.49
195
cross-rafttwo views0.56
190
0.25
167
0.22
162
0.21
145
0.20
140
0.39
223
0.15
136
0.44
219
0.26
173
0.48
210
0.35
182
0.43
179
0.31
174
0.24
133
0.86
115
1.35
261
0.41
173
0.34
183
1.31
249
0.78
259
1.98
281
1.89
256
0.16
149
0.18
142
0.47
222
0.46
209
0.42
138
0.68
215
test-1two views0.83
231
0.18
63
0.23
168
0.19
127
0.19
133
0.57
259
0.58
245
0.44
219
0.29
189
0.72
274
5.41
315
0.54
215
0.40
218
0.59
259
0.98
139
1.32
257
0.45
193
0.48
242
1.14
225
0.96
286
1.90
274
2.36
302
0.14
124
0.21
174
0.39
199
0.46
209
0.61
206
0.63
210
AIO-Stereo-zeroshotpermissivetwo views0.86
235
0.37
236
0.57
268
0.34
217
0.29
198
0.54
253
0.69
262
0.45
223
0.72
272
0.64
252
1.75
296
0.59
223
0.64
244
0.23
126
0.93
128
1.53
278
0.44
191
0.40
219
1.27
241
1.04
292
1.62
254
2.22
294
0.18
168
0.38
236
0.83
270
0.48
214
2.98
315
1.10
247
gcap-zeroshottwo views1.09
250
0.23
140
0.33
221
0.59
261
0.20
140
0.40
226
0.35
207
0.45
223
0.24
157
0.74
277
1.21
271
0.63
229
0.34
191
0.25
140
0.80
84
1.71
286
3.94
322
0.29
145
9.06
307
0.81
263
1.52
240
1.94
264
1.39
296
0.18
142
0.58
245
0.39
181
0.41
127
0.41
174
RAFT-Testtwo views0.64
207
0.24
155
0.22
162
0.25
173
0.21
148
0.45
241
0.17
148
0.45
223
0.26
173
0.66
257
0.80
240
0.40
166
0.39
216
0.36
204
1.01
142
1.49
273
0.41
173
0.34
183
1.29
247
0.61
232
1.90
274
1.84
251
0.17
157
0.18
142
0.54
236
0.93
260
0.41
127
1.26
259
EAI-Stereotwo views1.15
257
0.27
192
0.37
236
0.54
250
0.30
203
8.38
328
0.76
264
0.45
223
0.63
263
0.34
141
0.88
250
0.46
197
0.33
189
0.25
140
1.83
194
1.17
248
0.40
167
0.65
278
2.53
270
0.73
254
1.47
230
1.71
242
0.23
197
0.46
250
1.08
285
1.64
292
1.45
281
1.79
277
AMNettwo views0.63
204
0.59
271
0.56
267
0.59
261
0.59
266
0.64
264
0.58
245
0.45
223
0.53
253
0.51
215
0.69
228
0.75
241
0.40
218
0.87
274
0.68
57
0.86
223
0.71
256
0.66
281
0.63
166
0.62
236
0.76
156
0.62
87
0.38
243
0.59
277
0.57
243
0.69
241
0.70
222
0.75
217
NaN_ROBtwo views0.82
230
0.41
251
0.41
246
0.36
222
0.49
254
0.42
231
0.44
228
0.45
223
1.33
299
0.40
187
0.67
226
0.89
253
0.31
174
0.47
237
5.25
274
0.55
152
0.34
139
0.53
262
0.49
122
0.63
238
0.60
135
0.95
130
0.28
218
0.49
255
0.78
267
1.57
288
0.98
253
1.71
276
FBW_ROBtwo views1.04
247
0.64
275
0.57
268
0.87
277
0.87
285
0.68
270
0.98
273
0.45
223
0.34
213
0.53
221
0.75
235
1.03
256
1.27
273
1.90
293
6.09
285
0.42
86
0.60
245
0.33
171
2.46
267
0.49
212
1.49
234
1.10
155
1.23
293
0.56
268
0.44
216
0.53
223
0.55
187
0.82
228
MLCVtwo views0.53
182
0.25
167
0.24
174
0.36
222
0.32
210
0.30
175
0.22
165
0.46
230
0.47
243
0.53
221
0.80
240
0.51
210
0.40
218
0.26
145
0.94
131
1.44
269
0.41
173
0.30
151
1.26
238
0.27
116
1.16
199
1.23
178
0.23
197
0.35
228
0.33
166
0.35
165
0.49
166
0.34
149
iResNettwo views0.62
200
0.26
184
0.26
192
0.36
222
0.38
239
0.42
231
0.27
181
0.46
230
0.31
200
0.56
225
0.73
233
0.68
235
0.73
254
0.17
84
1.73
188
1.72
287
0.39
162
0.37
199
1.52
255
0.57
222
1.58
251
0.98
135
0.20
184
0.46
250
0.34
169
0.39
181
0.59
202
0.40
173
DLNR_Zeroshot_testpermissivetwo views11.48
328
37.23
340
0.46
255
54.89
340
0.21
148
0.37
212
49.84
340
0.47
232
0.22
143
0.80
286
0.59
215
0.62
225
0.36
199
3.08
309
63.85
340
73.41
340
9.38
329
5.61
327
2.77
273
0.65
247
1.83
272
1.41
201
0.13
111
0.22
182
0.37
191
0.38
179
0.43
147
0.48
190
AnyNet_C32two views1.27
263
0.41
251
0.36
232
0.37
226
0.40
242
0.48
244
0.62
251
0.47
232
1.23
295
0.56
225
0.89
252
0.53
213
0.36
199
0.40
224
10.27
324
1.27
252
0.55
232
0.54
265
0.88
200
0.63
238
1.28
217
1.52
222
0.34
241
0.50
258
1.09
286
2.40
305
1.34
275
4.67
314
AIO-Stereo-zeroshot1permissivetwo views2.63
299
0.30
210
0.54
263
0.34
217
0.37
236
0.63
263
0.68
261
0.48
234
1.07
287
0.69
264
1.55
285
0.62
225
0.59
238
0.18
103
0.86
115
1.75
288
0.42
181
0.50
251
49.64
338
1.04
292
1.53
245
2.14
282
0.19
176
0.28
208
0.72
258
1.86
299
0.98
253
1.07
243
IGEV_Zeroshot_testtwo views0.78
223
0.25
167
0.47
257
0.58
260
0.25
178
0.61
261
0.63
253
0.48
234
0.28
187
0.67
260
1.32
276
0.66
233
0.41
222
0.31
184
0.87
122
1.36
262
0.39
162
0.36
193
1.13
224
0.76
258
1.57
250
2.29
298
0.20
184
0.20
163
0.84
271
0.84
254
2.28
307
1.09
246
HSM-Net_RVCpermissivetwo views0.94
237
0.26
184
0.27
199
0.43
237
0.31
207
0.28
165
0.23
167
0.48
234
0.29
189
0.58
230
0.98
258
11.38
324
0.46
231
0.24
133
1.33
170
0.65
177
0.47
204
0.30
151
0.57
153
0.57
222
1.31
220
1.26
179
0.27
212
0.44
247
0.43
212
0.45
206
0.54
183
0.48
190
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
anonymitytwo views1.60
277
0.25
167
0.41
246
0.27
185
0.23
169
0.51
248
0.16
142
0.49
237
0.27
183
0.63
249
23.10
335
0.57
221
0.59
238
0.37
208
0.78
78
1.33
258
0.46
199
0.35
188
1.10
220
0.48
211
1.47
230
2.07
277
0.21
188
0.33
221
1.11
288
1.60
290
3.07
317
1.08
245
SHDtwo views0.72
216
0.30
210
0.42
250
0.35
220
0.34
224
0.33
198
0.45
229
0.49
237
0.44
232
0.53
221
0.63
219
0.47
202
0.64
244
0.34
196
6.15
286
0.52
143
0.47
204
0.37
199
0.94
206
0.45
205
0.88
166
1.12
160
0.25
204
0.42
243
0.47
222
0.47
213
0.50
172
0.63
210
iResNetv2_ROBtwo views0.46
156
0.24
155
0.17
105
0.27
185
0.21
148
0.23
135
0.14
124
0.49
237
0.19
119
0.37
170
0.29
154
0.37
150
0.27
155
0.26
145
3.28
247
0.42
86
0.28
98
0.22
87
0.85
198
0.23
103
1.22
204
0.59
79
0.16
149
0.26
200
0.27
127
0.24
98
0.57
193
0.28
115
CSANtwo views1.01
244
0.52
262
0.48
260
0.47
246
0.49
254
0.38
216
0.48
233
0.49
237
2.50
317
0.69
264
2.01
299
1.44
271
0.69
251
0.60
262
4.20
260
0.56
154
0.46
199
0.47
237
0.82
193
2.20
319
1.16
199
1.10
155
0.31
233
0.53
264
1.68
299
1.02
268
0.72
224
0.81
227
iResNet_ROBtwo views0.34
98
0.23
140
0.20
138
0.22
155
0.19
133
0.21
119
0.16
142
0.49
237
0.18
111
0.36
163
0.24
120
0.27
88
0.29
164
0.22
118
1.33
170
0.45
109
0.30
117
0.24
110
0.64
168
0.18
59
0.68
147
0.55
68
0.14
124
0.21
174
0.26
118
0.25
115
0.49
166
0.30
125
SQANettwo views1.31
264
1.35
290
0.53
262
3.10
305
1.03
289
1.89
292
1.49
289
0.50
242
0.40
224
0.51
215
0.46
198
1.19
261
0.55
237
1.57
288
2.53
223
0.49
126
1.24
282
0.37
199
6.38
295
0.61
232
1.71
260
1.74
244
2.52
304
0.37
231
0.46
221
0.57
228
0.66
214
1.26
259
DAStwo views0.67
209
0.27
192
0.24
174
0.38
228
0.33
214
0.34
199
0.33
201
0.51
243
0.46
237
0.61
241
0.94
255
0.78
245
0.67
249
0.19
106
0.96
135
1.83
289
0.55
232
0.47
237
1.12
222
0.61
232
2.11
284
1.69
238
0.27
212
0.44
247
0.43
212
0.43
199
0.62
208
0.48
190
SepStereotwo views0.67
209
0.27
192
0.24
174
0.38
228
0.33
214
0.34
199
0.33
201
0.51
243
0.46
237
0.61
241
0.94
255
0.78
245
0.67
249
0.19
106
0.96
135
1.83
289
0.55
232
0.47
237
1.12
222
0.61
232
2.11
284
1.69
238
0.27
212
0.44
247
0.43
212
0.43
199
0.62
208
0.48
190
Anonymous3two views0.57
191
0.29
205
0.22
162
0.21
145
0.25
178
0.27
160
0.22
165
0.51
243
0.35
214
0.37
170
0.27
140
0.76
243
0.54
235
0.47
237
1.18
161
1.93
294
0.51
219
0.47
237
0.94
206
0.58
226
1.27
215
1.69
238
0.19
176
0.21
174
0.36
185
0.39
181
0.54
183
0.37
164
STTRV1_RVCtwo views0.41
251
0.34
225
0.54
250
0.41
245
0.55
255
0.43
227
0.51
243
0.50
249
0.51
215
0.50
205
0.85
252
1.05
263
0.55
253
0.84
102
0.58
157
1.80
299
0.45
231
1.77
312
1.77
268
1.50
218
0.59
277
0.52
232
0.67
240
0.89
247
1.44
267
GANetREF_RVCpermissivetwo views0.50
176
0.40
247
0.38
238
0.38
228
0.35
229
0.35
204
0.32
194
0.51
243
0.42
231
0.48
210
0.27
140
0.71
237
0.44
226
0.29
168
1.10
158
0.45
109
1.07
273
0.33
171
0.62
162
0.36
157
0.86
165
0.64
91
0.30
227
0.39
238
0.44
216
0.40
189
0.64
211
0.50
196
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
DPSNettwo views1.40
268
0.43
255
0.38
238
0.54
250
0.61
271
0.65
267
0.57
242
0.51
243
0.67
267
0.46
204
0.87
249
3.54
304
1.62
279
1.43
287
2.52
222
2.12
300
0.99
268
0.99
306
7.37
301
1.69
310
2.21
296
2.98
317
0.95
289
0.74
291
0.76
262
0.76
247
0.75
232
0.82
228
ITSA-stereotwo views0.96
238
0.36
230
0.34
225
0.55
254
0.41
245
0.32
185
0.64
256
0.52
249
0.47
243
0.71
270
1.48
282
0.67
234
0.62
242
0.35
201
3.07
240
1.67
285
0.52
224
0.56
270
1.10
220
0.87
273
1.33
221
1.89
256
0.52
266
0.51
260
0.50
229
1.05
269
3.15
319
1.80
278
CEStwo views0.41
140
0.19
75
0.16
94
0.14
79
0.18
124
0.16
79
0.10
77
0.54
250
0.25
165
0.30
103
0.34
176
0.40
166
0.38
211
0.47
237
1.33
170
0.79
207
0.52
224
0.48
242
0.33
76
0.42
188
1.04
178
1.15
165
0.14
124
0.13
82
0.26
118
0.22
78
0.28
75
0.34
149
HBP-ISPtwo views1.24
261
0.38
244
0.50
261
0.52
248
0.41
245
0.45
241
0.33
201
0.55
251
0.40
224
0.76
282
1.30
275
0.48
204
0.48
233
1.92
294
9.87
322
3.68
323
0.55
232
0.66
281
0.82
193
0.95
284
2.11
284
2.96
316
0.30
227
0.46
250
0.47
222
0.52
221
0.94
251
0.60
207
PSMNet-ADLtwo views0.77
221
0.29
205
0.30
209
0.33
212
0.32
210
0.32
185
0.37
214
0.55
251
0.35
214
0.71
270
1.43
281
0.56
219
1.01
261
2.47
304
1.18
161
2.02
298
1.58
290
0.41
221
1.06
216
0.50
213
1.25
213
1.44
205
0.35
242
0.24
193
0.35
176
0.41
190
0.65
212
0.34
149
otakutwo views1.43
269
2.19
306
0.62
277
3.33
307
1.22
295
2.22
305
1.77
293
0.56
253
0.53
253
0.59
234
0.53
209
1.29
265
0.69
251
2.06
298
1.09
153
0.51
138
1.25
283
0.39
216
6.35
294
0.59
228
1.91
278
1.95
265
3.16
311
0.48
254
0.56
241
0.57
228
0.74
231
1.36
263
XQCtwo views0.80
225
0.47
257
0.40
242
0.50
247
0.46
252
0.50
245
0.57
242
0.56
253
0.48
245
0.58
230
0.63
219
0.58
222
0.81
258
0.45
232
6.95
295
0.73
198
0.45
193
0.36
193
0.84
196
0.42
188
0.81
161
1.06
148
0.33
239
0.42
243
0.53
233
0.61
234
0.69
219
0.50
196
dadtwo views0.58
192
0.29
205
0.20
138
0.65
269
0.32
210
0.37
212
0.94
272
0.59
255
0.18
111
0.44
199
0.18
82
0.49
206
0.42
224
0.17
84
3.83
255
0.50
132
0.41
173
0.27
127
0.77
186
0.32
142
0.49
104
0.45
57
0.19
176
0.34
222
0.57
243
0.24
98
1.23
270
0.84
230
ADCMidtwo views1.14
256
0.50
259
0.55
266
0.39
232
0.59
266
0.56
256
0.77
266
0.59
255
0.76
275
0.47
207
0.71
230
0.70
236
0.71
253
0.39
220
8.21
305
1.09
241
0.51
219
0.45
231
1.73
259
0.51
214
1.04
178
1.21
174
0.59
271
0.40
240
0.58
245
1.47
285
1.24
272
4.18
312
ccs_robtwo views1.11
252
0.35
225
0.33
221
0.43
237
0.29
198
0.44
237
0.38
215
0.59
255
0.35
214
1.97
316
5.99
316
5.59
316
0.59
238
0.45
232
1.05
149
1.28
253
0.52
224
0.39
216
1.76
261
0.87
273
1.76
265
2.05
272
0.26
208
0.43
246
0.34
169
0.36
172
0.50
172
0.56
203
SGM-Foresttwo views1.95
284
0.37
236
0.25
187
0.54
250
0.44
249
0.40
226
0.24
168
0.59
255
0.75
274
0.72
274
0.66
223
0.99
254
2.05
283
0.34
196
5.58
278
1.88
292
0.46
199
0.39
216
23.75
329
0.29
125
2.17
293
1.62
233
0.40
249
0.29
214
1.04
280
0.59
231
1.80
293
4.01
310
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
Ntrotwo views1.62
278
3.84
319
0.69
280
2.63
303
1.29
296
2.25
307
2.87
308
0.61
259
0.56
256
0.62
247
0.50
205
1.32
267
0.66
248
2.02
297
3.24
244
0.47
119
1.35
287
0.42
224
6.77
296
0.64
241
2.20
294
2.08
278
3.05
308
0.55
267
0.60
250
0.69
241
0.73
229
1.16
254
ACVNet-4btwo views3.25
307
6.98
326
0.72
283
12.08
328
1.33
298
4.39
319
9.77
327
0.61
259
0.60
260
0.66
257
3.91
312
5.47
315
11.63
320
2.24
301
0.74
67
0.55
152
2.39
305
0.49
246
10.57
314
0.87
273
2.24
298
2.88
312
2.92
306
0.61
280
0.61
251
0.58
230
0.72
224
1.15
251
S-Stereotwo views1.43
269
0.40
247
0.43
252
0.60
263
0.58
265
0.64
264
1.10
278
0.61
259
0.57
257
0.69
264
4.10
313
1.62
280
0.65
246
0.46
235
4.54
264
2.87
317
0.55
232
0.65
278
4.87
290
4.90
325
1.26
214
2.26
296
0.99
291
0.61
280
0.41
204
0.53
223
0.66
214
0.97
238
RainbowNettwo views1.44
271
1.50
293
0.85
286
2.41
302
1.41
302
1.97
295
2.14
298
0.65
262
0.57
257
0.74
277
0.46
198
1.61
278
1.05
263
2.78
307
1.90
199
1.30
254
1.21
280
0.51
255
3.15
280
1.74
311
1.75
264
1.97
267
3.07
309
0.61
280
0.65
253
0.69
241
0.88
244
1.43
266
MFN_U_SF_DS_RVCtwo views0.83
231
0.54
267
0.35
229
0.63
266
0.46
252
0.56
256
1.02
275
0.65
262
0.60
260
0.57
227
0.47
200
0.82
251
1.21
270
1.11
283
2.25
212
0.60
162
0.36
148
0.33
171
1.25
236
0.40
181
1.94
279
1.62
233
0.47
260
0.39
238
0.76
262
0.81
250
0.75
232
1.49
270
DCVSM-stereotwo views1.12
254
0.31
214
0.36
232
0.43
237
0.33
214
0.52
252
0.35
207
0.68
264
0.39
221
0.66
257
1.41
280
1.60
277
0.79
256
0.39
220
0.81
86
1.02
231
0.48
210
0.37
199
12.56
318
0.92
283
1.54
247
1.37
193
0.41
251
0.49
255
0.41
204
0.51
220
0.65
212
0.61
208
ADCStwo views1.39
267
0.51
261
0.47
257
0.45
245
0.55
262
0.51
248
0.64
256
0.68
264
1.05
286
0.57
227
0.72
231
0.80
248
2.34
288
0.51
247
9.94
323
2.13
301
0.76
260
0.62
277
1.30
248
0.62
236
1.80
270
1.62
233
0.43
254
0.56
268
0.76
262
2.09
302
1.59
286
3.47
303
pmcnntwo views1.11
252
0.42
254
0.41
246
0.57
258
0.59
266
0.54
253
1.41
287
0.71
266
0.48
245
0.61
241
1.28
274
1.51
275
2.96
297
1.04
279
1.42
178
2.33
306
0.81
261
0.96
302
1.74
260
1.09
296
2.41
304
1.74
244
0.82
286
0.50
258
0.48
228
0.69
241
1.09
262
1.28
262
ACVNet_1two views1.67
279
1.63
296
0.96
291
4.28
310
1.59
307
2.19
304
3.55
311
0.73
267
0.57
257
0.63
249
0.58
214
1.49
274
0.97
260
5.05
324
1.52
182
0.54
148
2.24
303
0.55
266
4.77
289
0.57
222
2.20
294
1.58
227
3.26
314
0.65
286
0.70
257
0.64
236
0.69
219
0.89
236
SAMSARAtwo views1.05
248
0.40
247
0.57
268
0.44
242
0.43
248
0.43
235
0.62
251
0.74
268
0.61
262
0.60
238
0.72
231
0.59
223
1.65
280
0.46
235
6.43
289
0.74
200
0.53
229
0.50
251
1.24
235
0.55
218
1.24
206
1.37
193
0.28
218
0.56
268
1.63
297
1.74
295
1.65
289
1.61
275
FAT-Stereotwo views1.13
255
0.37
236
0.57
268
0.56
257
0.63
272
0.50
245
0.52
237
0.75
269
0.44
232
0.79
285
2.82
307
1.45
272
1.95
282
0.49
244
2.78
229
2.52
312
0.57
240
0.60
275
2.42
266
1.17
300
2.12
287
2.13
281
0.74
284
0.58
275
0.41
204
0.56
227
0.72
224
1.27
261
MFMNet_retwo views0.98
241
0.78
279
0.71
282
0.83
275
0.72
277
0.97
278
0.83
267
0.75
269
0.86
277
0.69
264
0.79
238
1.30
266
0.83
259
0.68
266
2.27
213
1.16
247
1.03
270
0.80
297
1.61
256
0.85
270
2.25
299
1.12
160
0.65
277
0.71
290
0.66
254
0.66
239
0.98
253
0.99
241
MSC_U_SF_DS_RVCtwo views1.26
262
2.34
310
0.85
286
1.48
289
0.80
284
1.00
279
1.15
282
0.76
271
0.94
284
1.33
307
0.54
210
1.54
276
1.67
281
2.00
295
2.30
214
0.97
228
1.08
274
1.05
309
3.01
277
1.06
295
1.37
225
1.51
220
1.22
292
0.67
287
0.76
262
0.65
237
0.59
202
1.40
265
Reg-Stereo(zero)two views0.71
214
0.22
118
0.30
209
0.21
145
0.22
163
0.32
185
0.36
212
0.77
272
0.44
232
0.65
253
1.65
291
0.54
215
0.36
199
1.01
276
0.86
115
1.42
266
0.50
215
0.26
123
1.07
217
0.60
230
1.15
194
2.16
286
0.28
218
0.17
129
0.55
239
0.93
260
1.09
262
1.15
251
HItwo views0.71
214
0.22
118
0.30
209
0.21
145
0.22
163
0.32
185
0.36
212
0.77
272
0.44
232
0.65
253
1.65
291
0.54
215
0.36
199
1.01
276
0.86
115
1.42
266
0.50
215
0.26
123
1.07
217
0.60
230
1.15
194
2.16
286
0.28
218
0.17
129
0.55
239
0.93
260
1.09
262
1.15
251
LoStwo views0.46
156
0.23
140
0.17
105
0.19
127
0.19
133
0.19
105
0.12
94
0.77
272
0.26
173
0.50
213
0.45
195
0.53
213
0.47
232
0.23
126
1.06
151
0.85
221
0.56
239
0.43
227
0.62
162
0.41
183
1.28
217
1.41
201
0.15
140
0.16
118
0.35
176
0.28
126
0.33
83
0.35
159
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
FC-DCNNcopylefttwo views0.96
238
0.50
259
0.92
289
0.79
273
0.52
260
0.73
271
1.10
278
0.77
272
0.52
251
0.62
247
0.65
221
0.72
238
0.62
242
0.38
214
3.13
241
0.83
219
0.94
265
0.50
251
1.19
229
0.43
190
1.52
240
1.33
187
0.31
233
0.52
262
1.01
279
0.92
259
1.51
282
2.93
299
PSMNet_ROBtwo views3.52
312
1.88
301
0.99
292
1.71
292
1.19
294
2.12
303
2.02
294
0.79
276
0.86
277
8.42
332
19.75
334
12.43
325
2.32
287
7.26
331
2.04
204
0.69
184
1.30
284
1.37
315
9.12
308
0.91
281
2.05
282
1.34
190
8.71
333
0.77
295
1.06
283
1.46
284
1.32
274
1.13
249
FC-DCNN v2copylefttwo views1.01
244
0.52
262
1.01
295
0.85
276
0.53
261
0.77
274
1.07
277
0.83
277
0.65
264
0.61
241
0.65
221
0.72
238
0.79
256
0.37
208
3.26
245
0.81
213
0.95
266
0.47
237
1.22
234
0.41
183
1.52
240
1.34
190
0.31
233
0.51
260
1.30
290
1.29
279
1.86
296
2.78
291
SPS-STEREOcopylefttwo views1.49
273
0.72
276
0.69
280
0.90
279
0.75
279
0.82
277
0.74
263
0.83
277
0.76
275
0.85
291
1.62
288
1.42
270
1.09
266
0.70
268
1.97
200
2.32
305
1.04
271
0.97
304
10.95
315
1.01
289
2.60
308
2.45
305
0.64
275
0.76
294
0.81
269
0.79
249
1.11
266
0.96
237
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views1.92
283
1.61
295
1.00
293
5.61
318
1.57
305
2.05
297
2.23
299
0.87
279
0.68
268
0.71
270
0.74
234
1.61
278
1.15
268
2.00
295
2.43
220
0.69
184
2.79
308
0.51
255
12.02
317
0.71
252
1.81
271
1.68
237
2.66
305
0.79
297
1.09
286
0.74
246
0.95
252
1.11
248
NOSS_ROBtwo views0.81
228
0.36
230
0.27
199
0.37
226
0.35
229
0.37
212
0.29
188
0.87
279
0.39
221
0.71
270
0.93
254
0.99
254
0.60
241
1.26
286
2.02
202
2.44
309
0.57
240
0.58
273
0.68
177
0.43
190
2.16
292
2.47
306
0.32
238
0.47
253
0.42
207
0.43
199
0.72
224
0.42
177
CBMVpermissivetwo views1.06
249
0.38
244
0.33
221
0.42
235
0.39
241
0.39
223
0.31
191
0.87
279
0.40
224
0.65
253
0.86
247
1.47
273
1.22
272
1.02
278
1.89
198
2.41
308
0.67
251
0.51
255
1.66
257
0.78
259
1.69
259
2.20
292
0.31
233
0.52
262
0.47
222
0.49
217
1.04
260
5.23
317
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
G-Nettwo views1.35
266
0.55
269
0.65
278
0.43
237
0.49
254
0.56
256
0.48
233
0.89
282
1.35
300
0.67
260
1.22
272
3.00
298
1.21
270
0.36
204
4.11
259
1.64
284
0.61
246
0.76
291
1.37
251
1.35
304
1.63
255
1.89
256
0.39
246
0.61
280
0.80
268
3.07
313
1.57
284
4.68
315
AnyNet_C01two views1.52
275
0.60
272
0.54
263
0.63
266
0.56
263
0.51
248
1.16
283
0.89
282
1.30
298
0.68
262
0.88
250
1.27
263
1.30
276
0.54
251
11.26
326
2.64
314
1.16
276
1.01
307
1.42
254
0.75
256
1.67
256
1.92
263
0.60
272
0.62
284
1.33
291
0.97
266
1.63
288
3.28
301
ADCPNettwo views1.59
276
0.37
236
0.74
284
0.43
237
0.76
280
0.42
231
1.45
288
0.90
284
0.70
270
0.76
282
1.68
294
0.76
243
3.19
300
0.76
271
8.96
309
1.92
293
0.54
230
0.37
199
4.76
288
1.03
291
1.19
202
1.09
152
0.94
288
0.40
240
1.06
283
1.36
280
0.93
250
5.53
320
LVEtwo views2.66
300
1.99
304
1.02
298
12.01
327
1.75
312
3.85
316
11.87
330
0.91
285
0.89
282
1.03
304
0.91
253
1.62
280
2.23
285
2.46
303
2.96
234
1.03
232
1.74
296
0.82
299
8.43
306
0.87
273
1.84
273
2.20
292
3.10
310
0.99
308
1.45
293
0.96
264
1.23
270
1.54
272
PVDtwo views0.98
241
0.54
267
0.59
274
0.60
263
0.56
263
0.66
269
0.63
253
0.91
285
0.87
281
0.57
227
0.85
245
0.80
248
1.03
262
0.59
259
6.60
290
0.64
174
0.69
254
0.55
266
1.16
227
0.63
238
1.22
204
1.27
182
0.39
246
0.53
264
0.75
261
0.88
256
0.85
241
1.07
243
edge stereotwo views1.98
287
0.52
262
1.03
299
0.72
270
0.63
272
0.79
275
0.83
267
0.93
287
1.45
303
3.71
323
1.22
272
2.08
291
4.38
306
1.06
280
2.14
209
2.51
311
0.64
249
0.55
266
7.27
300
7.84
327
1.43
228
5.56
327
2.02
301
0.53
264
0.61
251
0.55
226
0.87
242
1.48
269
MADNet+two views1.22
259
0.60
272
0.77
285
0.77
271
0.74
278
0.61
261
1.01
274
0.94
288
0.74
273
0.78
284
0.68
227
1.18
260
1.07
265
0.68
266
7.48
302
1.39
263
1.12
275
0.65
278
1.33
250
0.91
281
2.13
288
1.51
220
0.66
278
0.97
306
1.05
282
0.83
253
0.92
249
1.39
264
SANettwo views1.44
271
0.57
270
0.54
263
0.55
254
0.60
270
0.65
267
0.76
264
0.94
288
5.50
323
0.52
218
2.23
303
4.15
311
2.61
292
0.65
265
5.29
275
0.52
143
1.21
280
0.56
270
0.93
205
0.83
267
1.54
247
1.38
195
0.47
260
0.62
284
0.74
259
1.16
272
0.88
244
2.41
286
CBMV_ROBtwo views1.31
264
0.37
236
0.39
241
0.60
263
0.49
254
0.57
259
0.47
231
0.95
290
0.40
224
0.81
287
1.38
279
3.04
299
2.55
291
0.48
241
5.00
271
1.30
254
0.89
263
0.49
246
2.24
264
0.73
254
1.72
262
1.95
265
0.45
256
0.40
240
0.97
275
2.27
304
1.56
283
2.91
298
IMH-64-1two views1.98
287
1.48
291
1.04
300
1.97
294
1.55
303
2.06
298
2.27
301
1.02
291
1.16
291
0.58
230
0.75
235
1.89
288
2.78
294
2.77
305
9.78
319
1.51
276
1.19
278
0.66
281
3.01
277
0.81
263
1.48
232
2.06
273
3.25
312
0.74
291
1.59
295
1.25
277
2.09
301
2.83
294
IMH-64two views1.98
287
1.48
291
1.04
300
1.97
294
1.55
303
2.06
298
2.27
301
1.02
291
1.16
291
0.58
230
0.75
235
1.89
288
2.78
294
2.77
305
9.78
319
1.51
276
1.19
278
0.66
281
3.01
277
0.81
263
1.48
232
2.06
273
3.25
312
0.74
291
1.59
295
1.25
277
2.09
301
2.83
294
WAO-6two views1.95
284
1.28
289
0.85
286
2.04
298
1.34
299
1.69
290
2.05
296
1.04
293
1.24
297
0.91
295
0.86
247
1.85
286
2.71
293
2.30
302
9.05
311
1.14
246
2.89
309
0.69
286
3.16
281
0.85
270
2.21
296
2.27
297
1.29
294
0.87
299
1.64
298
2.07
301
1.72
291
2.69
290
IMHtwo views2.50
295
1.51
294
1.05
303
1.99
297
1.58
306
2.09
301
2.32
303
1.04
293
1.19
294
0.84
290
1.34
277
2.02
290
8.04
313
8.79
332
6.91
294
1.41
265
1.37
288
0.67
285
5.94
292
1.10
298
1.45
229
2.32
301
4.37
324
0.77
295
1.86
303
1.41
281
1.57
284
2.46
287
Deantwo views1.78
280
1.76
299
1.00
293
5.98
321
1.87
316
2.22
305
2.59
305
1.07
295
1.14
290
0.98
300
0.82
243
1.85
286
2.08
284
2.18
300
2.05
205
1.07
236
2.05
301
0.70
287
2.78
274
0.97
287
2.14
291
1.89
256
2.92
306
0.93
304
1.41
292
1.11
271
1.39
277
1.14
250
LSM0two views4.83
317
0.52
262
0.57
268
0.78
272
0.66
275
0.81
276
1.26
285
1.10
296
1.08
288
0.88
293
1.65
291
1.82
284
2.45
290
0.40
224
38.07
339
52.94
339
0.87
262
0.61
276
5.33
291
1.09
296
2.57
307
3.54
321
0.43
254
0.69
289
0.94
274
2.15
303
1.61
287
5.62
321
WAO-7two views1.96
286
1.09
287
1.32
310
5.02
313
0.99
288
1.02
282
1.64
290
1.16
297
1.46
305
2.58
320
2.14
302
2.11
292
2.83
296
1.20
285
6.00
284
1.03
232
1.68
293
0.70
287
7.59
302
0.87
273
1.71
260
1.97
267
0.38
243
1.05
309
0.98
276
1.45
283
1.10
265
1.84
279
DispFullNettwo views3.41
310
2.89
318
1.54
315
1.52
291
1.71
308
1.49
287
1.66
291
1.26
298
2.27
314
2.07
317
1.94
298
15.55
327
4.16
305
1.77
291
5.50
277
4.82
326
2.33
304
0.96
302
23.18
328
4.57
322
2.36
303
2.47
306
0.73
283
0.57
272
1.23
289
0.62
235
1.37
276
1.51
271
WAO-8two views3.09
304
2.55
312
1.41
311
5.78
319
1.73
309
2.51
308
3.26
309
1.28
299
1.93
312
5.67
327
8.70
324
3.06
300
6.18
310
4.38
318
3.04
238
1.97
296
1.78
297
0.75
289
9.44
309
1.54
306
1.76
265
2.31
299
2.46
302
1.07
310
2.29
308
1.80
296
1.83
294
2.83
294
Venustwo views3.09
304
2.55
312
1.41
311
5.78
319
1.73
309
2.51
308
3.26
309
1.28
299
1.93
312
5.67
327
8.70
324
3.06
300
6.18
310
4.38
318
3.04
238
1.97
296
1.78
297
0.75
289
9.44
309
1.54
306
1.76
265
2.31
299
2.46
302
1.07
310
2.29
308
1.80
296
1.83
294
2.83
294
SGM+DAISYtwo views2.56
298
0.94
282
0.92
289
1.06
281
0.97
286
1.24
285
1.04
276
1.31
301
1.76
309
1.12
305
2.01
299
2.59
296
3.35
303
0.87
274
6.30
287
3.19
319
1.16
276
1.11
311
6.92
298
1.55
308
2.89
313
2.90
313
0.67
279
1.23
317
3.89
319
4.14
320
5.13
323
8.82
325
SGM-ForestMtwo views1.49
273
1.99
304
1.26
308
1.18
282
0.67
276
1.50
288
1.71
292
1.32
302
0.94
284
0.74
277
1.03
259
2.90
297
2.23
285
0.55
253
1.68
186
0.62
171
1.34
285
0.49
246
2.81
275
0.58
226
1.33
221
1.12
160
0.57
269
0.56
268
2.12
307
2.46
306
3.00
316
3.53
305
notakertwo views3.52
312
2.84
317
1.55
316
5.08
314
6.69
329
3.97
317
4.03
312
1.33
303
3.34
319
1.17
306
3.34
310
6.77
318
11.07
319
5.35
326
4.78
266
1.20
249
3.25
313
0.97
304
10.40
313
2.75
320
2.90
314
2.14
282
3.69
318
1.16
314
1.00
277
1.21
275
1.44
279
1.57
274
PWCKtwo views2.53
296
1.63
296
1.01
295
1.98
296
1.29
296
2.08
300
2.10
297
1.37
304
1.44
302
1.41
310
1.79
297
5.07
313
2.34
288
1.08
282
3.26
245
0.91
226
1.71
295
0.77
293
22.70
327
1.31
303
2.44
306
1.46
208
1.41
297
0.98
307
1.69
300
1.61
291
1.40
278
2.14
281
ELAScopylefttwo views2.27
292
1.03
285
1.10
305
1.38
288
1.13
292
1.45
286
1.10
278
1.38
305
1.09
289
0.94
298
7.66
319
3.71
306
3.10
299
1.11
283
6.64
291
1.56
279
1.42
289
1.43
316
2.52
269
0.69
250
2.33
302
3.03
318
0.69
281
0.82
298
3.50
317
4.32
321
2.52
311
3.70
307
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views2.73
301
1.92
302
1.56
317
2.34
301
1.82
315
2.66
310
2.78
307
1.44
306
1.45
303
0.81
287
0.82
243
4.05
309
1.44
277
2.08
299
9.39
315
2.60
313
1.69
294
1.33
314
2.15
262
1.21
302
3.25
317
3.66
322
1.90
300
1.08
312
2.76
315
5.03
322
2.31
309
10.12
327
MDST_ROBtwo views2.36
293
4.67
324
0.44
253
3.47
308
0.77
282
2.09
301
0.52
237
1.45
307
0.44
232
0.69
264
0.96
257
0.78
245
9.65
317
0.30
174
8.31
306
0.79
207
0.46
199
0.37
199
3.22
282
0.38
171
1.95
280
2.12
280
0.46
259
0.36
229
4.26
321
2.58
307
6.75
325
5.48
319
ELAS_RVCcopylefttwo views2.37
294
0.95
284
1.21
307
1.26
286
0.98
287
1.99
296
1.12
281
1.45
307
0.86
277
0.99
301
7.87
320
3.60
305
8.50
314
1.07
281
6.31
288
1.59
282
1.34
285
1.44
317
2.57
271
0.79
261
2.43
305
3.03
318
0.71
282
0.88
300
3.51
318
3.72
318
1.69
290
2.07
280
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MeshStereopermissivetwo views2.03
291
0.72
276
0.61
276
1.20
283
0.79
283
1.01
281
0.66
259
1.54
309
1.35
300
0.92
296
2.10
301
4.00
308
3.06
298
0.71
270
9.66
317
2.82
315
1.05
272
0.76
291
4.73
287
0.75
256
3.34
318
3.73
323
0.48
263
0.58
275
1.79
302
1.18
273
2.41
310
2.78
291
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
MFN_U_SF_RVCtwo views1.81
282
2.41
311
1.86
320
2.14
300
1.76
313
1.92
293
2.34
304
1.56
310
1.47
306
3.68
322
3.76
311
1.21
262
1.27
273
1.71
290
3.52
250
2.14
302
1.01
269
0.92
301
3.46
283
0.99
288
1.73
263
1.56
226
0.77
285
2.30
325
0.76
262
0.81
250
0.70
222
0.98
240
KSHMRtwo views5.12
318
2.29
308
1.47
313
20.10
332
3.65
321
5.24
323
9.39
326
1.58
311
6.86
325
1.38
309
1.49
283
2.35
293
27.00
338
4.39
320
4.91
268
1.96
295
1.66
292
1.12
313
15.45
322
1.19
301
2.92
316
2.14
282
4.07
321
1.21
316
7.00
326
2.72
312
1.95
299
2.80
293
MANEtwo views3.30
308
1.71
298
1.93
321
1.49
290
1.37
301
1.77
291
2.02
294
1.90
312
2.39
316
0.87
292
1.68
294
3.71
306
4.07
304
0.78
272
7.43
300
3.40
320
1.81
300
6.10
328
2.99
276
1.05
294
2.09
283
2.38
303
0.61
274
1.76
322
5.46
323
6.93
326
8.52
326
12.82
329
TorneroNet-64two views3.44
311
2.19
306
2.33
323
7.00
323
1.73
309
3.02
311
4.22
313
1.95
313
3.75
320
0.82
289
3.10
309
4.11
310
12.63
323
3.76
313
6.96
296
1.63
283
3.11
312
0.79
295
7.96
304
1.98
317
2.65
309
2.69
310
3.37
315
0.90
302
2.67
313
2.65
310
1.21
269
3.65
306
STStereotwo views3.38
309
1.14
288
1.69
319
7.09
324
1.35
300
7.29
327
2.62
306
2.11
314
2.34
315
0.95
299
2.86
308
5.97
317
6.28
312
0.38
214
11.54
327
2.20
304
0.93
264
0.89
300
11.21
316
0.90
280
1.58
251
1.46
208
0.55
268
1.58
319
3.31
316
3.09
314
3.08
318
6.91
322
TorneroNettwo views5.38
320
2.29
308
1.20
306
17.70
331
6.11
328
4.86
321
6.44
322
2.12
315
4.67
322
1.56
311
7.04
317
11.27
322
24.96
332
4.04
314
5.06
272
1.56
279
3.02
310
0.79
295
14.79
321
1.88
314
2.79
311
2.59
309
3.47
316
0.89
301
6.89
325
2.63
309
1.30
273
3.48
304
MADNet++two views2.98
303
1.95
303
2.23
322
1.73
293
2.39
317
1.68
289
2.24
300
2.26
316
2.69
318
2.34
319
2.78
306
3.30
302
3.34
302
2.86
308
4.22
261
4.20
324
2.65
306
2.14
321
3.69
284
3.00
321
4.95
323
7.04
329
1.44
298
2.60
326
1.93
304
5.78
323
2.76
313
2.35
284
UNDER WATER-64two views3.14
306
2.61
314
1.56
317
4.95
312
2.92
320
3.47
313
4.38
314
2.32
317
1.63
308
1.37
308
1.36
278
5.08
314
4.79
307
3.47
312
7.48
302
2.02
298
3.68
320
1.11
311
3.99
285
1.95
315
2.87
312
2.92
315
5.01
327
1.40
318
1.99
306
3.99
319
2.15
303
4.42
313
UNDER WATERtwo views4.11
315
2.66
315
1.51
314
4.92
311
5.25
323
3.49
314
7.24
324
2.33
318
1.84
311
1.65
313
1.20
269
5.04
312
21.14
328
5.09
325
4.93
270
2.44
309
3.86
321
1.09
310
8.36
305
1.97
316
3.80
321
2.73
311
5.04
328
2.11
323
1.96
305
3.54
317
1.91
298
3.93
309
JetRedtwo views3.85
314
2.71
316
3.02
324
2.08
299
2.45
318
3.41
312
4.64
315
2.34
319
1.83
310
1.88
314
1.20
269
3.35
303
1.28
275
3.27
310
9.82
321
3.50
321
4.08
324
3.88
325
2.41
265
1.82
313
5.48
326
4.79
325
3.60
317
1.67
321
4.20
320
11.19
331
5.32
324
8.78
324
DDVStwo views1.78
280
0.35
225
0.40
242
0.33
212
0.38
239
0.37
212
0.33
201
2.41
320
0.46
237
0.68
262
17.02
332
2.44
295
0.65
246
0.81
273
2.50
221
1.31
256
0.61
246
0.49
246
6.21
293
0.84
268
2.90
314
2.24
295
0.26
208
0.34
222
0.34
169
0.60
233
2.18
304
0.71
216
DGSMNettwo views2.89
302
1.85
300
1.04
300
1.35
287
0.50
258
1.94
294
0.59
248
2.82
321
1.53
307
3.95
324
15.60
329
1.84
285
3.19
300
4.88
323
2.89
231
2.87
317
3.06
311
1.91
319
4.57
286
2.02
318
4.46
322
3.48
320
1.64
299
2.11
323
0.88
272
3.46
316
1.04
260
2.62
289
DPSMNet_ROBtwo views11.01
326
4.36
322
11.20
330
3.81
309
5.73
325
4.71
320
5.45
320
3.67
322
9.75
329
4.35
325
13.56
328
11.30
323
26.82
337
5.44
329
13.51
331
12.50
331
6.62
327
12.38
333
14.62
320
10.30
330
7.11
330
16.01
333
4.56
326
9.06
331
11.07
330
27.51
335
11.13
330
30.63
335
DGTPSM_ROBtwo views9.57
325
4.02
321
11.10
329
3.15
306
5.69
324
3.62
315
5.37
319
3.67
322
9.11
327
3.26
321
7.88
321
9.79
321
14.19
325
4.73
322
13.10
329
11.13
330
5.27
325
11.44
332
7.09
299
10.27
329
6.42
329
15.33
332
4.54
325
9.05
330
10.05
327
27.51
335
11.07
329
30.63
335
ACV-stereotwo views5.83
321
11.12
329
0.40
242
0.64
268
0.34
224
6.32
324
4.79
316
4.59
324
0.50
249
0.65
253
0.85
245
1.68
283
8.74
315
4.63
321
8.94
308
3.51
322
0.67
251
0.58
273
83.85
339
1.15
299
3.70
320
6.30
328
0.42
253
0.42
243
0.38
195
0.78
248
0.76
236
0.58
204
MaskLacGwcNet_RVCtwo views7.88
323
4.50
323
1.31
309
2.75
304
2.71
319
5.17
322
7.48
325
5.91
325
8.23
326
1.63
312
10.81
327
75.58
340
10.28
318
4.33
317
2.18
211
1.44
269
7.17
328
8.31
329
6.88
297
1.67
309
3.57
319
2.90
313
1.30
295
1.13
313
4.31
322
6.17
325
20.85
335
4.05
311
LE_ROBtwo views7.96
324
3.98
320
5.96
328
6.32
322
20.03
335
4.31
318
17.09
333
6.33
326
9.23
328
1.00
302
4.87
314
16.05
328
22.60
330
3.45
311
2.97
235
0.95
227
2.14
302
1.91
319
13.13
319
5.86
326
2.32
301
2.18
289
9.68
334
5.18
328
10.55
329
9.20
328
10.65
328
17.10
333
PMLtwo views14.72
333
11.16
330
4.09
325
13.72
329
8.87
330
13.75
330
6.38
321
7.25
327
36.05
340
10.34
333
59.29
340
46.05
339
52.59
340
6.65
330
6.70
292
4.81
325
10.30
330
3.77
324
21.46
326
4.87
324
5.83
328
5.51
326
3.98
319
4.24
327
15.02
335
6.06
324
20.81
334
7.86
323
SGM_RVCbinarytwo views2.55
297
0.93
281
1.05
303
0.97
280
0.76
280
1.00
279
0.93
271
7.37
328
1.18
293
1.01
303
1.64
289
2.39
294
9.36
316
0.62
263
2.02
202
1.33
258
1.60
291
0.80
297
7.94
303
1.42
305
1.67
256
1.69
238
0.67
279
0.94
305
2.66
312
2.65
310
4.83
322
9.43
326
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ktntwo views6.56
322
5.17
325
14.71
334
5.30
315
4.74
322
9.67
329
6.68
323
7.48
329
12.97
333
1.88
314
2.35
305
27.30
336
21.86
329
4.31
316
5.72
281
1.50
274
4.02
323
1.83
318
15.82
323
4.59
323
2.65
309
2.06
273
3.99
320
1.18
315
2.40
310
1.57
288
2.89
314
2.50
288
DPSM_ROBtwo views13.84
331
8.97
327
13.58
332
5.45
316
6.10
326
7.18
325
5.27
317
8.45
330
11.05
330
6.78
330
8.04
322
8.60
319
12.52
321
5.36
327
16.95
332
14.18
332
11.50
331
14.64
334
9.74
311
12.04
331
17.24
333
19.94
336
4.24
322
11.13
332
27.83
336
35.96
337
31.24
337
39.61
337
DPSMtwo views13.84
331
8.97
327
13.58
332
5.45
316
6.10
326
7.18
325
5.27
317
8.45
330
11.05
330
6.78
330
8.04
322
8.60
319
12.52
321
5.36
327
16.95
332
14.18
332
11.50
331
14.64
334
9.74
311
12.04
331
17.24
333
19.94
336
4.24
322
11.13
332
27.83
336
35.96
337
31.24
337
39.61
337
BEATNet-Init1two views11.60
329
15.45
332
5.36
327
21.04
333
10.14
332
20.37
334
13.59
332
8.80
332
6.63
324
4.42
326
10.00
326
14.23
326
19.35
326
4.04
314
10.43
325
9.21
328
6.50
326
5.00
326
32.12
336
14.67
335
8.25
331
7.49
330
5.66
329
5.23
329
12.24
331
7.07
327
21.30
336
14.66
330
LRCNet_RVCtwo views12.77
330
18.28
335
5.31
326
23.03
334
20.03
335
22.79
336
18.73
335
10.19
333
4.29
321
21.40
337
17.07
333
21.90
332
12.67
324
27.64
337
4.72
265
1.57
281
13.91
333
9.09
330
27.19
332
10.23
328
5.66
327
2.42
304
25.54
336
13.38
334
1.45
293
0.65
237
3.23
320
2.39
285
HanzoNettwo views11.30
327
14.06
331
16.74
335
13.89
330
9.10
331
15.60
333
21.20
336
11.16
334
12.45
332
6.15
329
7.25
318
20.77
331
27.41
339
28.53
338
4.84
267
9.79
329
14.66
334
2.80
323
24.65
330
12.81
334
5.39
325
4.27
324
8.60
332
1.63
320
2.70
314
2.61
308
2.55
312
3.43
302
CasAABBNettwo views27.80
338
18.03
333
27.32
338
10.90
325
12.21
333
14.33
331
10.52
328
16.96
335
22.28
335
13.77
334
16.14
330
17.40
330
25.40
335
10.69
333
34.10
338
28.35
337
23.05
335
29.43
339
19.46
324
24.14
337
34.48
339
39.80
339
8.47
330
22.42
338
56.04
339
72.44
339
62.78
339
79.64
339
FlowAnythingtwo views27.85
339
18.03
333
27.34
339
10.94
326
12.29
334
14.36
332
10.56
329
17.06
336
22.31
336
13.81
335
16.29
331
17.36
329
25.24
334
10.81
334
34.02
337
28.46
338
23.06
336
29.40
337
19.47
325
24.22
338
34.52
340
40.11
340
8.49
331
22.48
339
56.03
338
72.70
340
62.83
340
79.78
340
HaxPigtwo views22.03
335
23.76
336
21.73
336
25.29
335
25.48
337
24.76
337
26.73
337
22.91
337
21.16
334
29.02
338
26.42
336
24.60
333
19.57
327
25.83
336
24.34
334
21.24
334
25.03
338
26.17
336
24.65
330
23.00
336
18.72
335
16.12
334
29.01
337
21.22
337
10.44
328
12.85
332
9.65
327
15.02
331
DPSimNet_ROBtwo views19.60
334
30.02
338
12.51
331
29.96
338
26.66
338
21.35
335
18.10
334
23.34
338
23.91
337
14.59
336
30.41
338
25.17
334
25.12
333
12.92
335
12.40
328
9.18
327
23.72
337
11.03
331
37.61
337
12.43
333
24.99
337
8.77
331
13.55
335
15.98
335
13.56
332
10.45
329
19.73
333
21.73
334
MEDIAN_ROBtwo views25.69
336
28.81
337
26.20
337
29.88
337
29.43
339
29.00
338
30.34
338
27.00
339
24.64
338
34.12
339
30.21
337
29.31
337
23.43
331
29.48
339
26.63
335
23.36
335
29.99
339
29.41
338
29.88
333
27.28
339
23.55
336
19.50
335
31.94
338
23.91
340
14.08
334
13.72
333
13.09
332
15.43
332
AVERAGE_ROBtwo views27.45
337
31.37
339
28.57
340
32.97
339
32.12
340
32.15
339
33.40
339
29.93
340
27.60
339
35.93
340
32.13
339
32.22
338
25.90
336
32.99
340
28.90
336
25.88
336
31.46
340
30.17
340
31.78
334
29.24
340
25.48
338
21.56
338
34.85
339
27.16
341
14.02
333
10.69
330
11.65
331
11.07
328
ASD4two views18.37
336