This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.28
1
0.38
19
0.20
13
0.18
14
0.14
7
0.35
52
0.10
13
0.38
27
0.16
13
0.20
10
0.08
3
0.30
13
0.14
5
0.09
1
0.53
1
0.67
3
0.44
15
0.24
1
0.40
9
0.20
1
0.42
8
0.29
1
0.11
1
0.14
7
0.45
29
0.25
12
0.39
4
0.24
9
Pointernettwo views0.28
1
0.22
4
0.15
3
0.14
9
0.12
3
0.19
13
0.16
36
0.28
11
0.11
1
0.17
7
0.16
13
0.23
2
0.15
9
0.17
11
0.82
4
0.55
1
0.40
7
0.24
1
0.35
2
0.21
3
0.37
4
0.78
8
0.15
7
0.17
14
0.26
3
0.20
1
0.68
32
0.22
6
CroCo-Stereo Lap2two views0.35
3
0.23
6
0.15
3
0.11
2
0.12
3
0.16
5
0.08
5
0.35
24
0.15
10
0.47
40
0.10
4
0.33
14
0.15
9
0.16
8
1.27
12
1.03
25
0.37
3
0.37
18
0.46
16
0.22
5
0.60
29
0.93
12
0.17
10
0.14
7
0.40
22
0.34
33
0.41
6
0.27
20
StereoVisiontwo views0.36
4
0.28
10
0.22
18
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
34
0.35
30
0.18
14
0.35
18
0.17
18
0.17
11
1.03
9
0.80
11
0.47
20
0.36
14
0.44
12
0.23
6
0.47
12
0.59
5
0.16
8
0.22
27
0.41
25
0.40
43
0.72
34
0.36
32
CroCo-Stereocopylefttwo views0.36
4
0.21
3
0.15
3
0.11
2
0.10
1
0.19
13
0.06
1
0.33
19
0.14
6
0.31
24
0.05
1
0.37
21
0.14
5
0.18
15
1.64
23
1.08
32
0.38
6
0.38
19
0.52
18
0.21
3
0.65
36
0.90
11
0.17
10
0.15
9
0.39
18
0.31
25
0.45
8
0.26
18
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MM-Stereo_test3two views0.37
6
0.36
17
0.15
3
0.25
23
0.15
11
0.15
3
0.08
5
0.48
37
0.18
24
0.26
18
0.10
4
0.41
29
0.12
3
0.12
2
0.95
8
0.72
6
0.45
16
0.28
5
0.37
6
0.36
15
0.36
3
1.78
47
0.27
28
0.13
4
0.32
11
0.20
1
0.80
46
0.23
7
MLG-Stereo_test1two views0.40
7
0.23
6
0.15
3
0.13
7
0.22
26
0.12
1
0.08
5
0.22
4
0.13
4
0.20
10
0.12
7
0.33
14
0.11
1
0.24
31
2.19
45
1.64
112
0.37
3
0.35
12
0.57
24
0.27
7
0.42
8
1.20
23
0.12
2
0.11
2
0.30
6
0.22
5
0.53
12
0.27
20
MLG-Stereotwo views0.41
8
0.25
8
0.14
2
0.11
2
0.20
21
0.12
1
0.07
2
0.22
4
0.12
3
0.19
8
0.11
6
0.29
9
0.11
1
0.23
29
2.49
57
2.34
161
0.37
3
0.36
14
0.53
21
0.29
9
0.38
6
0.64
6
0.12
2
0.10
1
0.30
6
0.22
5
0.49
10
0.25
15
ProNettwo views0.42
9
0.28
10
0.34
38
0.26
25
0.15
11
0.28
36
0.40
116
0.38
27
0.13
4
0.16
4
0.52
76
0.29
9
0.14
5
0.20
21
1.47
13
1.03
25
0.47
20
0.35
12
0.36
4
0.31
10
0.41
7
1.45
37
0.43
60
0.31
42
0.36
14
0.20
1
0.40
5
0.26
18
Utwo views0.43
10
0.29
12
0.17
10
0.11
2
0.14
7
0.16
5
0.07
2
0.45
35
0.15
10
0.49
42
0.07
2
0.39
23
0.17
18
0.24
31
1.72
26
1.23
55
0.49
27
0.43
28
0.62
29
0.34
12
0.68
39
1.02
15
0.18
15
0.19
20
0.55
48
0.36
37
0.50
11
0.34
30
RAStereotwo views0.49
11
0.38
19
0.20
13
0.16
11
0.16
14
0.19
13
0.11
15
0.44
33
0.18
24
0.98
152
0.12
7
0.46
34
0.19
23
0.16
8
1.87
32
1.13
40
0.53
33
0.48
36
0.71
36
0.28
8
0.88
57
1.21
24
0.28
31
0.20
22
0.50
37
0.34
33
0.54
13
0.41
36
delettwo views0.53
12
0.58
39
0.49
67
0.36
55
0.50
98
0.51
101
0.31
81
0.50
38
0.30
49
0.56
48
0.44
62
0.47
35
0.36
60
0.48
130
1.21
11
0.72
6
0.58
43
0.48
36
0.47
17
0.42
26
0.61
30
0.70
7
0.41
57
0.47
78
0.52
43
0.36
37
1.09
68
0.51
52
AASNettwo views0.55
13
0.74
77
0.50
69
0.35
51
0.61
127
0.52
107
0.42
118
0.65
57
0.28
44
0.41
34
0.50
73
0.40
26
0.32
49
0.44
116
1.04
10
0.73
8
0.55
38
0.61
70
0.68
32
0.51
47
0.62
33
0.94
13
0.46
73
0.50
83
0.52
43
0.44
53
0.74
36
0.45
40
AANet_RVCtwo views0.56
14
0.46
29
0.41
51
0.33
44
0.61
127
0.28
36
0.34
99
0.61
48
0.58
129
0.43
36
0.40
58
0.40
26
0.49
88
0.34
58
1.48
15
0.84
15
0.56
41
0.53
47
0.58
27
0.53
53
0.47
12
0.52
4
0.34
39
0.40
59
0.58
59
0.56
69
1.05
63
0.97
130
TDLMtwo views0.57
15
0.62
43
0.66
106
0.43
80
0.58
124
0.49
94
0.51
145
0.72
65
0.45
86
0.33
26
0.80
138
0.83
111
0.46
82
0.46
126
0.67
2
0.67
3
0.59
46
0.55
56
0.52
18
0.51
47
0.51
18
1.17
19
0.44
65
0.41
62
0.42
27
0.35
35
0.64
25
0.70
83
MM-Stereo_test1two views0.60
16
0.69
55
0.16
8
0.23
19
0.14
7
0.16
5
0.07
2
0.37
26
0.14
6
0.27
20
0.12
7
0.43
32
0.12
3
0.14
4
2.25
48
2.24
153
0.49
27
0.34
10
0.43
11
0.37
18
0.37
4
4.78
95
0.27
28
0.15
9
0.35
12
0.23
7
0.65
27
0.24
9
DEFOM-Stereotwo views0.61
17
0.55
36
0.29
31
0.27
26
0.30
41
0.32
44
0.13
26
0.35
24
0.17
18
0.25
17
0.33
44
0.39
23
0.20
27
0.26
36
4.06
117
1.46
83
0.59
46
0.52
43
0.57
24
0.45
32
0.76
42
0.95
14
0.44
65
0.31
42
0.49
34
0.32
28
1.31
84
0.45
40
MaDis-Stereotwo views0.61
17
0.48
30
0.31
32
0.17
13
0.27
36
0.21
17
0.18
44
0.44
33
0.33
56
1.08
163
0.30
35
0.52
39
0.24
35
0.19
18
1.98
34
1.30
65
0.63
58
0.60
65
1.24
76
0.47
37
0.91
64
1.19
21
0.39
51
0.28
37
0.64
73
0.66
87
0.62
21
0.82
104
MMNettwo views0.63
19
0.58
39
0.47
64
0.39
69
0.56
121
0.43
77
0.31
81
0.61
48
0.40
67
0.39
33
0.60
98
0.68
69
0.35
53
0.52
146
1.55
16
0.80
11
0.77
90
0.60
65
0.76
41
0.55
58
0.65
36
0.87
10
0.44
65
0.60
110
0.52
43
0.49
60
1.49
101
0.50
50
UniTT-Stereotwo views0.64
20
0.44
28
0.35
40
0.21
16
0.25
30
0.35
52
0.18
44
0.62
53
0.31
52
0.75
92
0.29
32
0.69
72
0.36
60
0.25
34
1.85
31
1.53
95
0.60
50
0.65
87
1.69
108
0.47
37
1.19
87
1.30
28
0.39
51
0.33
46
0.56
52
0.55
67
0.55
14
0.58
59
RAFTtwo views0.65
21
0.22
4
0.20
13
0.28
28
0.13
6
0.31
43
0.08
5
0.97
113
0.18
24
0.79
111
0.19
18
0.28
5
0.16
14
0.20
21
7.28
155
1.41
75
0.42
10
0.27
3
0.54
22
0.36
15
0.45
11
0.42
2
0.21
20
0.17
14
0.41
25
0.33
30
0.91
53
0.27
20
MStwo views0.66
22
0.85
127
0.37
44
0.30
37
0.25
30
0.24
26
0.19
46
0.56
41
0.31
52
0.51
45
0.24
25
0.63
57
0.31
47
0.38
78
3.12
88
2.27
156
0.55
38
0.55
56
0.73
38
0.74
121
0.87
54
1.25
26
0.38
48
0.25
33
0.61
69
0.36
37
0.55
14
0.47
43
AdaDepthtwo views0.68
23
0.41
23
0.21
17
0.24
20
0.28
38
0.23
24
0.16
36
0.32
18
0.20
29
0.23
13
0.32
38
0.29
9
0.22
32
0.29
41
5.09
136
3.19
184
0.51
31
0.43
28
1.23
75
0.42
26
0.61
30
1.28
27
0.19
17
0.23
28
0.31
9
0.28
21
0.77
41
0.43
37
DMCAtwo views0.68
23
0.72
68
0.65
102
0.40
72
0.49
95
0.54
111
0.34
99
0.59
46
0.55
119
0.79
111
0.64
105
0.73
82
0.41
69
0.47
128
1.60
22
0.99
22
0.76
83
0.68
93
0.68
32
0.52
51
0.71
41
1.17
19
0.51
99
0.57
99
0.50
37
0.55
67
1.06
65
0.62
72
MLG-Stereo_test2two views0.69
25
0.54
35
0.18
11
0.16
11
0.24
28
0.15
3
0.08
5
0.33
19
0.17
18
0.24
15
0.13
11
0.39
23
0.14
5
0.20
21
2.87
73
1.74
124
0.47
20
0.45
31
1.34
81
0.48
40
0.53
20
5.72
126
0.19
17
0.13
4
0.39
18
0.26
16
0.66
29
0.37
33
LG-Stereotwo views0.69
25
0.27
9
0.18
11
0.18
14
0.16
14
0.23
24
0.13
26
0.30
13
0.16
13
0.23
13
0.22
22
0.52
39
0.15
9
0.19
18
8.18
160
2.56
169
0.41
8
0.33
9
0.66
31
0.40
20
0.53
20
1.19
21
0.13
5
0.13
4
0.29
5
0.24
9
0.48
9
0.24
9
iRaftStereo_RVCtwo views0.69
25
0.56
37
0.45
60
0.29
32
0.31
43
0.34
49
0.20
50
0.68
62
0.26
36
0.46
39
0.56
90
0.60
50
0.30
44
0.29
41
1.71
24
0.98
21
0.60
50
0.47
34
0.75
40
0.45
32
1.03
75
4.25
87
0.38
48
0.42
65
0.49
34
0.41
47
0.78
42
0.48
45
LGtest1two views0.72
28
0.81
111
0.51
71
0.27
26
0.31
43
0.29
38
0.12
21
0.43
32
0.26
36
0.34
29
0.57
93
0.50
36
0.30
44
0.36
66
3.94
114
2.69
173
0.58
43
0.71
104
0.83
44
0.58
68
0.82
50
1.45
37
0.31
35
0.35
50
0.58
59
0.37
40
0.67
31
0.51
52
DFGA-Nettwo views0.75
29
0.64
45
0.38
45
0.51
104
0.33
51
0.44
79
0.31
81
0.88
100
0.35
60
2.04
226
0.38
57
0.54
42
0.29
43
0.23
29
1.47
13
1.12
38
0.80
100
0.51
41
1.03
58
0.35
13
0.84
51
2.83
68
0.39
51
0.46
76
0.60
66
0.40
43
1.81
129
0.45
40
plaintwo views0.75
29
0.88
141
0.39
47
0.33
44
0.61
127
0.35
52
0.30
80
0.89
104
0.35
60
0.72
82
0.24
25
0.73
82
0.35
53
0.21
24
2.10
39
1.66
115
0.73
73
0.72
109
1.01
57
0.43
30
1.85
130
1.92
50
0.36
42
0.39
53
0.72
85
0.61
73
0.75
38
0.74
87
RAFT_CTSACEtwo views0.75
29
0.94
170
0.33
35
0.36
55
0.34
54
0.34
49
0.24
58
1.23
145
0.27
39
0.64
66
0.29
32
0.72
81
0.56
109
0.34
58
2.96
78
1.22
53
0.55
38
0.44
30
0.81
43
0.35
13
0.87
54
2.64
65
0.47
75
0.38
52
0.54
47
0.41
47
1.58
112
0.39
34
HCRNettwo views0.75
29
0.79
105
0.43
57
0.55
114
0.27
36
0.42
76
0.38
111
0.63
56
0.34
58
1.59
197
0.61
99
0.67
67
0.31
47
0.42
102
2.11
40
0.81
13
0.65
59
0.48
36
0.68
32
0.44
31
0.80
48
2.42
60
0.40
54
0.45
72
0.46
31
0.48
57
2.14
153
0.50
50
test_5two views0.76
33
0.91
151
0.32
34
0.39
69
0.26
34
0.36
57
0.19
46
1.79
225
0.33
56
0.60
56
1.97
216
0.76
90
0.75
160
0.33
55
1.58
18
1.23
55
0.57
42
0.55
56
1.09
65
0.40
20
0.64
35
1.83
48
0.31
35
0.46
76
0.47
33
0.40
43
1.72
123
0.44
38
MIF-Stereo (partial)two views0.77
34
0.77
93
0.34
38
0.29
32
0.38
67
0.36
57
0.31
81
0.54
40
0.40
67
0.61
59
0.32
38
0.55
45
0.40
64
0.24
31
2.14
42
1.65
113
0.69
65
0.76
123
0.93
54
0.48
40
1.52
110
1.76
46
0.42
58
0.39
53
0.64
73
0.70
91
2.25
171
0.86
115
UPFNettwo views0.78
35
0.71
62
0.89
140
0.55
114
0.65
145
0.60
138
0.56
149
0.72
65
0.57
126
0.59
55
0.59
96
0.64
59
0.47
84
0.61
175
1.83
30
1.02
24
0.77
90
0.69
101
0.92
52
0.73
120
0.70
40
1.04
16
0.55
118
0.67
138
0.64
73
0.57
71
2.18
158
0.59
65
CVANet_RVCtwo views0.80
36
0.73
75
0.92
152
0.86
185
0.64
142
0.72
167
0.62
160
1.17
135
0.55
119
0.47
40
0.89
154
0.91
125
0.48
85
0.51
144
0.84
5
0.75
10
0.61
54
0.59
63
0.56
23
0.63
83
0.66
38
3.82
79
0.43
60
0.47
78
0.57
54
0.44
53
0.78
42
1.05
147
TestStereotwo views0.82
37
0.94
170
0.85
133
0.56
119
0.47
88
0.68
158
0.35
107
1.21
143
0.42
73
0.90
140
0.65
107
0.88
118
0.55
107
0.39
86
1.59
20
0.96
18
0.77
90
0.54
50
1.41
87
0.57
64
1.30
94
1.32
30
0.48
80
0.49
82
0.79
104
0.81
102
1.39
88
0.79
99
GMStereopermissivetwo views0.82
37
0.99
189
0.40
50
0.49
97
0.48
90
0.56
118
0.46
132
0.79
78
0.47
91
0.55
47
0.47
66
0.84
116
0.41
69
0.37
77
1.71
24
1.08
32
0.77
90
0.54
50
1.93
117
0.59
72
1.20
89
2.06
52
0.45
69
0.57
99
0.77
97
0.67
89
1.86
136
0.57
57
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
AIO-test2two views0.83
39
0.17
1
0.12
1
0.09
1
0.11
2
0.16
5
0.11
15
0.23
7
0.15
10
0.19
8
0.20
20
0.42
31
0.15
9
0.13
3
8.89
164
6.57
255
0.32
1
0.27
3
0.30
1
0.20
1
0.30
1
2.20
57
0.12
2
0.16
12
0.21
1
0.20
1
0.25
1
0.19
2
LG-Stereo_L2two views0.86
40
0.69
55
0.46
61
0.28
28
0.36
62
0.25
30
0.13
26
0.62
53
0.26
36
0.70
77
0.40
58
0.71
77
0.34
51
0.31
47
3.30
93
2.24
153
0.60
50
0.52
43
1.08
64
0.47
37
0.85
53
5.80
129
0.34
39
0.28
37
0.58
59
0.38
42
0.65
27
0.63
74
LG-Stereo_L1two views0.87
41
0.69
55
0.44
58
0.24
20
0.36
62
0.26
32
0.12
21
0.62
53
0.27
39
0.72
82
0.32
38
0.69
72
0.34
51
0.32
49
3.31
94
2.31
159
0.60
50
0.52
43
1.28
78
0.48
40
0.79
45
5.86
131
0.30
34
0.32
45
0.57
54
0.33
30
0.66
29
0.65
77
CFNettwo views0.87
41
0.85
127
0.83
128
0.78
169
0.74
157
0.62
141
0.56
149
0.84
92
0.49
102
0.67
73
0.70
118
0.96
139
0.68
143
0.45
124
2.29
51
0.88
16
0.76
83
0.66
89
0.94
55
0.80
139
1.07
77
1.08
17
0.50
93
0.54
91
0.91
130
1.03
144
1.67
121
1.14
158
HGLStereotwo views0.89
43
0.66
48
0.79
121
0.52
107
0.71
153
0.57
123
0.50
142
0.67
61
0.51
110
1.67
206
0.96
160
0.66
65
0.57
111
0.54
156
1.73
27
1.28
63
0.85
112
0.78
126
1.10
67
0.68
107
1.07
77
2.08
53
0.51
99
0.68
140
0.75
95
0.79
99
1.59
117
0.81
102
G2L-Stereotwo views0.90
44
0.70
59
0.63
100
0.57
120
0.79
169
0.51
101
0.38
111
0.77
71
0.53
114
0.69
76
0.81
140
0.76
90
0.64
132
0.57
166
2.59
61
1.03
25
0.75
80
0.63
77
1.35
82
0.65
93
1.59
112
1.66
43
0.61
152
0.52
86
0.82
110
0.95
129
1.98
144
0.80
101
RAFT+CT+SAtwo views0.90
44
0.97
179
0.42
55
0.45
90
0.29
39
0.39
66
0.21
51
1.63
210
0.35
60
0.73
87
0.32
38
0.91
125
0.69
146
0.41
92
1.58
18
1.43
78
0.59
46
0.60
65
2.18
123
0.50
44
0.90
59
5.09
103
0.35
41
0.43
67
0.55
48
0.43
52
1.56
107
0.49
48
UNettwo views0.90
44
0.77
93
0.77
118
0.61
130
0.61
127
0.61
140
0.57
155
0.90
105
0.60
135
1.20
169
0.68
110
0.77
94
0.58
115
0.67
199
1.80
29
1.20
51
0.83
110
0.73
112
1.14
71
0.83
153
0.90
59
1.35
31
0.65
169
0.77
159
0.70
83
0.79
99
2.48
195
0.95
128
ddtwo views0.93
47
0.81
111
0.54
80
1.07
208
0.45
85
0.87
188
0.50
142
0.86
95
0.42
73
0.83
122
0.44
62
1.28
177
0.40
64
0.56
163
2.32
52
1.06
30
1.03
163
0.74
117
2.01
120
0.62
81
0.87
54
1.54
41
0.52
106
0.75
154
0.86
119
0.58
72
1.74
125
1.43
186
DSFCAtwo views0.94
48
0.84
121
0.75
115
0.66
145
0.78
165
0.62
141
0.79
181
0.75
70
0.78
168
0.78
101
0.86
145
0.79
104
0.52
96
0.44
116
1.95
33
1.21
52
0.89
125
0.87
160
1.03
58
0.81
144
1.11
80
2.19
56
0.73
196
0.80
167
0.84
113
0.96
130
1.89
137
0.85
113
DMCA-RVCcopylefttwo views0.94
48
0.74
77
0.78
120
0.62
132
0.78
165
0.58
127
1.11
210
0.77
71
1.39
223
1.36
184
0.68
110
0.88
118
0.57
111
0.58
169
2.43
56
1.16
43
0.91
128
0.78
126
0.99
56
0.78
133
0.94
68
1.41
35
0.55
118
0.72
151
0.62
71
0.64
77
1.82
131
0.91
123
IERtwo views0.95
50
0.83
117
0.60
96
0.50
101
0.52
105
0.58
127
0.48
139
0.80
81
0.50
106
1.12
166
0.77
132
1.06
152
0.50
91
0.78
217
3.59
104
1.11
37
0.76
83
0.65
87
0.91
51
0.78
133
0.76
42
2.32
58
0.66
172
0.67
138
0.65
76
1.01
138
2.05
149
0.74
87
S2M2_XLtwo views0.96
51
0.50
33
0.70
110
0.24
20
0.31
43
0.36
57
0.28
74
0.61
48
0.47
91
0.56
48
0.36
53
0.66
65
0.59
120
0.35
62
2.63
63
1.84
131
0.69
65
0.49
40
0.73
38
0.55
58
4.91
179
4.77
94
0.51
99
0.34
48
0.60
66
0.51
65
0.75
38
0.74
87
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
HITNettwo views0.97
52
0.66
48
0.64
101
0.69
149
0.50
98
0.40
68
0.33
96
1.25
148
0.87
180
0.70
77
0.70
118
0.94
134
0.53
97
0.39
86
2.05
37
1.16
43
0.69
65
0.64
79
0.84
45
0.61
77
2.15
140
4.61
91
0.49
85
0.60
110
0.63
72
0.63
76
1.82
131
0.82
104
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
RASNettwo views1.02
53
0.75
80
0.95
157
0.64
141
0.64
142
0.67
156
0.45
128
0.98
115
0.62
140
1.21
173
0.64
105
0.76
90
0.74
157
0.43
109
1.59
20
1.52
93
0.78
96
0.68
93
1.06
62
0.70
112
1.24
93
4.37
88
0.47
75
0.84
176
0.80
106
0.83
106
2.17
157
1.08
150
DLCB_ROBtwo views1.03
54
0.92
156
0.91
146
0.74
159
0.83
180
0.75
173
0.77
178
0.88
100
0.73
165
0.93
146
0.85
143
1.06
152
0.94
204
0.70
204
1.57
17
1.24
58
1.03
163
0.73
112
0.92
52
0.75
125
1.48
105
2.49
61
0.81
216
0.77
159
1.35
208
1.30
178
1.49
101
0.95
128
TESTrafttwo views1.04
55
0.98
185
0.44
58
0.41
74
0.34
54
0.41
69
0.26
66
1.12
128
0.40
67
0.98
152
0.35
50
0.64
59
0.76
165
0.53
149
3.11
86
1.82
130
0.74
75
0.52
43
3.10
167
0.57
64
1.16
84
3.86
82
0.37
44
0.45
72
0.58
59
1.17
166
2.52
201
0.60
66
DISCOtwo views1.04
55
0.98
185
0.62
98
0.57
120
0.62
135
0.84
185
0.83
185
0.77
71
0.82
172
1.98
221
0.89
154
0.68
69
0.70
147
0.45
124
1.98
34
1.35
71
1.00
156
0.81
136
1.83
111
0.81
144
1.00
71
2.90
70
0.62
157
0.65
133
0.74
93
0.84
108
2.03
148
0.85
113
STTStereotwo views1.06
57
0.95
175
0.90
143
0.79
173
0.77
163
0.70
163
1.10
207
0.86
95
1.48
232
1.26
178
0.78
136
1.13
164
0.78
173
0.94
234
2.76
66
1.16
43
0.76
83
0.73
112
1.10
67
0.66
98
1.18
86
1.53
40
0.62
157
0.58
103
0.78
101
1.22
171
1.76
127
1.40
184
coex_refinementtwo views1.09
58
1.02
201
0.82
126
0.66
145
0.86
181
0.73
169
0.56
149
0.81
84
1.01
194
0.67
73
1.02
170
0.97
140
0.48
85
0.49
134
4.47
129
1.03
25
0.82
106
0.71
104
3.71
192
0.78
133
1.01
72
1.08
17
0.66
172
0.59
106
0.89
126
0.99
137
1.78
128
0.94
125
TestStereo1two views1.09
58
0.99
189
0.41
51
0.38
60
0.37
65
0.41
69
0.27
69
1.02
119
0.40
67
0.80
115
0.34
47
0.61
54
0.74
157
0.53
149
2.97
79
1.78
126
0.74
75
0.54
50
3.12
168
0.57
64
1.44
98
5.38
109
0.37
44
0.43
67
0.59
64
1.04
147
2.53
203
0.60
66
SA-5Ktwo views1.09
58
0.99
189
0.41
51
0.38
60
0.37
65
0.41
69
0.27
69
1.02
119
0.40
67
0.80
115
0.34
47
0.61
54
0.74
157
0.53
149
2.97
79
1.78
126
0.74
75
0.54
50
3.12
168
0.57
64
1.44
98
5.38
109
0.37
44
0.43
67
0.59
64
1.04
147
2.53
203
0.60
66
NLCA_NET_v2_RVCtwo views1.09
58
0.93
162
0.85
133
0.74
159
0.81
174
0.66
153
1.22
220
1.07
123
2.23
267
1.99
222
0.76
128
0.97
140
0.63
129
0.94
234
2.41
55
1.05
29
0.74
75
0.72
109
1.32
80
0.70
112
0.90
59
1.40
32
0.59
144
0.61
112
0.74
93
1.58
207
1.48
100
1.26
175
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AIO-Stereopermissivetwo views1.11
62
0.33
15
0.22
18
0.35
51
0.16
14
0.20
16
0.11
15
0.18
1
0.14
6
0.15
3
0.20
20
0.22
1
0.16
14
0.17
11
5.08
135
1.09
36
0.46
18
0.40
24
1.20
72
0.50
44
0.43
10
16.33
260
0.20
19
0.17
14
0.35
12
0.24
9
0.64
25
0.19
2
psm_uptwo views1.12
63
0.88
141
1.03
178
0.79
173
0.95
192
0.77
176
0.66
167
1.33
169
1.03
199
0.87
130
0.69
115
1.12
161
0.76
165
0.76
212
2.94
76
1.17
46
0.96
146
0.82
141
2.32
130
0.85
156
1.44
98
1.89
49
0.51
99
0.92
202
1.03
156
1.08
154
1.62
118
1.09
151
PDISCO_ROBtwo views1.12
63
0.87
136
0.62
98
0.79
173
0.70
151
0.54
111
0.76
177
0.95
112
0.69
158
1.78
211
0.98
166
0.75
89
0.63
129
0.65
193
2.15
43
1.54
100
0.99
153
1.10
221
1.60
101
0.82
150
1.80
123
2.71
66
0.57
135
0.84
176
1.20
187
0.84
108
2.56
207
0.90
120
PS-NSSStwo views1.13
65
1.45
254
0.73
112
1.20
227
0.95
192
1.22
229
1.06
200
0.80
81
0.55
119
0.74
90
0.51
74
2.17
220
1.08
219
0.93
232
2.02
36
0.96
18
0.89
125
0.74
117
1.56
96
0.65
93
0.97
70
0.79
9
1.65
273
0.55
94
1.13
178
0.96
130
3.19
240
1.11
154
SAtwo views1.14
66
0.95
175
0.46
61
0.55
114
0.54
114
0.50
99
0.25
63
1.59
205
0.47
91
0.72
82
0.40
58
0.73
82
0.59
120
0.62
180
2.09
38
2.12
147
0.82
106
0.82
141
3.31
181
0.67
105
1.46
101
4.78
95
0.36
42
0.69
142
0.78
101
1.11
157
2.64
215
0.72
86
LMCR-Stereopermissivemany views1.14
66
0.84
121
0.91
146
0.55
114
0.63
139
0.66
153
0.34
99
1.12
128
0.64
147
0.82
120
0.77
132
0.94
134
0.49
88
0.44
116
3.22
92
1.57
107
1.06
171
0.76
123
2.19
125
1.43
215
1.90
132
4.46
89
0.53
112
0.81
170
0.87
121
0.86
115
1.11
70
0.94
125
AF-Nettwo views1.15
68
0.85
127
1.00
169
0.77
165
0.93
188
1.00
206
2.29
246
1.51
193
1.06
201
0.57
52
0.96
160
1.40
187
0.64
132
0.75
210
2.20
46
1.08
32
0.85
112
0.62
71
1.83
111
0.79
137
0.90
59
2.97
71
0.66
172
0.65
133
0.98
146
0.89
119
1.58
112
1.24
173
Nwc_Nettwo views1.15
68
0.85
127
1.00
169
0.77
165
0.93
188
1.00
206
2.29
246
1.51
193
1.06
201
0.57
52
0.96
160
1.40
187
0.64
132
0.75
210
2.20
46
1.08
32
0.85
112
0.62
71
1.83
111
0.79
137
0.90
59
2.97
71
0.66
172
0.65
133
0.98
146
0.89
119
1.58
112
1.24
173
RSMtwo views1.16
70
0.30
13
0.23
24
0.32
41
0.15
11
0.21
17
0.10
13
0.18
1
0.16
13
0.14
2
0.27
29
0.23
2
0.20
27
0.15
7
0.70
3
0.64
2
0.43
11
0.38
19
0.36
4
0.42
26
0.50
15
23.43
308
0.23
21
0.17
14
0.40
22
0.25
12
0.61
20
0.24
9
CAStwo views1.16
70
0.81
111
0.47
64
0.51
104
0.49
95
0.38
62
0.31
81
0.56
41
0.45
86
1.20
169
0.90
156
0.64
59
0.97
212
0.32
49
3.11
86
2.22
152
0.98
150
0.85
154
1.21
73
0.64
86
3.95
163
5.48
121
0.47
75
0.31
42
0.85
118
0.92
126
1.21
77
1.15
161
GANettwo views1.17
72
0.80
110
0.81
125
0.71
152
0.71
153
1.18
221
0.64
163
0.83
89
0.47
91
0.61
59
6.20
273
2.19
221
0.44
81
0.65
193
0.94
7
0.81
13
0.87
119
0.79
128
0.65
30
0.46
35
0.56
24
6.49
141
0.53
112
0.57
99
0.65
76
0.47
56
0.85
49
0.70
83
Occ-Gtwo views1.18
73
0.59
41
0.31
32
0.34
47
0.31
43
0.26
32
0.12
21
0.38
27
0.19
27
0.16
4
0.36
53
0.34
17
0.25
37
0.16
8
7.20
154
1.86
132
0.48
24
0.45
31
1.09
65
0.42
26
0.93
67
13.28
229
0.29
33
0.21
23
0.38
16
0.26
16
0.97
59
0.31
27
MLG-Stereo_test3two views1.20
74
0.48
30
0.28
30
0.29
32
0.38
67
0.25
30
0.12
21
0.34
23
0.20
29
1.11
165
0.34
47
0.54
42
0.19
23
0.32
49
2.92
75
2.26
155
0.53
33
0.54
50
1.56
96
0.53
53
0.81
49
15.80
254
0.18
15
0.26
34
0.43
28
0.32
28
0.91
53
0.44
38
CASnettwo views1.22
75
0.92
156
0.55
81
0.41
74
0.45
85
0.39
66
0.24
58
0.92
107
0.50
106
0.78
101
0.56
90
0.91
125
0.54
104
0.38
78
3.31
94
1.35
71
0.77
90
0.51
41
1.43
88
0.56
61
7.13
214
5.44
120
0.45
69
0.48
81
1.22
190
0.50
63
1.47
97
0.78
98
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Sa-1000two views1.22
75
0.77
93
0.49
67
0.49
97
0.61
127
0.51
101
0.29
77
1.69
215
0.53
114
0.73
87
0.48
72
0.73
82
0.66
141
0.76
212
3.04
83
1.97
139
0.98
150
0.95
181
3.31
181
0.63
83
1.92
135
4.89
97
0.37
44
0.82
171
1.15
181
1.22
171
2.35
180
0.75
90
S2M2_Ltwo views1.24
77
0.87
136
1.18
210
0.48
95
0.38
67
0.44
79
0.28
74
0.60
47
0.56
122
1.85
216
0.35
50
0.64
59
0.40
64
0.44
116
2.57
58
2.15
148
0.74
75
0.60
65
1.11
69
0.59
72
4.37
169
6.33
139
0.49
85
0.37
51
0.68
81
1.22
171
3.07
234
0.79
99
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
IGEV-BASED-STEREO-two views1.26
78
0.86
132
0.39
47
0.42
79
0.32
47
0.32
44
0.19
46
0.71
64
0.32
54
0.70
77
0.31
36
0.64
59
0.56
109
0.43
109
4.05
116
2.29
157
0.65
59
0.70
103
1.04
60
0.51
47
1.88
131
13.45
230
0.46
73
0.24
32
0.57
54
0.37
40
1.14
73
0.54
54
iinet-ftwo views1.26
78
1.10
214
0.69
108
0.94
193
0.47
88
0.72
167
0.58
156
0.79
78
0.50
106
2.11
232
1.35
194
0.83
111
0.64
132
0.38
78
3.97
115
1.88
133
0.79
98
0.68
93
3.04
164
1.08
186
1.61
114
3.40
73
0.68
179
0.75
154
1.14
179
0.64
77
2.22
170
0.90
120
SM2two views1.28
80
0.60
42
0.27
29
0.33
44
0.35
58
0.22
22
0.19
46
0.45
35
0.30
49
0.50
44
0.31
36
0.59
49
0.24
35
0.29
41
15.92
204
1.47
87
0.49
27
0.34
10
0.60
28
0.50
44
0.58
26
5.97
133
0.40
54
0.27
36
0.61
69
0.51
65
0.80
46
1.34
180
APVNettwo views1.28
80
1.03
204
0.68
107
0.69
149
0.78
165
0.87
188
0.89
189
0.79
78
0.72
163
0.91
142
0.83
142
0.92
130
0.61
123
0.59
171
3.31
94
1.71
118
1.16
187
0.99
192
3.22
174
0.92
164
1.91
134
4.73
93
0.58
138
1.11
223
0.80
106
0.84
108
1.90
138
0.97
130
RSM++two views1.29
82
0.33
15
0.25
26
0.36
55
0.20
21
0.24
26
0.11
15
0.22
4
0.17
18
0.16
4
0.28
31
0.27
4
0.20
27
0.17
11
0.89
6
0.71
5
0.43
11
0.39
23
0.52
18
0.46
35
0.53
20
25.80
313
0.31
35
0.18
18
0.55
48
0.26
16
0.57
17
0.29
25
RPtwo views1.29
82
1.05
208
1.26
224
0.96
194
1.11
209
0.85
186
1.39
225
1.24
147
1.30
219
0.61
59
1.16
181
1.27
175
0.75
160
0.72
208
3.49
101
1.12
38
0.95
142
0.68
93
1.24
76
0.83
153
1.02
74
4.57
90
0.63
161
0.91
200
0.90
128
1.02
143
2.51
199
1.20
168
AACVNettwo views1.30
84
0.89
145
0.74
113
0.93
189
0.95
192
0.73
169
0.64
163
0.88
100
0.64
147
0.74
90
0.88
151
0.83
111
0.67
142
0.62
180
9.20
166
1.41
75
0.87
119
0.84
152
1.21
73
0.80
139
1.51
107
2.50
62
0.75
205
0.69
142
0.88
124
1.11
157
1.91
139
1.31
177
AMNettwo views1.31
85
1.12
216
1.05
181
1.14
217
1.12
211
1.27
235
1.07
203
1.35
172
1.13
208
1.10
164
1.11
178
1.55
200
1.26
227
1.20
257
1.75
28
1.59
109
1.37
210
1.23
242
1.37
85
1.22
198
1.40
97
1.40
32
1.25
258
1.26
235
1.26
192
1.70
216
1.54
105
1.65
199
YMNettwo views1.32
86
0.78
101
0.42
55
0.50
101
0.61
127
0.58
127
1.39
225
0.77
71
0.56
122
1.23
177
0.35
50
0.68
69
2.19
245
0.56
163
15.64
203
1.49
90
0.82
106
0.66
89
0.77
42
0.41
24
0.62
33
1.30
28
0.23
21
0.39
53
0.75
95
0.48
57
0.81
48
0.65
77
AIO-test1two views1.32
86
0.19
2
0.16
8
0.12
6
0.14
7
0.18
11
0.15
33
0.33
19
0.17
18
0.26
18
0.26
28
0.35
18
0.15
9
0.18
15
10.09
174
3.61
203
0.36
2
0.31
7
0.44
12
0.36
15
0.35
2
16.14
256
0.14
6
0.15
9
0.23
2
0.23
7
0.33
2
0.17
1
ARAFTtwo views1.32
86
0.72
68
0.50
69
0.35
51
0.34
54
0.44
79
0.24
58
0.65
57
0.35
60
2.25
236
0.56
90
0.60
50
0.30
44
0.43
109
2.15
43
1.46
83
0.75
80
0.75
121
2.78
157
0.58
68
2.25
144
12.47
219
0.45
69
0.39
53
0.94
138
0.40
43
1.98
144
0.57
57
iResNet_ROBtwo views1.32
86
0.86
132
0.86
136
0.65
142
0.60
125
0.69
160
0.66
167
2.64
279
0.58
129
1.71
208
0.75
127
0.97
140
0.82
184
0.49
134
5.86
144
1.53
95
0.93
136
0.86
156
2.96
161
0.68
107
2.22
141
1.21
24
0.62
157
0.95
207
0.86
119
0.98
135
2.65
217
1.02
143
PA-Nettwo views1.33
90
0.99
189
1.18
210
0.77
165
1.35
230
0.69
160
0.90
190
0.82
88
1.17
213
0.82
120
1.28
189
0.78
101
0.79
175
0.93
232
4.45
128
1.31
67
0.72
71
0.80
133
1.06
62
0.89
159
1.19
87
4.70
92
0.68
179
0.85
183
1.01
152
2.17
249
1.45
95
2.09
217
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GANetREF_RVCpermissivetwo views1.35
91
1.22
225
1.01
173
1.18
221
1.10
208
1.02
209
0.81
182
1.25
148
1.15
211
1.30
181
0.77
132
2.55
240
0.96
208
0.63
184
2.28
50
1.23
55
1.09
175
0.99
192
2.42
135
0.90
162
2.22
141
1.72
44
0.79
213
1.12
224
1.31
199
1.27
175
2.62
212
1.48
188
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
IPLGR_Ctwo views1.36
92
0.72
68
0.89
140
0.59
125
0.54
114
0.54
111
0.34
99
0.81
84
0.58
129
0.76
96
0.69
115
1.05
151
0.53
97
0.64
188
2.77
67
1.41
75
0.92
131
0.69
101
3.26
177
0.64
86
1.68
118
10.52
180
0.58
138
0.83
174
1.01
152
0.65
86
2.40
189
0.61
69
ACREtwo views1.36
92
0.71
62
0.88
138
0.61
130
0.53
108
0.55
116
0.35
107
0.81
84
0.58
129
0.76
96
0.69
115
1.06
152
0.53
97
0.64
188
2.80
72
1.39
74
0.92
131
0.68
93
3.26
177
0.64
86
1.68
118
10.53
181
0.58
138
0.83
174
1.03
156
0.64
77
2.40
189
0.62
72
CIPLGtwo views1.37
94
0.71
62
0.91
146
0.59
125
0.53
108
0.54
111
0.36
109
0.81
84
0.59
134
0.76
96
0.68
110
1.04
148
0.53
97
0.64
188
3.08
84
1.45
82
0.93
136
0.67
91
3.23
175
0.64
86
1.66
115
10.56
182
0.58
138
0.84
176
1.03
156
0.66
87
2.36
182
0.61
69
NCC-stereotwo views1.37
94
1.25
230
1.13
196
1.00
199
1.08
202
0.98
203
1.87
236
1.76
221
1.58
240
0.60
56
1.33
191
1.22
169
1.08
219
0.78
217
3.16
90
1.19
49
0.95
142
1.00
196
1.64
102
1.00
178
1.20
89
3.65
75
0.84
225
0.84
176
1.28
195
1.57
205
1.44
91
1.60
195
Abc-Nettwo views1.37
94
1.25
230
1.13
196
1.00
199
1.08
202
0.98
203
1.87
236
1.76
221
1.58
240
0.60
56
1.33
191
1.22
169
1.08
219
0.78
217
3.16
90
1.19
49
0.95
142
1.00
196
1.64
102
1.00
178
1.20
89
3.65
75
0.84
225
0.84
176
1.28
195
1.57
205
1.44
91
1.60
195
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
raft_robusttwo views1.38
97
0.94
170
0.55
81
0.60
127
0.48
90
0.59
135
0.38
111
2.05
251
0.53
114
1.67
206
0.52
76
0.83
111
0.81
180
0.49
134
3.50
102
1.90
134
0.92
131
0.86
156
4.99
212
0.61
77
3.19
154
5.05
102
0.47
75
0.64
127
1.04
160
1.06
150
1.58
112
0.99
139
GLC_STEREOtwo views1.38
97
0.90
148
0.91
146
0.58
123
0.62
135
0.49
94
0.43
122
1.68
214
0.48
96
0.77
100
0.68
110
0.81
109
0.62
128
0.61
175
9.99
173
1.91
135
0.92
131
0.60
65
1.71
109
0.71
117
2.58
149
3.85
81
0.48
80
0.57
99
0.69
82
0.56
69
2.36
182
0.87
118
111111two views1.39
99
0.38
19
0.20
13
0.25
23
0.29
39
0.22
22
0.09
10
0.19
3
0.16
13
0.10
1
0.18
14
0.28
5
0.17
18
0.21
24
11.32
184
2.07
146
0.47
20
0.29
6
0.84
45
0.40
20
0.57
25
17.45
280
0.24
23
0.12
3
0.26
3
0.24
9
0.42
7
0.19
2
UDGNettwo views1.40
100
1.04
205
0.83
128
1.64
252
1.39
232
1.70
253
1.25
222
1.21
143
0.81
171
0.63
64
0.87
148
0.92
130
0.42
72
1.61
271
2.12
41
1.25
59
0.87
119
0.89
168
2.45
137
0.92
164
1.95
137
5.71
124
1.28
260
0.54
91
1.21
188
1.10
156
2.15
154
1.02
143
SACVNettwo views1.42
101
0.96
178
1.03
178
0.93
189
1.15
213
0.95
199
0.99
196
1.50
190
0.82
172
1.21
173
0.74
125
0.99
145
0.73
155
0.70
204
3.38
99
1.50
91
1.24
196
0.85
154
2.24
127
0.96
171
2.50
148
5.99
135
0.69
186
0.90
197
1.04
160
1.06
150
2.02
147
1.29
176
Former-RAFT_DAM_RVCtwo views1.44
102
0.64
45
0.58
88
0.44
88
0.42
80
0.38
62
0.27
69
1.25
148
0.49
102
0.85
126
0.62
101
0.76
90
0.54
104
0.35
62
12.82
190
1.55
103
0.72
71
0.71
104
2.02
122
0.58
68
1.72
120
6.96
148
0.42
58
0.39
53
0.82
110
1.19
167
0.71
33
0.77
95
trnettwo views1.46
103
0.91
151
0.99
166
0.53
109
0.44
83
0.49
94
0.25
63
1.41
180
0.67
153
0.88
137
1.00
168
0.97
140
0.76
165
0.44
116
7.79
158
3.28
189
0.95
142
0.64
79
2.41
132
0.64
86
3.97
165
3.96
83
0.58
138
0.63
125
1.03
156
1.01
138
1.73
124
0.99
139
sAnonymous2two views1.46
103
0.77
93
0.55
81
0.43
80
0.48
90
0.71
164
0.42
118
1.28
155
0.99
191
0.65
69
0.88
151
1.13
164
0.96
208
0.36
66
2.58
59
2.36
163
1.11
177
1.05
211
3.69
190
0.96
171
4.96
180
7.11
149
0.64
165
0.61
112
0.84
113
1.39
185
1.25
79
1.23
171
CroCo_RVCtwo views1.46
103
0.77
93
0.55
81
0.43
80
0.48
90
0.71
164
0.42
118
1.28
155
0.99
191
0.65
69
0.88
151
1.13
164
0.96
208
0.36
66
2.58
59
2.36
163
1.11
177
1.05
211
3.69
190
0.96
171
4.96
180
7.11
149
0.64
165
0.61
112
0.84
113
1.39
185
1.25
79
1.23
171
CEStwo views1.47
106
0.78
101
0.61
97
0.46
93
0.57
122
0.52
107
0.23
54
1.50
190
0.68
155
0.78
101
0.86
145
0.86
117
0.90
197
0.39
86
7.38
157
3.09
181
1.24
196
1.04
206
1.48
90
1.19
194
4.63
176
5.40
117
0.67
176
0.45
72
0.87
121
0.82
103
1.16
74
1.15
161
HSMtwo views1.47
106
0.76
89
1.02
176
0.81
177
0.80
172
0.56
118
0.56
149
1.86
231
0.60
135
0.76
96
0.85
143
0.90
123
0.68
143
0.60
174
11.58
186
1.15
41
0.96
146
0.74
117
2.61
141
0.74
121
2.26
145
2.51
63
0.60
149
0.87
185
0.95
142
0.98
135
2.08
151
1.02
143
DN-CSS_ROBtwo views1.49
108
0.84
121
1.08
188
0.88
187
0.88
182
0.50
99
0.39
114
2.00
244
0.63
143
1.55
195
1.79
208
1.00
146
0.81
180
0.41
92
3.48
100
1.46
83
1.12
181
0.95
181
5.28
217
0.75
125
4.20
166
3.69
77
0.56
125
1.01
213
0.80
106
0.82
103
2.06
150
1.31
177
stereogantwo views1.50
109
1.32
239
1.15
202
1.13
214
1.31
226
1.13
219
1.02
199
1.26
151
1.04
200
1.20
169
1.09
176
1.65
205
0.90
197
0.67
199
2.78
70
1.43
78
1.01
160
0.81
136
1.83
111
0.99
177
1.36
96
8.05
157
0.73
196
0.92
202
0.91
130
1.08
154
2.36
182
1.37
181
MGS-Stereotwo views1.51
110
0.99
189
0.53
78
0.41
74
0.35
58
0.41
69
0.36
109
0.66
60
0.28
44
0.53
46
0.47
66
0.52
39
0.39
62
0.43
109
23.18
225
1.01
23
0.77
90
0.79
128
1.05
61
0.67
105
1.17
85
1.46
39
0.47
75
0.69
142
0.77
97
0.48
57
1.29
82
0.77
95
LoS_RVCtwo views1.52
111
1.26
232
0.96
159
0.32
41
0.52
105
0.38
62
0.34
99
0.73
67
0.57
126
2.10
230
0.76
128
0.73
82
0.72
152
0.35
62
4.43
126
3.80
206
0.91
128
2.29
290
3.41
185
0.70
112
4.52
172
6.76
143
0.56
125
0.44
70
0.84
113
0.85
113
0.93
55
0.98
134
tt_lltwo views1.52
111
1.26
232
0.96
159
0.32
41
0.52
105
0.38
62
0.34
99
0.73
67
0.57
126
2.10
230
0.76
128
0.73
82
0.72
152
0.35
62
4.43
126
3.80
206
0.91
128
2.29
290
3.41
185
0.70
112
4.52
172
6.76
143
0.56
125
0.44
70
0.84
113
0.85
113
0.93
55
0.98
134
TANstereotwo views1.55
113
1.06
211
0.94
155
0.68
147
0.76
159
0.90
193
0.33
96
0.86
95
0.64
147
0.70
77
1.05
173
0.60
50
0.61
123
1.01
241
2.77
67
2.92
178
1.00
156
1.15
228
1.49
91
1.30
207
5.05
186
5.77
127
1.42
263
0.59
106
0.57
54
0.90
121
5.94
282
0.75
90
XX-TBDtwo views1.55
113
1.06
211
0.94
155
0.68
147
0.76
159
0.90
193
0.33
96
0.86
95
0.64
147
0.70
77
1.05
173
0.60
50
0.61
123
1.01
241
2.77
67
2.92
178
1.00
156
1.15
228
1.49
91
1.30
207
5.05
186
5.77
127
1.42
263
0.59
106
0.57
54
0.90
121
5.94
282
0.75
90
MM-Stereo_test2two views1.56
115
0.78
101
0.24
25
0.30
37
0.21
24
0.18
11
0.11
15
0.33
19
0.16
13
0.36
31
0.18
14
0.40
26
0.16
14
0.18
15
5.36
140
11.21
276
0.46
18
0.40
24
0.42
10
0.53
53
0.50
15
17.82
281
0.28
31
0.18
18
0.39
18
0.25
12
0.56
16
0.25
15
RGCtwo views1.56
115
1.33
241
1.98
268
1.18
221
1.24
219
1.20
226
1.06
200
1.20
141
1.09
204
0.91
142
1.67
203
1.23
171
1.26
227
0.92
231
4.08
119
1.27
61
1.06
171
0.86
156
1.92
115
1.10
188
1.72
120
5.40
117
0.79
213
1.03
215
1.17
183
1.52
201
2.20
160
1.83
204
LL-Strereo2two views1.57
117
0.66
48
0.65
102
0.40
72
0.35
58
0.32
44
0.23
54
1.48
186
0.42
73
0.68
75
0.57
93
0.63
57
0.32
49
0.67
199
2.65
64
7.88
265
0.65
59
0.55
56
1.37
85
0.70
112
1.80
123
15.65
252
0.50
93
0.40
59
0.65
76
0.62
74
1.06
65
0.56
55
CREStereotwo views1.57
117
0.92
156
0.99
166
0.53
109
0.43
82
0.49
94
0.26
66
1.44
184
0.71
162
0.87
130
1.01
169
0.95
137
0.76
165
0.44
116
7.17
152
4.29
215
0.93
136
0.59
63
2.41
132
0.65
93
5.45
189
5.19
105
0.61
152
0.63
125
1.02
155
1.01
138
1.74
125
0.98
134
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
raft+_RVCtwo views1.58
119
0.74
77
0.75
115
0.41
74
0.35
58
0.52
107
0.32
92
1.47
185
0.45
86
0.63
64
0.61
99
0.69
72
0.39
62
0.30
46
4.83
132
4.95
226
0.76
83
0.56
60
1.64
102
0.60
76
0.96
69
16.85
270
0.50
93
0.45
72
0.78
101
0.62
74
0.88
50
0.68
82
GIP-stereotwo views1.59
120
0.56
37
0.35
40
0.29
32
0.24
28
0.21
17
0.11
15
0.24
9
0.17
18
0.31
24
0.19
18
0.38
22
0.19
23
0.27
38
11.70
189
7.84
264
0.48
24
0.41
27
0.44
12
0.51
47
0.58
26
15.22
247
0.17
10
0.21
23
0.45
29
0.30
24
0.78
42
0.24
9
PMTNettwo views1.59
120
0.94
170
1.06
182
0.49
97
0.51
102
0.49
94
0.32
92
0.83
89
0.72
163
0.83
122
0.63
103
0.89
122
0.50
91
0.42
102
7.10
151
4.35
218
0.96
146
0.57
61
2.41
132
0.58
68
5.99
198
6.00
136
0.61
152
0.41
62
1.97
263
1.03
144
1.16
74
1.19
166
ICVPtwo views1.60
122
0.75
80
1.11
194
0.77
165
0.78
165
0.87
188
0.64
163
1.10
126
0.85
176
1.37
187
1.11
178
0.95
137
1.12
223
0.57
166
3.12
88
2.05
145
1.33
205
1.00
196
1.56
96
1.07
184
3.91
162
10.82
186
0.69
186
0.87
185
0.95
142
1.21
169
1.52
103
1.14
158
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
LoStwo views1.62
123
0.79
105
0.65
102
0.53
109
0.57
122
0.67
156
0.39
114
2.55
276
0.90
182
1.22
176
0.98
166
0.98
144
0.87
194
0.44
116
4.09
120
3.52
197
1.45
213
0.94
180
2.24
127
0.75
125
6.08
200
7.76
154
0.68
179
0.64
127
1.18
186
0.97
133
1.10
69
0.87
118
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GEStwo views1.63
124
0.75
80
0.83
128
0.79
173
0.73
156
0.82
183
0.67
169
1.36
175
0.95
188
1.65
204
0.95
159
0.78
101
0.65
136
0.66
195
6.17
147
1.65
113
1.02
161
0.91
175
5.50
221
1.23
201
4.23
167
5.40
117
0.67
176
0.96
209
0.81
109
0.83
106
1.52
103
1.65
199
iResNetv2_ROBtwo views1.65
125
0.91
151
0.76
117
1.13
214
0.66
146
0.73
169
0.56
149
2.62
277
0.67
153
1.76
210
0.87
148
1.36
184
0.77
172
0.42
102
5.48
141
1.34
70
1.04
166
0.74
117
4.59
206
0.89
159
7.80
228
2.09
54
0.62
157
0.93
204
0.89
126
0.86
115
3.12
239
0.90
120
NCCL2two views1.66
126
1.30
237
1.16
204
1.12
212
1.48
238
0.80
180
1.13
213
1.07
123
1.15
211
1.84
214
1.26
187
1.12
161
0.84
187
0.83
224
4.07
118
1.52
93
1.22
193
0.89
168
1.35
82
0.93
168
2.49
147
5.97
133
1.47
268
1.14
226
1.49
230
1.40
189
3.78
263
1.89
209
LG-G_1two views1.68
127
0.70
59
0.33
35
0.37
58
0.40
71
0.33
47
0.16
36
0.41
30
0.21
32
0.29
22
0.33
44
0.50
36
0.35
53
0.34
58
3.35
97
2.37
165
0.54
36
0.62
71
0.86
47
0.75
125
0.92
65
28.93
325
0.17
10
0.23
28
0.51
39
0.41
47
0.62
21
0.48
45
LG-Gtwo views1.68
127
0.70
59
0.33
35
0.37
58
0.40
71
0.33
47
0.16
36
0.41
30
0.21
32
0.29
22
0.33
44
0.50
36
0.35
53
0.34
58
3.35
97
2.37
165
0.54
36
0.62
71
0.86
47
0.75
125
0.92
65
28.93
325
0.17
10
0.23
28
0.51
39
0.41
47
0.62
21
0.48
45
rafts_anoytwo views1.69
129
0.82
116
0.95
157
0.45
90
0.51
102
0.54
111
0.46
132
1.57
204
0.51
110
0.61
59
0.70
118
0.71
77
0.49
88
0.36
66
8.16
159
6.28
252
0.82
106
0.79
128
2.48
138
0.65
93
1.66
115
11.09
196
0.54
117
0.54
91
1.00
151
0.90
121
0.96
57
0.99
139
MIM_Stereotwo views1.71
130
0.77
93
0.56
85
0.43
80
0.38
67
0.47
83
0.23
54
1.50
190
0.32
54
0.56
48
0.46
64
0.65
64
0.28
41
0.39
86
6.21
149
11.24
277
0.65
59
0.82
141
3.32
183
0.89
159
1.35
95
10.19
176
0.38
48
0.51
85
0.55
48
0.42
51
1.96
142
0.58
59
CFNet_pseudotwo views1.71
130
0.79
105
0.89
140
0.83
180
0.79
169
0.71
164
0.43
122
0.93
109
0.53
114
0.94
149
0.81
140
0.94
134
0.88
196
0.82
223
15.18
200
1.47
87
0.79
98
0.73
112
7.38
262
0.78
133
1.08
79
2.74
67
0.74
202
0.70
146
0.91
130
0.91
124
1.47
97
1.13
156
SGD-Stereotwo views1.72
132
0.50
33
0.38
45
0.28
28
0.30
41
0.30
42
0.17
41
0.57
44
0.29
47
0.44
38
0.22
22
0.69
72
0.40
64
0.25
34
30.93
237
1.66
115
0.76
83
0.53
47
0.71
36
0.52
51
1.51
107
1.73
45
0.43
60
0.33
46
0.51
39
0.46
55
0.89
51
0.63
74
IGEV-Stereo+two views1.72
132
1.04
205
0.26
28
0.48
95
0.32
47
0.29
38
0.13
26
0.50
38
0.27
39
0.78
101
7.60
301
0.57
47
0.26
39
0.31
47
3.09
85
3.57
200
0.61
54
0.62
71
1.55
93
0.54
56
1.01
72
20.06
296
0.57
135
0.21
23
0.46
31
0.31
25
0.58
18
0.40
35
CC-Net-ROBtwo views1.72
132
1.82
269
1.21
215
1.92
259
1.84
259
2.43
271
1.64
231
0.93
109
0.96
189
1.27
179
0.68
110
5.86
283
2.76
252
1.47
267
2.26
49
0.95
17
1.46
216
1.26
249
2.79
158
0.96
171
1.12
82
1.41
35
3.28
290
0.73
152
1.31
199
1.15
165
1.47
97
1.57
191
dadtwo views1.73
135
0.98
185
0.82
126
2.17
269
1.18
216
1.11
217
4.08
270
1.66
213
0.63
143
1.21
173
0.54
85
1.12
161
2.00
242
0.63
184
3.74
106
1.25
59
1.14
184
0.82
141
2.70
153
0.80
139
1.47
104
2.54
64
0.73
196
1.01
213
2.41
273
0.71
92
5.51
278
3.77
256
raftrobusttwo views1.74
136
0.68
53
1.00
169
0.55
114
0.51
102
0.45
82
0.34
99
1.54
195
0.48
96
0.94
149
0.72
121
0.88
118
0.53
97
0.41
92
7.35
156
5.79
242
0.73
73
0.71
104
4.77
209
0.68
107
2.01
138
10.90
187
0.65
169
0.50
83
1.06
163
0.86
115
1.05
63
0.84
112
XPNet_ROBtwo views1.76
137
1.58
260
1.17
208
0.93
189
1.17
215
1.05
212
0.98
195
0.97
113
1.17
213
1.07
162
1.79
208
4.38
270
0.73
155
0.80
221
2.59
61
1.58
108
1.78
235
0.97
187
1.45
89
1.06
183
2.58
149
8.45
162
0.94
242
0.88
192
0.99
148
1.31
179
3.33
246
1.71
201
BEATNet_4xtwo views1.77
138
0.78
101
0.79
121
0.76
162
0.70
151
0.51
101
0.49
141
1.23
145
1.31
220
0.84
125
0.76
128
1.06
152
0.76
165
0.67
199
8.95
165
2.41
167
1.91
238
1.42
257
1.30
79
0.88
158
4.99
184
9.14
166
0.51
99
1.03
215
0.77
97
0.82
103
1.85
133
1.10
152
RALAANettwo views1.79
139
0.71
62
0.88
138
0.54
112
0.55
118
0.63
148
0.43
122
1.30
159
0.52
113
0.93
146
0.65
107
0.74
88
0.60
122
0.33
55
8.49
163
1.53
95
0.78
96
0.91
175
2.18
123
1.09
187
3.35
157
15.13
246
0.55
118
0.79
166
0.92
136
1.03
144
2.08
151
0.77
95
CREStereo++_RVCtwo views1.81
140
0.91
151
1.09
190
0.52
107
0.61
127
0.41
69
0.29
77
1.37
177
0.56
122
0.83
122
0.63
103
0.77
94
0.86
191
0.40
90
2.94
76
3.08
180
0.98
150
0.63
77
2.71
154
0.56
61
4.98
183
6.57
142
0.59
144
0.53
90
1.06
163
1.06
150
12.85
310
0.97
130
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MyStereo04two views1.85
141
0.92
156
1.06
182
0.81
177
0.90
184
0.59
135
0.43
122
1.56
201
0.99
191
2.30
238
0.87
148
1.46
191
0.57
111
0.41
92
3.53
103
2.81
176
0.93
136
1.01
200
5.44
220
2.73
266
4.96
180
6.15
138
1.83
277
0.96
209
1.39
215
1.73
217
2.57
209
0.94
125
AE-Stereotwo views1.87
142
0.86
132
1.31
229
0.82
179
0.55
118
0.58
127
0.78
179
0.83
89
0.49
102
0.79
111
0.54
85
1.31
181
0.72
152
0.52
146
2.79
71
4.03
211
1.04
166
0.97
187
3.06
166
1.16
191
4.60
175
15.60
250
0.55
118
1.04
218
1.33
204
1.34
181
1.95
141
0.86
115
RALCasStereoNettwo views1.87
142
0.84
121
1.02
176
0.54
112
0.55
118
0.62
141
0.48
139
1.48
186
0.46
90
1.01
156
0.74
125
0.92
130
0.50
91
0.36
66
6.19
148
11.19
275
0.81
101
0.76
123
1.55
93
0.68
107
1.46
101
13.06
226
0.52
106
0.66
136
0.94
138
1.13
163
0.96
57
1.14
158
GEStereo_RVCtwo views1.88
144
0.97
179
1.01
173
1.01
203
0.88
182
1.12
218
1.07
203
1.65
212
0.82
172
0.90
140
0.78
136
1.38
185
0.79
175
0.64
188
2.40
54
2.33
160
1.22
193
1.22
241
4.10
200
1.26
204
5.16
188
12.04
213
0.73
196
1.21
230
0.95
142
0.97
133
2.49
197
1.64
198
DeepPruner_ROBtwo views1.89
145
0.77
93
0.97
162
0.86
185
0.91
186
0.80
180
5.39
277
1.26
151
0.91
184
1.47
192
1.61
202
0.92
130
0.82
184
0.56
163
4.41
124
1.54
100
1.07
173
1.06
214
2.72
156
0.80
139
7.63
222
7.36
152
0.87
235
0.77
159
0.91
130
1.47
195
2.20
160
0.99
139
sCroCo_RVCtwo views1.92
146
0.68
53
0.57
86
0.38
60
0.50
98
0.76
175
0.43
122
0.94
111
1.56
239
1.51
193
0.77
132
1.06
152
0.96
208
0.50
142
3.03
81
5.07
229
1.25
198
1.23
242
2.55
139
1.40
212
7.89
231
12.35
217
0.45
69
0.64
127
0.94
138
1.12
160
2.34
178
1.04
146
IGEV-Stereo++two views1.94
147
0.41
23
0.22
18
0.22
18
0.25
30
0.21
17
0.09
10
0.25
10
0.17
18
0.20
10
0.36
53
0.29
9
0.21
31
0.19
18
16.62
207
1.60
110
0.45
16
0.38
19
0.87
50
0.49
43
0.58
26
25.92
317
0.25
25
0.16
12
0.31
9
0.27
20
1.12
71
0.27
20
MoCha-V2two views1.94
147
0.31
14
0.25
26
0.21
16
0.17
17
0.17
10
0.15
33
0.23
7
0.11
1
0.27
20
0.32
38
0.33
14
0.16
14
0.22
28
16.77
209
2.58
170
0.41
8
0.40
24
0.35
2
0.92
164
0.61
30
25.91
316
0.16
8
0.19
20
0.38
16
0.26
16
0.36
3
0.19
2
GMOStereotwo views1.98
149
0.75
80
0.52
73
0.62
132
0.53
108
0.47
83
0.47
135
1.54
195
0.48
96
0.87
130
0.47
66
0.77
94
0.58
115
0.38
78
10.16
175
5.49
236
0.81
101
0.88
164
3.13
170
0.81
144
1.81
126
16.83
266
0.49
85
0.56
95
1.11
172
0.74
94
1.57
108
0.58
59
error versiontwo views1.98
149
0.75
80
0.52
73
0.62
132
0.53
108
0.47
83
0.47
135
1.54
195
0.48
96
0.87
130
0.47
66
0.77
94
0.58
115
0.38
78
10.16
175
5.49
236
0.81
101
0.88
164
3.13
170
0.81
144
1.81
126
16.83
266
0.49
85
0.56
95
1.11
172
0.74
94
1.57
108
0.58
59
test-vtwo views1.98
149
0.75
80
0.52
73
0.62
132
0.53
108
0.47
83
0.47
135
1.54
195
0.48
96
0.87
130
0.47
66
0.77
94
0.58
115
0.38
78
10.16
175
5.49
236
0.81
101
0.88
164
3.13
170
0.81
144
1.81
126
16.83
266
0.49
85
0.56
95
1.11
172
0.74
94
1.57
108
0.58
59
test-2two views1.98
149
0.75
80
0.52
73
0.62
132
0.53
108
0.47
83
0.47
135
1.54
195
0.48
96
0.87
130
0.47
66
0.77
94
0.58
115
0.38
78
10.16
175
5.49
236
0.81
101
0.88
164
3.13
170
0.81
144
1.81
126
16.83
266
0.49
85
0.56
95
1.11
172
0.74
94
1.57
108
0.58
59
RAFT + AFFtwo views2.00
153
0.49
32
0.46
61
0.41
74
0.20
21
0.43
77
0.21
51
0.65
57
0.24
35
0.56
48
0.27
29
0.78
101
0.22
32
0.32
49
39.56
254
0.96
18
0.71
69
0.38
19
1.92
115
0.39
19
0.79
45
1.40
32
0.33
38
0.40
59
0.73
86
0.35
35
0.59
19
0.30
26
MLCVtwo views2.04
154
0.89
145
0.99
166
1.37
237
1.31
226
1.02
209
1.01
197
2.14
253
0.80
169
2.00
223
4.28
247
1.74
209
1.62
235
0.48
130
3.03
81
2.01
142
1.33
205
0.96
184
6.76
250
1.13
189
6.05
199
5.71
124
0.68
179
1.73
250
1.32
203
1.39
185
2.32
175
1.07
148
4D-IteraStereotwo views2.05
155
0.63
44
1.16
204
0.49
97
0.44
83
0.41
69
0.26
66
1.43
182
0.38
65
0.75
92
0.55
89
0.79
104
0.42
72
0.46
126
9.38
169
11.47
281
0.71
69
0.68
93
2.81
159
0.64
86
3.95
163
11.85
210
0.52
106
0.58
103
0.71
84
0.84
108
2.34
178
0.63
74
test_4two views2.06
156
0.75
80
0.84
131
0.43
80
0.36
62
0.36
57
0.27
69
0.78
76
0.34
58
0.75
92
0.53
84
0.91
125
0.35
53
0.41
92
13.80
194
13.16
291
0.68
64
0.72
109
1.64
102
0.61
77
1.21
92
11.03
193
0.48
80
0.52
86
0.66
80
0.71
92
2.72
219
0.61
69
GCAP-BATtwo views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
test_for_modeltwo views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
testlalala2two views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
testlalalatwo views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
testlalala_basetwo views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
GCAP-Stereotwo views2.08
157
0.93
162
0.58
88
0.38
60
0.41
73
0.47
83
0.31
81
1.31
162
0.43
79
0.78
101
0.52
76
2.25
226
0.43
74
0.36
66
3.88
108
6.19
246
13.58
316
0.64
79
2.63
142
0.66
98
8.41
244
5.39
111
0.56
125
0.62
117
0.73
86
0.64
77
2.21
163
0.82
104
LALA_ROBtwo views2.09
163
2.18
279
1.21
215
1.07
208
1.32
228
1.18
221
1.12
211
1.19
140
1.45
228
2.05
228
2.76
228
3.68
256
0.92
200
0.96
237
4.76
131
1.53
95
1.45
213
1.18
237
2.60
140
1.36
210
3.60
161
8.26
161
0.80
215
1.16
227
1.35
208
1.44
192
3.89
266
2.12
220
ETE_ROBtwo views2.14
164
1.95
274
1.29
227
1.08
210
1.39
232
1.29
237
1.47
228
1.12
128
2.26
268
1.35
183
3.17
235
3.39
253
0.94
204
1.14
253
5.12
137
1.56
105
2.63
259
0.99
192
2.98
162
1.22
198
4.29
168
8.09
159
0.91
240
1.09
220
1.28
195
1.38
184
2.37
186
1.87
207
DEFOM-Stereo_RVCtwo views2.17
165
0.75
80
0.52
73
0.39
69
0.34
54
0.26
32
0.16
36
0.68
62
0.30
49
0.72
82
0.42
61
0.77
94
0.35
53
0.33
55
17.96
217
9.49
269
0.66
63
0.57
61
1.74
110
0.54
56
1.66
115
16.17
257
0.53
112
0.41
62
0.65
76
0.49
60
0.98
60
0.65
77
DDUNettwo views2.19
166
2.74
286
2.17
272
2.93
281
2.67
281
3.05
279
2.77
256
1.17
135
1.11
206
1.60
198
1.37
198
2.26
233
1.70
236
2.81
284
2.35
53
1.30
65
2.80
264
2.43
303
2.64
148
2.90
270
1.94
136
4.91
98
2.77
287
1.00
212
1.10
169
0.94
127
2.50
198
1.10
152
castereotwo views2.25
167
0.88
141
1.01
173
0.46
93
0.48
90
0.34
49
0.29
77
0.77
71
0.49
102
0.80
115
0.65
107
1.04
148
0.48
85
0.43
109
15.61
202
5.51
240
1.04
166
0.79
128
2.67
149
0.65
93
7.84
229
12.66
222
0.61
152
0.61
112
1.26
192
1.24
174
1.06
65
1.20
168
CASStwo views2.25
167
1.02
201
1.23
218
1.34
235
1.04
199
0.89
191
5.14
274
1.41
180
1.02
198
1.29
180
2.38
226
1.25
173
0.84
187
0.53
149
3.59
104
2.58
170
3.60
270
1.09
219
3.45
187
1.24
202
7.99
233
9.49
168
0.68
179
0.88
192
1.59
240
1.27
175
2.51
199
1.41
185
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
FADNet-RVC-Resampletwo views2.26
169
0.88
141
1.00
169
0.72
155
0.82
177
0.64
149
1.20
217
1.09
125
0.94
186
0.99
154
0.96
160
1.71
208
0.79
175
1.00
240
25.20
229
1.54
100
1.23
195
1.59
265
1.55
93
1.07
184
1.59
112
6.84
146
0.60
149
1.24
232
0.88
124
1.96
238
1.44
91
1.54
190
castereo++two views2.33
170
0.76
89
0.85
133
0.60
127
0.42
80
0.35
52
0.27
69
0.85
94
0.43
79
0.81
118
0.62
101
1.04
148
0.51
94
0.41
92
9.80
171
6.42
253
1.02
161
0.75
121
3.24
176
0.69
111
6.99
211
13.47
231
0.68
179
0.62
117
1.16
182
1.06
150
7.61
294
1.59
194
Anonymous3two views2.34
171
0.87
136
0.96
159
0.57
120
1.20
218
0.90
193
0.70
172
2.43
271
1.12
207
1.04
158
0.97
164
2.57
241
1.18
226
0.58
169
4.83
132
8.57
267
1.53
222
1.46
260
5.31
218
1.61
227
6.76
206
10.34
178
0.73
196
0.71
149
1.11
172
1.40
189
2.31
173
1.33
179
s12784htwo views2.36
172
1.12
216
1.42
236
1.12
212
0.93
188
0.62
141
0.40
116
1.36
175
0.68
155
1.05
161
0.86
145
1.10
159
0.94
204
0.43
109
2.88
74
4.87
225
1.00
156
0.73
112
3.80
193
0.59
72
7.79
226
9.50
169
0.55
118
0.69
142
1.89
258
1.97
239
11.65
306
3.89
257
MSCFtwo views2.43
173
0.42
26
0.22
18
0.34
47
0.19
19
0.24
26
0.14
30
0.30
13
0.20
29
0.66
71
0.13
11
0.28
5
0.18
22
0.14
4
19.60
222
17.27
314
0.43
11
0.36
14
0.37
6
0.40
20
0.51
18
20.43
299
0.24
23
0.30
39
0.39
18
0.88
118
0.73
35
0.25
15
GASTEREOtwo views2.44
174
0.43
27
0.22
18
0.34
47
0.19
19
0.24
26
0.14
30
0.30
13
0.19
27
0.73
87
0.12
7
0.28
5
0.17
18
0.14
4
19.56
221
17.27
314
0.43
11
0.36
14
0.38
8
0.41
24
0.49
14
20.62
301
0.26
27
0.30
39
0.40
22
0.84
108
0.76
40
0.24
9
RYNettwo views2.44
174
0.41
23
0.36
43
0.30
37
0.32
47
0.41
69
0.25
63
0.61
48
0.56
122
0.33
26
0.36
53
0.41
29
0.26
39
0.27
38
52.15
316
0.73
8
0.48
24
1.00
196
0.57
24
0.31
10
0.54
23
0.42
2
0.40
54
0.34
48
0.58
59
1.58
207
1.32
85
0.49
48
NaN_ROBtwo views2.45
176
1.12
216
1.08
188
0.97
195
1.86
262
0.90
193
1.61
230
1.33
169
10.69
319
1.00
155
1.27
188
2.58
242
0.94
204
1.20
257
17.00
211
1.43
78
1.03
163
0.90
173
1.56
96
1.21
197
1.90
132
3.45
74
0.81
216
1.12
224
1.54
237
2.00
242
2.39
188
3.23
248
anonymousdsptwo views2.48
177
0.38
19
0.39
47
0.28
28
0.32
47
0.29
38
0.15
33
0.56
41
0.27
39
0.43
36
18.77
320
0.54
42
0.20
27
0.32
49
13.20
192
1.48
89
0.58
43
0.54
50
0.70
35
0.61
77
0.78
44
23.15
307
0.43
60
0.39
53
0.49
34
0.29
22
1.16
74
0.33
28
ADLNettwo views2.55
178
0.99
189
0.77
118
0.63
137
0.76
159
0.65
151
0.53
147
1.11
127
0.61
138
0.58
54
0.72
121
1.70
207
0.61
123
0.88
227
46.09
281
1.06
30
0.75
80
0.68
93
0.86
47
0.75
125
0.79
45
1.96
51
0.55
118
0.58
103
0.96
145
0.96
130
1.63
119
0.76
94
GwcNet-ADLtwo views2.59
179
1.24
228
1.55
245
1.27
230
1.36
231
0.98
203
0.84
186
1.49
188
0.86
177
3.20
267
6.66
279
2.00
217
1.04
216
0.79
220
3.85
107
4.95
226
1.68
231
0.89
168
5.11
214
2.44
260
6.48
203
11.06
195
0.92
241
1.18
228
1.31
199
1.92
234
2.15
154
2.69
234
CFNet_RVCtwo views2.61
180
0.87
136
0.97
162
0.76
162
0.82
177
0.73
169
0.52
146
0.74
69
0.66
152
0.87
130
1.03
171
0.90
123
0.61
123
0.52
146
44.12
275
1.18
47
0.85
112
0.81
136
2.35
131
0.76
131
1.46
101
2.38
59
0.53
112
0.73
152
0.99
148
1.11
157
1.93
140
1.22
170
test-3two views2.64
181
1.01
197
1.14
199
0.63
137
0.62
135
0.58
127
0.45
128
1.98
241
0.42
73
0.86
127
0.54
85
1.48
193
0.53
97
0.41
92
15.10
198
11.78
283
0.86
117
0.82
141
6.54
242
0.74
121
5.58
192
11.75
208
0.51
99
0.90
197
0.91
130
1.01
138
3.11
236
0.97
130
test_1two views2.64
181
1.01
197
1.14
199
0.63
137
0.62
135
0.58
127
0.45
128
1.98
241
0.42
73
0.86
127
0.54
85
1.48
193
0.53
97
0.41
92
15.10
198
11.82
286
0.86
117
0.82
141
6.53
241
0.74
121
5.60
195
11.75
208
0.50
93
0.90
197
0.91
130
1.01
138
3.11
236
0.98
134
test_3two views2.64
181
1.02
201
1.12
195
0.65
142
0.63
139
0.57
123
0.45
128
1.95
234
0.41
72
0.88
137
0.51
74
1.47
192
0.54
104
0.40
90
14.93
197
11.79
284
0.88
124
0.83
147
6.54
242
0.76
131
5.54
190
11.70
207
0.49
85
0.88
192
0.99
148
1.12
160
3.23
241
0.98
134
Any-RAFTtwo views2.70
184
0.95
175
1.29
227
0.76
162
0.79
169
0.51
101
0.42
118
1.99
243
0.58
129
0.86
127
6.97
293
1.52
197
0.51
94
0.44
116
5.49
142
3.45
194
0.94
140
0.93
179
6.85
256
0.82
150
14.24
309
11.16
197
0.70
188
0.78
164
1.62
242
1.89
231
2.28
172
4.18
259
FADNet-RVCtwo views2.70
184
0.72
68
0.93
153
0.78
169
1.09
207
0.60
138
2.77
256
0.92
107
0.62
140
1.01
156
0.73
124
1.50
195
0.65
136
0.62
180
38.99
251
1.71
118
0.92
131
0.91
175
2.27
129
1.57
224
2.69
151
4.17
85
0.53
112
0.80
167
1.47
227
1.12
160
1.45
95
1.38
182
UCFNet_RVCtwo views2.81
186
1.27
234
0.90
143
0.89
188
0.94
191
0.78
179
0.62
160
0.78
76
0.68
155
0.91
142
0.80
138
1.29
178
1.02
214
0.50
142
42.02
269
1.15
41
0.85
112
0.83
147
6.67
246
0.85
156
1.51
107
2.89
69
1.15
252
0.75
154
1.10
169
1.14
164
1.58
112
2.10
219
PWCDC_ROBbinarytwo views2.81
186
0.72
68
0.69
108
0.63
137
0.95
192
0.69
160
0.70
172
1.04
122
1.58
240
0.64
66
1.84
210
0.91
125
3.56
267
0.77
216
39.21
252
2.17
150
1.31
203
0.99
192
1.59
100
1.01
180
3.34
156
5.82
130
0.72
191
0.87
185
0.77
97
0.94
127
1.13
72
1.19
166
cross-rafttwo views2.82
188
0.91
151
1.18
210
0.75
161
0.90
184
0.66
153
0.46
132
2.03
249
0.61
138
0.95
151
1.42
200
1.08
158
0.76
165
0.53
149
8.24
162
5.88
243
1.09
175
0.80
133
6.99
259
2.68
265
12.15
279
17.17
275
0.72
191
0.78
164
1.60
241
1.91
232
1.66
120
2.34
227
FADNettwo views2.84
189
0.83
117
0.90
143
0.83
180
1.04
199
0.62
141
2.08
242
0.99
116
0.76
166
0.92
145
0.92
158
1.18
168
0.78
173
0.76
212
40.37
260
1.50
91
0.97
149
1.03
204
2.68
151
1.57
224
3.20
155
5.00
100
0.51
99
0.68
140
1.58
239
1.68
214
1.54
105
1.82
203
NVstereo2Dtwo views2.85
190
0.83
117
0.80
124
0.70
151
0.80
172
0.92
197
0.81
182
1.18
139
0.76
166
0.93
146
1.03
171
0.81
109
0.55
107
0.72
208
52.45
318
1.56
105
0.94
140
0.87
160
1.64
102
0.72
119
1.14
83
1.60
42
0.76
207
0.87
185
1.08
166
0.79
99
1.01
61
0.75
90
iResNettwo views2.85
190
0.97
179
0.97
162
1.43
243
1.80
257
1.47
245
1.12
211
1.81
226
1.13
208
2.59
249
4.97
258
1.93
213
2.37
247
0.49
134
10.52
181
7.03
258
1.43
212
1.23
242
6.83
255
1.98
247
10.31
265
4.92
99
0.64
165
2.13
271
1.14
179
1.54
203
2.80
222
1.38
182
PWC_ROBbinarytwo views2.85
190
1.23
226
1.47
242
0.98
196
1.11
209
1.27
235
1.99
240
1.27
154
1.94
259
1.81
212
3.58
242
2.35
236
3.05
260
1.01
241
14.14
196
4.27
214
2.10
249
1.91
282
3.81
194
1.66
229
5.64
196
8.18
160
0.85
229
2.03
265
1.36
211
1.46
193
3.11
236
3.25
249
AnonymousMtwo views2.90
193
0.65
47
0.48
66
0.51
104
0.33
51
0.52
107
0.24
58
1.70
216
0.47
91
0.75
92
4.40
252
0.71
77
0.46
82
0.47
128
2.68
65
3.64
205
1.18
189
1.04
206
1.95
118
3.61
284
4.88
178
12.46
218
0.67
176
0.66
136
0.60
66
1.21
169
15.66
317
16.35
301
Reg-Stereo(zero)two views2.93
194
0.81
111
1.58
247
0.71
152
1.46
236
0.57
123
0.70
172
3.61
296
0.69
158
3.55
275
6.85
287
1.53
198
0.84
187
1.60
269
4.30
121
5.29
232
3.30
268
0.83
147
6.52
239
1.87
240
5.58
192
14.63
242
0.72
191
0.70
146
1.08
166
1.51
196
4.73
274
3.62
253
HItwo views2.93
194
0.81
111
1.58
247
0.71
152
1.46
236
0.57
123
0.70
172
3.61
296
0.69
158
3.55
275
6.85
287
1.53
198
0.84
187
1.60
269
4.30
121
5.29
232
3.30
268
0.83
147
6.52
239
1.87
240
5.58
192
14.63
242
0.72
191
0.70
146
1.08
166
1.51
196
4.73
274
3.62
253
anonymousdsp2two views2.94
196
0.84
121
0.87
137
0.43
80
0.45
85
0.58
127
0.34
99
1.16
134
0.38
65
0.66
71
21.85
321
0.70
76
0.41
69
0.59
171
13.83
195
3.60
202
0.76
83
0.71
104
2.22
126
1.35
209
1.52
110
21.23
302
0.43
60
0.62
117
0.79
104
0.50
63
1.85
133
0.65
77
MIPNettwo views2.96
197
0.92
156
0.91
146
0.50
101
0.67
149
0.56
118
0.61
159
1.33
169
0.54
118
2.05
228
0.97
164
0.83
111
0.81
180
0.49
134
40.68
262
1.72
120
1.31
203
0.97
187
3.26
177
1.24
202
1.50
106
9.35
167
0.59
144
1.03
215
1.35
208
1.98
240
2.90
227
0.81
102
LG-Stereo_Zeroshottwo views3.00
198
1.05
208
0.53
78
1.39
239
2.50
277
3.17
280
1.07
203
1.71
217
0.96
189
4.82
301
5.49
267
4.83
274
0.65
136
0.42
102
4.72
130
5.74
241
0.84
111
0.80
133
2.69
152
1.13
189
7.99
233
20.11
298
0.60
149
0.42
65
0.87
121
1.39
185
1.98
144
3.06
243
RAFT-Stereo + iAFFtwo views3.00
198
0.73
75
0.91
146
0.43
80
0.41
73
0.58
127
0.28
74
0.99
116
0.60
135
1.54
194
0.59
96
0.80
107
0.40
64
0.28
40
44.82
277
1.22
53
0.69
65
0.53
47
2.71
154
0.62
81
2.23
143
13.76
239
0.50
93
0.59
106
0.90
128
0.75
98
2.54
205
0.66
81
IPLGtwo views3.07
200
0.76
89
0.72
111
0.43
80
0.54
114
0.56
118
0.53
147
1.62
207
0.36
64
0.62
63
0.58
95
0.79
104
0.68
143
0.49
134
50.96
307
1.74
124
1.12
181
0.97
187
3.52
188
0.64
86
1.11
80
6.45
140
0.52
106
0.82
171
0.92
136
1.91
232
2.86
224
0.71
85
DAStwo views3.10
201
1.00
195
1.10
192
1.19
224
1.08
202
1.08
215
1.21
218
1.75
219
1.79
254
3.25
268
5.47
264
2.72
245
3.29
264
0.55
159
5.31
138
7.12
259
2.42
257
1.23
242
6.24
234
1.85
238
12.96
289
10.93
188
0.78
210
1.97
260
1.37
213
1.75
218
2.60
210
1.57
191
SepStereotwo views3.10
201
1.00
195
1.10
192
1.19
224
1.08
202
1.08
215
1.21
218
1.75
219
1.79
254
3.25
268
5.47
264
2.72
245
3.29
264
0.55
159
5.31
138
7.12
259
2.42
257
1.23
242
6.24
234
1.85
238
12.96
289
10.93
188
0.78
210
1.97
260
1.37
213
1.75
218
2.60
210
1.57
191
GANet-ADLtwo views3.14
203
0.92
156
1.31
229
1.05
207
1.05
201
1.24
232
0.92
192
1.20
141
1.01
194
3.66
281
6.58
278
1.07
157
0.81
180
0.49
134
11.53
185
4.97
228
1.73
232
0.91
175
6.57
244
2.05
251
8.13
236
18.07
287
0.71
189
0.95
207
1.11
172
1.99
241
2.91
228
1.84
205
DCVSM-stereotwo views3.15
204
0.94
170
1.56
246
1.37
237
1.08
202
1.54
247
1.01
197
3.02
285
1.32
221
3.44
272
6.18
272
6.76
290
2.79
255
0.90
230
5.98
145
4.29
215
1.47
217
1.10
221
7.68
264
3.59
282
6.97
210
8.61
164
1.23
254
2.64
290
1.46
223
2.00
242
3.57
254
2.42
229
AFF-stereotwo views3.18
205
0.71
62
0.65
102
0.31
40
0.33
51
0.55
116
0.23
54
0.87
99
0.42
73
1.36
184
0.46
64
0.67
67
0.35
53
0.26
36
46.76
285
1.18
47
0.62
57
0.86
156
2.87
160
0.45
32
4.82
177
15.89
255
0.44
65
0.47
78
0.82
110
0.68
90
2.38
187
0.56
55
pcwnet_v2two views3.23
206
0.83
117
0.97
162
0.93
189
1.14
212
0.96
200
0.69
171
1.17
135
0.87
180
2.03
225
1.10
177
1.29
178
1.08
219
1.26
260
45.42
278
1.62
111
1.08
174
0.89
168
6.88
257
0.84
155
3.07
153
4.23
86
1.04
247
0.91
200
1.05
162
1.19
167
2.44
191
2.19
224
RTSCtwo views3.28
207
0.98
185
1.45
240
0.78
169
0.96
196
1.01
208
2.41
250
1.17
135
1.33
222
2.40
244
2.02
221
1.27
175
1.03
215
1.14
253
40.84
265
3.19
184
1.99
241
1.31
253
4.15
201
1.44
216
3.49
159
5.65
122
0.68
179
1.18
228
1.17
183
1.04
147
2.44
191
2.09
217
GREAT-IGEVtwo views3.32
208
0.37
18
0.22
18
0.15
10
0.12
3
0.16
5
0.09
10
0.31
17
9.28
315
0.33
26
0.18
14
0.44
33
0.19
23
0.21
24
18.63
219
22.84
324
0.49
27
0.32
8
0.45
15
0.59
72
0.50
15
31.41
327
0.25
25
0.30
39
0.30
6
0.25
12
0.90
52
0.23
7
RAFT-Testtwo views3.32
208
0.86
132
1.22
217
1.02
204
0.82
177
0.59
135
0.58
156
2.18
257
0.70
161
1.12
166
7.31
298
1.02
147
0.91
199
0.59
171
9.35
168
11.60
282
1.14
184
0.81
136
7.01
260
1.28
205
10.82
272
17.19
276
0.76
207
0.77
159
1.51
233
4.92
283
1.38
87
2.16
223
CSANtwo views3.35
210
1.35
244
1.16
204
1.52
248
2.04
270
1.26
234
7.98
289
1.54
195
10.46
316
2.39
243
3.42
239
5.12
279
2.55
251
1.14
253
8.20
161
1.38
73
1.73
232
1.10
221
3.33
184
1.72
233
6.90
208
10.63
183
0.82
220
1.50
242
1.94
262
3.78
276
2.45
193
2.93
239
AEACVtwo views3.45
211
0.93
162
0.35
40
0.29
32
0.21
24
0.27
35
0.12
21
0.28
11
0.14
6
0.24
15
0.24
25
0.36
20
0.22
32
0.21
24
30.09
236
24.13
326
0.59
46
0.46
33
1.65
107
0.91
163
0.89
58
28.36
323
0.27
28
0.21
23
0.36
14
0.31
25
0.63
24
0.28
24
MFMNet_retwo views3.46
212
1.42
249
1.49
243
1.53
249
1.89
264
2.00
261
2.86
259
2.64
279
2.15
265
1.61
199
1.95
215
3.90
258
2.80
256
1.04
244
16.75
208
4.11
212
2.68
261
1.96
283
6.65
245
2.58
264
14.03
304
5.20
106
1.88
278
2.03
265
1.41
217
1.32
180
3.30
245
2.21
225
R-Stereo Traintwo views3.50
213
1.01
197
1.23
218
1.00
199
0.66
146
0.77
176
0.32
92
1.30
159
1.01
194
1.63
201
4.33
248
1.34
182
0.71
149
0.42
102
34.59
242
4.42
219
1.66
229
1.02
202
6.76
250
1.16
191
7.74
224
13.63
234
0.52
106
0.64
127
1.53
235
1.66
212
1.39
88
1.92
211
RAFT-Stereopermissivetwo views3.50
213
1.01
197
1.23
218
1.00
199
0.66
146
0.77
176
0.32
92
1.30
159
1.01
194
1.63
201
4.33
248
1.34
182
0.71
149
0.42
102
34.59
242
4.42
219
1.66
229
1.02
202
6.76
250
1.16
191
7.74
224
13.63
234
0.52
106
0.64
127
1.53
235
1.66
212
1.39
88
1.92
211
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSMDNettwo views3.50
213
0.89
145
1.16
204
0.58
123
0.75
158
0.62
141
0.50
142
2.02
246
0.62
140
1.04
158
1.76
206
1.11
160
12.05
294
0.61
175
12.99
191
10.73
273
1.17
188
0.81
136
6.92
258
1.46
219
11.45
277
17.23
277
0.72
191
0.84
176
1.47
227
1.81
224
1.28
81
1.94
213
AIO_rvctwo views3.52
216
0.72
68
0.41
51
0.34
47
0.22
26
0.35
52
0.17
41
0.57
44
0.28
44
0.38
32
0.22
22
0.56
46
0.25
37
0.29
41
23.43
226
18.50
318
0.51
31
0.48
36
2.01
120
0.55
58
0.84
51
41.45
330
0.49
85
0.23
28
0.51
39
0.29
22
0.74
36
0.33
28
FADNet_RVCtwo views3.56
217
1.23
226
1.25
223
1.44
244
1.84
259
1.07
214
1.92
239
1.49
188
1.21
215
1.36
184
1.98
219
2.15
219
1.78
238
1.70
272
24.01
227
3.18
183
2.07
248
2.72
306
5.67
227
1.96
246
6.65
204
9.51
170
0.82
220
1.59
245
1.21
188
1.51
196
12.03
307
2.86
238
EGLCR-Stereotwo views3.59
218
0.87
136
1.26
224
0.45
90
0.49
95
0.62
141
0.24
58
0.84
92
1.44
226
0.72
82
3.96
244
0.80
107
0.65
136
0.51
144
4.34
123
8.11
266
1.11
177
1.11
224
3.53
189
0.71
117
5.00
185
35.96
329
0.56
125
0.71
149
1.01
152
0.91
124
20.20
320
0.86
115
IPLGRtwo views3.62
219
0.90
148
0.93
153
0.65
142
0.68
150
0.51
101
0.44
127
1.14
132
0.45
86
2.02
224
1.29
190
0.88
118
0.76
165
0.48
130
49.71
297
1.92
136
1.37
210
1.13
225
3.29
180
1.45
217
3.00
152
15.33
248
0.59
144
1.08
219
1.51
233
1.93
236
3.46
250
0.91
123
SHDtwo views3.64
220
1.05
208
2.15
271
1.16
220
1.24
219
1.21
227
2.45
251
1.63
210
1.66
243
2.43
245
2.96
230
1.83
210
2.53
250
0.95
236
39.82
256
3.82
208
1.89
237
1.51
261
4.16
202
2.08
254
5.74
197
5.69
123
0.74
202
1.99
262
1.92
261
1.81
224
1.97
143
1.86
206
HHtwo views3.66
221
0.67
51
1.44
237
0.83
180
0.81
174
0.96
200
1.10
207
1.85
229
0.86
177
5.18
311
5.29
261
1.95
214
0.86
191
0.61
175
11.66
187
15.16
307
0.99
153
1.04
206
6.30
236
3.12
276
13.50
300
13.59
232
0.86
230
0.94
205
1.45
221
1.81
224
3.81
264
2.04
214
HanStereotwo views3.66
221
0.67
51
1.44
237
0.83
180
0.81
174
0.96
200
1.10
207
1.85
229
0.86
177
5.18
311
5.29
261
1.95
214
0.86
191
0.61
175
11.66
187
15.16
307
0.99
153
1.04
206
6.30
236
3.12
276
13.50
300
13.59
232
0.86
230
0.94
205
1.45
221
1.81
224
3.81
264
2.04
214
RTStwo views3.66
221
1.19
219
1.07
186
0.99
197
1.30
224
1.36
239
3.80
267
1.35
172
1.49
234
2.37
240
1.17
183
1.84
211
1.14
224
1.07
246
42.35
270
3.22
186
2.05
246
1.43
258
4.07
198
1.94
244
4.46
170
5.32
107
1.05
248
1.34
237
1.91
259
5.04
284
2.33
176
2.12
220
RTSAtwo views3.66
221
1.19
219
1.07
186
0.99
197
1.30
224
1.36
239
3.80
267
1.35
172
1.49
234
2.37
240
1.17
183
1.84
211
1.14
224
1.07
246
42.35
270
3.22
186
2.05
246
1.43
258
4.07
198
1.94
244
4.46
170
5.32
107
1.05
248
1.34
237
1.91
259
5.04
284
2.33
176
2.12
220
MSKI-zero shottwo views3.77
225
0.85
127
1.15
202
0.73
156
0.63
139
0.68
158
0.56
149
1.86
231
0.94
186
0.88
137
6.74
281
1.62
204
0.71
149
0.43
109
15.96
205
13.56
294
1.52
220
1.01
200
6.81
254
8.64
312
10.46
268
16.23
258
0.59
144
0.87
185
1.50
231
1.95
237
1.85
133
3.10
244
HSM-Net_RVCpermissivetwo views3.81
226
1.09
213
1.14
199
1.82
255
1.25
221
0.94
198
0.70
172
2.28
266
1.07
203
2.74
254
5.68
269
38.55
326
1.46
234
0.55
159
5.03
134
1.95
137
1.20
191
0.79
128
1.99
119
1.22
198
7.13
214
13.94
241
0.84
225
2.30
274
1.64
243
1.51
196
2.21
163
1.75
202
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HUFtwo views3.84
227
0.71
62
0.57
86
0.35
51
0.26
34
0.29
38
0.17
41
0.80
81
0.29
47
0.49
42
0.29
32
0.61
54
0.43
74
0.29
41
28.08
233
23.64
325
0.61
54
0.62
71
5.18
215
0.63
83
1.76
122
34.41
328
0.50
93
0.52
86
0.56
52
0.33
30
0.79
45
0.47
43
XQCtwo views3.85
228
1.31
238
1.36
233
1.30
233
1.53
240
1.33
238
2.55
253
1.62
207
1.46
230
2.54
247
3.01
232
1.69
206
4.90
270
1.38
265
44.59
276
3.43
193
1.76
234
1.35
255
3.99
197
1.75
234
4.57
174
5.16
104
0.89
239
1.42
240
2.05
265
2.68
259
2.31
173
2.06
216
FCDSN-DCtwo views3.99
229
0.97
179
2.81
292
1.39
239
1.40
234
1.15
220
1.19
216
0.91
106
0.91
184
1.04
158
0.72
121
1.58
203
0.75
160
0.63
184
52.37
317
2.42
168
1.30
202
1.13
225
1.11
69
0.80
139
7.88
230
16.59
263
0.81
216
2.41
282
1.31
199
1.68
214
1.29
82
1.11
154
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
UDGtwo views4.03
230
2.77
287
2.35
281
2.93
281
2.67
281
3.00
278
2.72
255
1.31
162
1.13
208
1.64
203
1.94
214
2.23
224
1.70
236
2.77
282
48.50
292
1.67
117
3.08
266
2.35
296
2.67
149
2.91
271
3.58
160
5.04
101
2.66
282
1.23
231
1.07
165
1.28
177
2.36
182
1.15
161
test-1two views4.23
231
0.69
55
1.20
214
0.60
127
0.60
125
0.75
173
0.64
163
1.95
234
0.80
169
4.00
289
5.47
264
2.20
222
0.79
175
0.41
92
24.74
228
12.65
290
1.45
213
1.51
261
6.68
247
6.25
303
10.73
271
20.07
297
0.58
138
0.87
185
1.46
223
1.76
222
2.89
226
2.51
231
IGEV_Zeroshot_testtwo views4.26
232
0.84
121
1.93
263
2.97
285
0.71
153
3.42
283
1.32
224
2.22
261
1.67
244
4.20
292
6.87
289
2.33
235
1.00
213
0.48
130
9.28
167
11.41
279
1.04
166
0.84
152
5.57
223
4.84
292
8.38
242
21.42
303
0.65
169
0.84
176
1.46
223
1.58
207
14.79
314
2.96
241
DeepPrunerFtwo views4.26
232
1.62
262
0.74
113
2.93
281
4.99
314
2.40
269
3.44
262
0.88
100
3.92
292
0.79
111
1.16
181
0.71
77
0.57
111
0.63
184
43.07
274
2.04
144
1.04
166
0.87
160
2.42
135
0.92
164
1.80
123
2.10
55
0.88
238
0.82
171
28.99
322
1.77
223
2.48
195
1.16
164
EKT-Stereotwo views4.27
234
0.97
179
1.18
210
0.73
156
0.77
163
0.89
191
1.18
214
2.02
246
1.53
238
1.56
196
4.82
256
1.25
173
0.80
179
0.54
156
31.80
239
14.62
302
1.26
199
1.36
256
5.54
222
7.66
308
9.42
258
17.09
274
0.57
135
0.75
154
1.41
217
1.82
228
2.56
207
1.07
148
PVDtwo views4.32
235
1.44
253
2.25
276
1.41
241
1.77
254
1.75
254
2.70
254
3.05
286
2.66
275
3.00
262
4.25
246
2.70
244
3.99
268
1.37
264
39.86
257
3.83
209
2.30
256
2.28
289
4.67
208
2.74
267
7.12
213
6.88
147
1.06
250
1.88
258
3.05
279
2.71
260
2.99
230
2.93
239
MFN_U_SF_DS_RVCtwo views4.37
236
1.52
257
1.06
182
2.01
263
1.95
267
2.24
266
6.41
283
2.14
253
2.21
266
1.72
209
1.55
201
2.74
248
6.14
274
6.25
304
28.17
234
1.81
128
1.51
218
1.06
214
5.38
219
1.78
235
12.52
281
8.92
165
1.51
271
1.25
234
2.26
268
3.39
272
3.05
233
7.55
282
AIO_testtwo views4.46
237
0.79
105
0.51
71
0.44
88
0.25
30
0.36
57
0.21
51
0.61
48
0.27
39
0.42
35
0.32
38
0.58
48
0.28
41
0.32
49
31.53
238
28.68
330
0.53
33
0.47
34
1.35
82
0.56
61
1.06
76
47.74
334
0.48
80
0.26
34
0.52
43
0.49
60
1.04
62
0.35
31
gcap-zeroshottwo views4.50
238
0.79
105
1.44
237
1.90
258
0.76
159
1.22
229
2.14
243
2.08
252
0.63
143
5.43
321
7.06
295
2.92
249
0.70
147
0.41
92
13.38
193
11.02
274
1.21
192
1.09
219
36.04
308
1.48
220
8.46
250
11.16
197
3.53
293
0.89
196
1.44
220
1.46
193
1.34
86
1.49
189
FC-DCNNcopylefttwo views4.51
239
1.62
262
4.08
306
2.84
279
2.39
273
3.98
286
10.51
303
2.63
278
1.71
246
2.88
256
1.36
196
4.19
267
1.34
230
0.70
204
7.04
150
2.00
140
1.35
208
1.04
206
9.58
273
0.98
175
9.23
256
16.30
259
0.86
230
1.84
254
4.65
290
2.21
250
7.62
295
16.90
303
FAT-Stereotwo views4.52
240
1.20
223
2.24
274
1.53
249
1.85
261
1.44
243
1.59
229
3.56
295
1.83
256
3.65
279
6.20
273
6.73
289
2.83
258
1.06
245
10.97
183
14.80
304
2.18
252
2.42
301
5.19
216
8.70
314
13.23
295
13.14
227
0.95
243
2.77
299
1.34
206
2.22
251
3.04
232
5.45
271
PSMNet-ADLtwo views4.56
241
0.97
179
1.17
208
1.19
224
1.28
222
1.04
211
0.92
192
1.77
223
1.26
217
3.47
273
6.08
271
1.51
196
3.10
263
0.57
166
51.86
314
9.30
268
1.51
218
0.96
184
5.92
231
1.28
205
6.83
207
12.62
221
0.87
235
0.88
192
1.17
183
1.43
191
3.02
231
1.17
165
NOSS_ROBtwo views4.59
242
1.38
248
0.84
131
1.18
221
1.29
223
1.18
221
0.68
170
2.34
269
1.43
225
4.86
302
6.67
280
6.78
291
1.06
218
10.45
312
17.10
212
14.19
298
1.64
225
1.16
231
3.03
163
1.02
181
14.13
305
17.92
284
0.82
220
1.66
248
1.27
194
4.91
282
3.40
248
1.44
187
SAMSARAtwo views4.67
243
1.33
241
1.79
255
1.51
247
1.56
245
1.58
248
3.79
266
2.22
261
1.93
258
2.38
242
3.37
238
2.12
218
9.35
282
2.02
277
37.97
249
5.46
235
2.03
245
1.62
267
4.95
211
2.84
269
6.73
205
6.13
137
1.00
244
2.01
263
4.21
289
6.28
293
4.36
269
5.44
270
AIO-Stereo-zeroshotpermissivetwo views4.68
244
1.27
234
2.35
281
1.21
229
1.52
239
1.82
258
1.18
214
2.02
246
7.37
309
3.67
282
7.12
296
2.40
237
1.99
241
0.42
102
5.56
143
11.42
280
1.54
223
1.15
228
6.68
247
6.15
302
8.32
239
17.95
285
0.64
165
1.37
239
1.74
251
7.67
299
16.62
318
5.12
267
ITSA-stereotwo views4.84
245
1.28
236
1.23
218
1.66
253
1.71
251
1.05
212
4.19
271
2.00
244
1.47
231
3.70
283
6.77
282
2.20
222
1.42
232
1.36
263
17.32
213
6.64
256
2.71
263
1.88
279
6.39
238
4.78
290
7.50
219
10.94
190
1.25
258
2.52
285
1.54
237
4.85
281
23.59
322
8.62
283
ADCReftwo views4.89
246
1.42
249
1.03
178
0.78
169
1.79
255
1.25
233
1.80
233
1.00
118
5.53
303
1.84
214
1.05
173
1.16
167
0.93
202
1.23
259
53.67
322
2.00
140
1.15
186
1.05
211
3.90
196
1.36
210
2.10
139
4.11
84
2.09
279
1.09
220
2.26
268
4.58
277
2.46
194
29.47
320
FC-DCNN v2copylefttwo views4.90
247
1.67
264
4.09
307
2.95
284
2.41
274
4.23
290
10.50
302
3.34
288
2.69
276
2.88
256
1.36
196
4.20
268
2.16
244
0.70
204
7.18
153
2.02
143
1.35
208
1.03
204
9.59
275
0.98
175
9.12
255
16.72
265
0.86
230
1.79
251
5.94
296
3.28
270
12.65
309
16.55
302
MADNet+two views4.92
248
2.05
277
1.88
260
2.10
266
2.41
274
1.62
251
5.57
278
2.53
275
2.09
262
2.66
252
2.11
222
4.11
264
2.91
259
2.54
280
41.01
266
5.19
230
4.09
274
1.69
269
4.60
207
3.68
285
13.15
294
7.71
153
1.76
275
3.65
314
3.07
280
2.16
248
3.24
243
3.28
250
MFN_U_SF_RVCtwo views5.03
249
1.91
273
1.84
257
2.23
271
1.92
266
2.67
273
6.14
280
2.41
270
1.98
261
4.44
295
10.81
316
4.14
266
2.48
249
4.92
300
32.71
240
3.59
201
2.29
255
1.81
276
11.46
282
3.54
281
7.96
232
7.26
151
1.24
257
3.78
316
1.85
255
3.74
275
2.83
223
3.90
258
SGM-Foresttwo views5.08
250
1.24
228
0.79
121
2.11
267
1.57
246
1.42
241
0.58
156
1.40
178
0.90
182
4.89
304
0.91
157
2.72
245
12.97
297
0.64
188
17.84
216
3.50
195
0.87
119
0.68
93
9.60
276
0.82
150
7.51
220
17.96
286
0.87
235
1.09
220
1.69
248
1.75
218
5.90
281
34.83
325
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCP+two views5.11
251
1.52
257
1.70
253
1.08
210
1.55
242
1.22
229
2.28
244
1.03
121
2.69
276
3.96
288
2.19
225
2.25
226
0.63
129
0.98
239
54.20
324
1.53
95
0.87
119
0.96
184
4.27
203
0.95
169
2.45
146
3.80
78
0.74
202
0.80
167
2.41
273
11.13
305
7.77
296
23.00
310
MSC_U_SF_DS_RVCtwo views5.15
252
2.25
283
1.46
241
2.42
273
2.07
271
2.04
263
5.18
275
1.97
238
2.61
272
2.96
260
1.93
213
3.79
257
10.20
285
10.36
311
27.56
232
3.55
199
3.01
265
1.99
284
14.19
285
3.59
282
7.40
217
9.91
173
2.85
289
1.93
259
2.42
275
2.82
261
2.19
159
6.53
279
S-Stereotwo views5.20
253
1.19
219
1.90
262
1.82
255
1.73
253
1.68
252
2.29
246
2.74
283
2.14
264
3.32
270
13.02
317
5.98
284
1.85
239
0.89
228
28.39
235
16.06
311
1.91
238
2.35
296
5.62
225
9.27
319
7.51
220
15.02
245
1.62
272
2.70
293
1.33
204
2.06
246
2.88
225
3.20
247
FBW_ROBtwo views5.25
254
2.41
284
2.49
284
2.72
277
2.98
291
2.61
272
6.30
282
1.78
224
1.10
205
2.52
246
2.82
229
4.91
277
8.67
279
6.67
305
49.93
300
1.28
63
1.82
236
0.97
187
9.21
271
1.68
230
9.07
253
5.89
132
4.29
297
1.84
254
1.48
229
1.92
234
1.81
129
2.56
232
EAI-Stereotwo views5.34
255
1.04
205
2.30
279
1.02
204
1.55
242
0.85
186
1.91
238
2.21
260
2.99
281
0.81
118
6.93
292
1.39
186
0.83
186
0.54
156
26.39
230
49.22
334
1.18
189
1.17
233
7.74
266
1.54
223
8.92
252
12.00
212
0.78
210
2.02
264
1.46
223
2.24
252
3.36
247
1.89
209
iRaft-Stereo_20wtwo views5.41
256
1.35
244
2.82
293
2.69
275
1.55
242
1.58
248
1.23
221
1.96
236
3.24
287
5.53
322
7.00
294
1.55
200
1.33
229
0.55
159
6.14
146
9.93
270
1.65
228
0.87
160
6.14
233
5.54
297
8.40
243
20.46
300
0.73
196
0.87
185
1.71
249
34.19
328
11.64
305
5.53
273
ccs_robtwo views5.44
257
1.11
215
1.53
244
1.20
227
0.97
197
1.19
224
1.07
203
2.86
284
1.25
216
4.19
290
35.07
327
8.65
302
1.42
232
0.76
212
35.68
245
6.12
245
1.64
225
1.17
233
5.87
230
1.60
226
10.36
267
12.86
224
0.76
207
2.22
273
1.10
169
1.34
181
2.64
215
2.22
226
CBMVpermissivetwo views5.62
258
1.43
251
1.24
222
1.61
251
1.61
247
1.96
259
2.28
244
3.43
289
1.48
232
3.08
264
6.42
276
7.79
295
9.12
280
0.62
180
17.34
214
13.54
293
2.64
260
1.27
250
9.58
273
1.19
194
10.31
265
16.88
271
0.86
230
2.04
268
1.64
243
1.86
229
4.52
270
26.08
315
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
model_zeroshottwo views5.64
259
0.77
93
1.32
231
1.93
260
0.99
198
0.64
149
0.62
160
1.94
233
0.65
151
3.86
286
6.90
290
1.45
190
0.65
136
0.66
195
15.20
201
14.91
305
1.28
200
1.06
214
7.09
261
1.05
182
13.05
293
25.85
314
0.63
161
0.75
154
39.07
333
1.65
211
2.16
156
6.16
277
ADCLtwo views5.74
260
1.87
271
1.62
250
1.28
231
1.42
235
1.61
250
2.34
249
1.29
157
5.06
301
3.00
262
1.99
220
1.30
180
0.87
194
1.13
252
49.88
299
1.73
123
1.64
225
1.77
273
3.04
164
1.41
213
3.47
158
3.84
80
1.23
254
1.32
236
9.34
309
11.37
306
11.30
304
28.87
319
ADCMidtwo views5.86
261
2.21
281
2.60
286
1.42
242
2.94
290
2.42
270
4.52
272
1.96
236
2.94
280
1.88
217
3.14
234
2.67
243
2.81
257
1.59
268
50.47
304
3.62
204
2.00
243
1.84
278
7.49
263
2.45
261
5.56
191
8.48
163
2.66
282
1.57
244
2.29
270
8.47
301
7.21
292
20.87
308
AnyNet_C32two views6.19
262
1.45
254
1.40
234
1.28
231
1.69
250
1.43
242
3.69
265
1.56
201
5.23
302
2.63
250
4.52
253
2.23
224
1.34
230
1.41
266
54.68
325
3.51
196
2.24
254
2.06
288
3.81
194
1.98
247
7.39
216
11.40
202
1.23
254
1.87
256
5.90
295
14.50
309
6.04
284
20.74
307
DPSNettwo views6.19
262
1.58
260
1.40
234
1.82
255
2.77
284
2.27
267
2.04
241
1.97
238
2.91
279
2.12
233
5.08
259
10.47
313
6.82
277
8.77
308
19.95
223
11.92
289
5.92
283
3.73
315
17.76
291
9.60
321
12.18
280
17.85
282
3.88
295
3.21
309
2.31
271
3.71
274
2.62
212
2.45
230
DDVStwo views6.28
264
1.19
219
1.34
232
1.13
214
1.54
241
1.21
227
1.06
200
2.48
272
1.74
248
3.43
271
79.09
335
6.13
285
1.94
240
1.15
256
10.44
179
6.06
244
2.12
250
1.31
253
5.58
224
4.97
294
9.98
263
13.68
236
0.82
220
1.24
232
1.22
190
1.52
201
4.65
271
2.63
233
G-Nettwo views6.30
265
1.67
264
1.86
258
1.46
246
1.83
258
1.49
246
1.31
223
4.92
309
8.45
312
3.15
265
4.65
254
7.94
296
6.81
276
0.87
226
16.87
210
7.83
263
1.93
240
2.71
305
5.65
226
6.44
305
9.07
253
11.41
203
1.44
265
2.80
301
1.78
253
18.73
316
6.49
288
30.54
321
otakutwo views6.32
266
5.21
309
2.43
283
18.55
314
3.05
293
6.58
306
5.21
276
1.43
182
1.44
226
1.31
182
1.39
199
3.94
261
2.76
252
3.25
289
26.81
231
1.43
78
10.64
299
1.19
238
20.32
297
1.71
232
13.88
303
11.69
206
11.83
327
2.03
265
1.64
243
2.05
244
2.52
201
6.37
278
SANettwo views6.32
266
2.20
280
1.79
255
2.07
265
2.63
280
3.36
281
10.20
299
4.41
307
7.43
310
2.04
226
4.35
250
8.33
299
12.55
295
1.80
274
47.09
287
1.72
120
6.07
284
1.51
261
4.45
204
1.81
237
9.80
260
10.36
179
1.21
253
2.72
297
2.04
264
5.93
292
3.67
257
9.02
284
RainbowNettwo views6.38
268
3.77
301
2.95
296
4.59
294
3.15
296
4.28
291
10.99
309
2.04
250
1.97
260
1.89
220
1.11
178
3.92
260
3.08
262
3.63
294
42.37
272
1.96
138
4.60
276
1.56
264
16.57
290
8.71
315
11.66
278
11.28
201
10.57
322
2.32
275
2.23
267
2.29
254
2.78
221
6.05
276
pmcnntwo views6.42
269
1.56
259
1.60
249
2.69
275
3.39
297
2.12
264
10.59
305
2.67
281
2.61
272
2.54
247
6.38
275
6.37
286
16.22
309
0.89
228
16.23
206
14.56
301
4.57
275
3.30
313
7.74
266
7.59
307
13.62
302
22.89
306
6.22
307
2.53
286
1.86
256
3.14
267
4.68
272
4.77
261
HBP-ISPtwo views6.55
270
1.35
244
2.23
273
1.99
261
1.62
248
1.78
255
0.81
182
2.50
273
1.26
217
4.90
305
6.79
283
1.42
189
0.75
160
14.52
318
52.81
319
19.38
320
1.33
205
1.14
227
6.08
232
7.98
310
12.72
284
19.17
294
0.83
224
1.51
243
2.15
266
2.05
244
3.91
268
3.74
255
edge stereotwo views6.57
271
1.88
272
3.13
299
2.21
270
1.87
263
2.69
275
3.15
260
4.49
308
3.41
289
3.95
287
4.81
255
6.45
287
20.30
313
1.11
249
18.59
218
14.65
303
2.02
244
1.64
268
36.45
309
6.00
301
7.11
212
13.70
238
1.44
265
2.08
269
2.35
272
2.08
247
3.74
258
5.94
275
SQANettwo views6.61
272
4.52
308
2.25
276
19.46
315
2.80
285
5.78
301
5.10
273
1.62
207
1.42
224
1.20
169
1.35
194
3.49
254
2.47
248
2.79
283
39.69
255
1.32
68
10.61
297
1.08
218
20.69
299
1.49
221
12.87
286
10.98
191
11.36
325
1.61
246
1.68
247
2.30
255
2.67
218
5.76
274
SPS-STEREOcopylefttwo views6.95
273
1.75
268
1.96
266
2.47
274
1.71
251
2.67
273
7.51
286
2.73
282
1.77
251
3.62
278
6.80
285
4.88
276
2.19
245
1.30
261
41.49
267
11.88
288
3.62
271
2.04
285
36.63
311
2.04
250
14.17
306
17.87
283
1.48
269
2.69
292
2.50
276
3.26
269
3.74
258
2.81
237
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ADCStwo views7.02
274
1.96
276
1.96
266
1.45
245
2.34
272
1.96
259
3.44
262
2.25
263
3.95
294
2.64
251
3.13
233
3.52
255
17.50
311
2.18
278
52.87
320
11.38
278
3.10
267
2.55
304
5.10
213
2.56
263
10.82
272
10.12
175
1.74
274
2.12
270
2.53
277
10.38
304
7.40
293
18.54
305
ADCPNettwo views7.22
275
1.20
223
3.00
298
1.33
234
3.12
295
1.46
244
9.28
296
2.20
258
3.19
285
4.19
290
7.62
302
2.54
239
15.76
307
1.74
273
49.34
296
3.53
198
2.22
253
1.25
248
19.78
295
3.05
275
6.47
202
6.78
145
4.59
298
1.45
241
3.90
287
5.06
286
3.90
267
26.91
316
ACVNet_1two views7.23
276
3.88
303
3.60
303
16.55
311
3.61
303
6.82
308
10.77
306
1.61
206
1.77
251
1.62
200
1.34
193
4.64
272
3.07
261
7.87
306
46.54
284
1.46
83
11.70
305
1.77
273
20.85
300
1.62
228
14.44
317
9.86
171
7.17
309
2.93
304
1.84
254
2.33
256
2.75
220
2.71
235
TRStereotwo views7.27
277
1.32
239
1.93
263
0.85
184
0.64
142
2.31
268
0.87
187
2.20
258
0.84
175
4.40
294
1.76
206
2.27
234
0.75
160
0.53
149
9.78
170
18.00
316
0.89
125
0.90
173
5.70
228
1.69
231
7.47
218
17.27
278
0.63
161
0.64
127
1.43
219
106.42
339
3.23
241
1.61
197
Ntrotwo views7.30
278
6.21
313
2.53
285
8.29
304
3.01
292
5.20
298
8.21
291
1.40
178
1.51
236
1.44
191
1.19
185
3.90
258
2.78
254
3.15
288
35.64
244
1.27
61
10.61
297
1.27
250
45.74
319
1.93
243
14.28
313
11.91
211
11.38
326
2.65
291
1.73
250
2.28
253
2.54
205
4.94
264
anonymitytwo views7.31
279
0.90
148
1.71
254
1.15
218
0.92
187
0.82
183
0.78
179
2.16
255
1.73
247
3.78
285
97.18
336
1.99
216
0.92
200
0.53
149
9.97
172
7.82
262
1.13
183
0.89
168
6.68
247
1.45
217
7.79
226
18.56
290
0.75
205
0.77
159
1.50
231
1.58
207
21.11
321
2.77
236
CBMV_ROBtwo views7.32
280
1.49
256
2.01
269
2.37
272
1.95
267
2.94
277
2.85
258
6.45
314
1.67
244
5.35
319
6.91
291
9.95
309
11.78
292
0.67
199
38.78
250
6.71
257
3.91
272
1.19
238
10.02
278
2.47
262
9.67
259
17.08
273
0.81
216
1.62
247
7.83
304
10.07
303
5.85
279
25.35
314
AnyNet_C01two views7.46
281
2.22
282
2.25
276
2.99
286
1.99
269
1.80
257
6.11
279
3.82
301
5.59
304
3.15
265
4.35
250
4.84
275
6.54
275
2.23
279
58.48
326
14.06
297
6.69
287
3.67
314
4.82
210
3.18
278
8.68
251
13.81
240
2.41
280
2.39
280
5.67
293
3.29
271
8.76
299
17.77
304
WAO-6two views7.60
282
2.96
289
2.69
288
8.39
306
2.91
289
4.09
288
9.80
297
3.51
294
3.29
288
1.83
213
2.44
227
6.58
288
10.28
288
3.07
285
50.48
305
2.35
162
13.45
315
1.89
281
9.14
270
2.24
259
14.27
310
12.25
215
3.34
292
2.73
298
7.78
303
7.61
298
4.78
276
11.18
293
ACVNet_2two views7.60
282
3.56
295
2.92
295
21.71
319
3.45
301
5.03
297
10.20
299
1.84
227
1.75
249
1.88
217
1.90
212
4.13
265
3.42
266
3.13
287
48.14
291
1.55
103
12.78
311
1.59
265
33.01
307
1.79
236
11.17
275
7.89
155
6.76
308
2.80
301
3.11
282
2.99
265
3.50
252
3.10
244
IMH-64-1two views7.69
284
3.33
291
3.54
300
4.78
295
3.41
298
4.66
293
7.94
287
3.50
292
3.08
282
1.39
188
1.97
216
5.46
280
11.00
289
5.06
301
51.74
310
4.54
221
6.41
285
2.30
292
19.20
293
2.05
251
8.35
240
10.70
184
7.76
316
2.38
277
6.01
297
4.61
278
13.27
312
9.08
285
IMH-64two views7.69
284
3.33
291
3.54
300
4.78
295
3.41
298
4.66
293
7.94
287
3.50
292
3.08
282
1.39
188
1.97
216
5.46
280
11.00
289
5.06
301
51.74
310
4.54
221
6.41
285
2.30
292
19.20
293
2.05
251
8.35
240
10.70
184
7.76
316
2.38
277
6.01
297
4.61
278
13.27
312
9.08
285
Deantwo views7.71
286
3.73
300
2.70
289
34.51
324
4.04
308
5.77
300
11.08
310
2.27
265
2.38
270
2.20
234
1.67
203
5.02
278
5.62
272
3.37
290
48.84
294
1.81
128
12.14
308
1.69
269
9.97
277
2.18
256
14.18
307
9.87
172
7.32
311
2.79
300
3.52
284
2.90
262
3.53
253
3.17
246
FINETtwo views8.71
287
0.76
89
1.06
182
0.73
156
0.61
127
0.65
151
0.96
194
1.14
132
10.65
317
0.64
66
8.32
308
1.23
171
12.97
297
0.66
195
19.47
220
15.19
309
1.11
177
0.67
91
4.45
204
3.30
279
6.92
209
25.13
312
0.48
80
1.82
252
33.04
326
36.43
332
1.44
91
45.32
335
WAO-7two views9.07
288
3.01
290
5.43
317
29.81
322
2.48
276
4.10
289
9.87
298
2.50
273
4.12
296
4.70
299
7.51
299
8.00
297
14.77
305
1.87
275
40.78
264
2.16
149
12.66
309
2.78
308
45.71
318
2.18
256
10.61
269
10.06
174
1.41
262
2.61
289
3.09
281
4.78
280
2.98
229
5.05
266
MeshStereopermissivetwo views9.32
289
2.66
285
2.34
280
4.20
291
2.89
288
4.28
291
2.45
251
8.29
324
9.16
314
5.14
310
8.46
310
11.16
314
13.23
302
0.85
225
51.81
313
15.66
310
4.76
279
1.82
277
21.81
302
1.92
242
15.41
323
19.79
295
1.07
251
2.40
281
8.53
308
5.45
287
10.67
302
15.48
300
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
IMHtwo views9.35
290
3.37
294
3.55
302
4.56
293
3.42
300
4.71
296
8.11
290
3.47
291
3.11
284
1.42
190
1.87
211
5.75
282
16.21
308
47.47
335
51.66
309
2.73
174
9.15
293
2.36
298
20.87
301
2.09
255
8.20
238
10.33
177
8.06
319
2.34
276
7.63
302
5.85
291
3.76
262
10.29
291
ELAS_RVCcopylefttwo views9.44
291
3.33
291
5.58
318
4.11
290
3.68
304
7.49
312
6.29
281
7.70
320
3.76
291
5.25
315
7.74
304
9.89
305
11.05
291
3.12
286
47.81
290
4.61
224
7.01
288
9.67
324
11.32
280
2.99
274
13.48
298
18.09
288
2.75
285
4.11
317
20.24
318
23.51
318
5.06
277
5.25
268
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MADNet++two views9.58
292
4.14
307
6.28
321
4.33
292
5.76
317
4.05
287
8.92
294
7.11
316
7.31
308
5.28
317
7.81
305
7.63
294
9.16
281
13.24
315
22.87
224
20.42
321
7.52
291
6.31
319
10.37
279
7.95
309
14.23
308
18.70
291
4.07
296
5.38
320
5.79
294
22.37
317
9.94
301
11.72
294
AIO-Stereo-zeroshot1permissivetwo views9.97
293
1.84
270
2.24
274
1.34
235
1.79
255
1.78
255
1.71
232
2.17
256
7.58
311
3.47
273
7.13
297
2.44
238
2.07
243
0.38
78
10.77
182
13.53
292
1.54
223
1.19
238
136.48
334
6.52
306
8.17
237
26.38
318
0.61
152
0.97
211
1.28
195
18.58
314
2.35
180
4.90
263
PWCKtwo views10.29
294
3.91
304
2.77
291
4.89
299
3.54
302
7.32
311
8.68
292
3.93
303
4.63
300
4.65
298
5.75
270
24.50
322
9.85
284
3.38
291
35.70
246
3.25
188
10.92
300
2.38
299
72.59
329
5.10
295
14.78
319
8.07
158
3.71
294
2.51
284
7.91
305
7.44
295
6.33
285
9.46
288
SFCPSMtwo views10.77
295
1.34
243
1.09
190
1.15
218
1.19
217
1.19
224
0.90
190
1.29
157
1.76
250
2.70
253
5.58
268
4.33
269
10.25
287
1.08
248
51.59
308
5.22
231
1.99
241
1.17
233
161.66
337
4.44
287
7.65
223
11.04
194
0.84
225
1.68
249
1.34
206
1.75
218
3.44
249
3.04
242
ELAScopylefttwo views10.84
296
3.56
295
4.96
311
4.79
297
4.42
313
5.56
299
6.51
284
7.57
317
3.94
293
5.28
317
7.73
303
9.90
307
11.95
293
3.98
297
51.90
315
4.58
223
7.45
290
9.46
322
9.29
272
2.75
268
13.28
296
17.44
279
2.75
285
3.75
315
17.66
316
27.22
322
13.08
311
31.86
323
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views11.01
297
9.35
322
6.18
320
8.36
305
7.13
322
10.04
321
10.87
307
5.04
310
4.04
295
2.99
261
3.99
245
9.99
310
9.75
283
8.16
307
48.50
292
14.21
299
7.41
289
5.05
318
7.73
265
3.91
286
13.36
297
18.71
292
8.17
320
3.64
313
11.32
311
18.46
313
12.54
308
28.46
318
SGM_RVCbinarytwo views11.64
298
2.80
288
1.89
261
2.92
280
2.54
279
4.66
293
8.81
293
7.78
322
3.50
290
5.57
323
8.27
306
9.89
305
12.97
297
0.97
238
4.41
124
2.83
177
7.65
292
1.17
233
40.85
313
6.32
304
10.68
270
24.24
309
1.79
276
3.32
311
27.82
321
35.58
329
31.94
329
43.00
331
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
UNDER WATER-64two views11.94
299
7.33
320
5.26
315
17.03
312
7.50
323
8.66
318
16.40
319
8.75
326
4.42
298
4.46
296
3.23
236
17.69
317
16.25
310
9.32
309
46.44
282
10.50
272
13.88
322
3.04
312
12.89
284
8.65
313
14.27
310
14.74
244
10.97
323
4.47
318
6.36
300
18.61
315
9.42
300
21.90
309
LSM0two views11.96
300
1.70
266
2.88
294
2.75
278
2.51
278
3.46
284
9.27
295
4.20
305
4.16
297
3.65
279
7.52
300
7.40
293
10.23
286
1.32
262
64.87
330
78.56
338
4.73
278
2.33
295
20.33
298
4.80
291
14.31
314
17.05
272
1.30
261
3.15
307
3.41
283
15.40
312
6.33
285
25.24
313
LVEtwo views12.08
301
3.68
298
2.75
290
55.08
333
4.35
312
8.14
315
74.25
336
1.97
238
2.42
271
2.31
239
1.72
205
4.79
273
5.02
271
3.47
293
40.00
259
2.29
157
11.14
301
1.88
279
50.99
324
2.03
249
10.30
264
12.06
214
5.50
299
3.25
310
3.73
286
3.25
268
3.10
235
6.68
281
DGSMNettwo views12.30
302
2.15
278
2.14
270
1.99
261
1.68
249
2.73
276
1.82
234
3.08
287
2.11
263
12.64
329
99.93
337
4.00
263
18.54
312
19.58
325
45.95
280
15.08
306
12.73
310
10.09
325
15.38
288
4.59
289
13.00
291
15.62
251
7.34
312
3.49
312
1.76
252
5.84
290
3.48
251
5.37
269
JetRedtwo views12.58
303
6.94
319
7.73
322
4.83
298
6.78
320
9.44
320
10.92
308
5.31
313
4.60
299
5.84
325
3.34
237
8.16
298
8.25
278
9.89
310
50.58
306
14.44
300
10.47
296
7.92
320
7.78
268
5.56
298
18.07
328
24.74
311
11.23
324
4.59
319
12.62
312
25.80
320
25.52
324
28.19
317
MDST_ROBtwo views12.84
304
32.58
330
1.86
258
20.66
318
2.84
287
7.65
313
3.50
264
4.02
304
1.51
236
3.73
284
6.49
277
3.22
252
42.47
322
0.80
221
50.42
303
2.20
151
1.29
201
0.83
147
18.69
292
1.42
214
12.92
288
18.51
289
1.50
270
1.82
252
24.51
320
15.09
310
31.82
327
34.42
324
XX-Stereotwo views13.13
305
0.72
68
1.28
226
1.04
206
0.54
114
0.81
182
0.87
187
1.13
131
0.51
110
4.52
297
6.79
283
1.56
202
1.04
216
0.49
134
39.98
258
16.92
313
1.52
220
0.95
181
6.78
253
0.95
169
6.18
201
13.69
237
0.71
189
0.52
86
237.32
339
1.37
183
2.63
214
3.58
251
TorneroNet-64two views13.22
306
6.29
315
5.03
313
34.00
323
3.73
307
10.39
322
16.61
320
3.46
290
12.22
325
2.26
237
5.35
263
17.42
316
34.25
320
14.90
319
47.42
289
3.17
182
13.22
314
2.42
301
36.46
310
9.14
318
14.27
310
12.82
223
5.64
300
2.71
294
14.05
315
13.61
307
3.58
255
12.45
295
notakertwo views13.32
307
13.02
325
4.84
308
18.53
313
6.99
321
8.41
317
14.34
316
3.85
302
3.23
286
2.91
258
2.14
224
31.16
324
43.76
323
4.86
299
85.76
334
2.65
172
12.81
312
2.79
309
43.18
316
2.96
273
14.95
320
11.46
204
7.77
318
3.13
306
2.66
278
2.97
264
3.75
260
4.87
262
ACV-stereotwo views13.53
308
1.95
274
1.64
252
2.13
268
1.16
214
3.41
282
1.39
225
1.71
217
1.85
257
2.95
259
4.86
257
3.99
262
45.11
324
1.12
250
53.60
321
16.55
312
2.70
262
1.30
252
170.74
338
4.49
288
12.74
285
16.57
262
1.00
244
1.87
256
1.39
215
3.04
266
3.75
260
2.35
228
SGM-ForestMtwo views13.80
309
10.32
324
8.18
323
4.90
300
3.69
305
7.87
314
10.55
304
7.61
318
10.68
318
5.09
309
8.30
307
9.49
304
12.89
296
4.42
298
49.85
298
13.64
296
10.21
295
1.16
231
11.67
283
8.91
316
11.41
276
24.59
310
3.28
290
5.76
322
31.49
324
36.13
330
19.13
319
41.30
330
WAO-8two views14.11
310
5.49
310
4.86
309
26.82
320
4.15
310
6.96
309
11.78
313
3.65
299
6.35
306
31.53
334
38.68
329
8.33
299
22.49
314
20.27
328
50.28
301
3.34
190
11.20
303
2.04
285
55.23
326
5.70
299
9.91
261
11.24
199
5.91
302
2.59
287
8.00
306
7.57
296
6.79
289
9.89
289
Venustwo views14.11
310
5.49
310
4.86
309
26.82
320
4.15
310
6.96
309
11.78
313
3.65
299
6.35
306
31.53
334
38.68
329
8.33
299
22.49
314
20.27
328
50.28
301
3.34
190
11.20
303
2.04
285
55.23
326
5.70
299
9.91
261
11.24
199
5.91
302
2.59
287
8.00
306
7.57
296
6.79
289
9.89
289
SGM+DAISYtwo views15.03
312
3.86
302
5.41
316
3.96
289
3.71
306
6.66
307
7.44
285
7.77
321
10.90
322
5.69
324
8.99
314
9.93
308
13.12
301
3.67
295
45.62
279
18.93
319
4.69
277
3.97
317
15.74
289
13.34
324
15.06
321
28.38
324
1.46
267
13.52
329
34.47
328
36.45
333
37.75
332
45.36
336
ACVNet-4btwo views15.72
313
4.04
305
2.68
287
44.32
329
2.83
286
6.13
304
62.22
333
1.84
227
1.78
253
1.65
204
1.24
186
4.40
271
112.58
337
3.38
291
47.32
288
1.32
68
16.00
324
1.73
272
55.10
325
2.19
258
14.48
318
16.37
261
7.30
310
3.18
308
1.64
243
1.88
230
2.20
160
4.57
260
MANEtwo views15.81
314
9.88
323
8.25
324
5.12
303
6.22
319
8.39
316
11.49
312
7.67
319
10.83
321
4.97
306
8.34
309
8.98
303
12.97
297
3.88
296
48.84
294
18.39
317
11.83
306
20.15
330
11.32
280
9.38
320
13.48
298
26.38
318
2.78
288
12.22
326
32.08
325
36.35
331
33.31
330
43.41
332
DispFullNettwo views16.30
315
3.61
297
4.99
312
3.31
287
3.08
294
3.50
285
3.23
261
6.46
315
2.69
276
5.18
311
6.80
285
88.00
334
15.13
306
2.74
281
39.32
253
24.41
327
4.06
273
3.86
316
139.45
335
28.19
330
12.57
282
15.74
253
2.71
284
2.38
277
4.19
288
2.67
258
6.81
291
5.03
265
UNDER WATERtwo views16.74
316
8.01
321
5.18
314
15.67
310
9.29
326
8.94
319
36.85
328
8.38
325
6.23
305
4.21
293
3.00
231
18.64
318
96.12
335
15.60
322
37.14
247
10.17
271
14.68
323
2.79
309
47.09
321
8.60
311
17.12
326
13.21
228
17.04
330
5.56
321
6.15
299
15.22
311
6.39
287
14.80
299
PSMNet_ROBtwo views17.18
317
5.57
312
2.98
297
3.51
288
2.73
283
6.41
305
10.28
301
2.31
268
2.27
269
4.77
300
140.21
338
98.21
335
6.08
273
34.53
331
10.47
180
1.72
120
5.37
281
1.72
271
20.16
296
3.45
280
13.00
291
8.00
156
63.38
338
2.71
294
3.54
285
3.57
273
3.25
244
3.61
252
STStereotwo views17.90
318
3.70
299
5.94
319
43.89
328
5.62
316
39.01
331
13.50
315
7.84
323
10.79
320
5.25
315
8.94
311
24.58
323
30.28
319
1.98
276
59.79
329
13.60
295
5.75
282
1.79
275
40.86
314
5.29
296
11.04
274
15.34
249
2.47
281
11.83
325
23.98
319
30.27
324
23.75
323
36.15
326
DGTPSM_ROBtwo views18.53
319
6.49
316
18.04
327
4.98
301
8.90
324
5.93
302
18.56
322
5.08
311
12.04
323
5.07
308
9.28
315
12.68
315
55.86
330
15.28
320
66.30
331
20.57
322
19.32
327
16.27
327
24.75
303
20.04
327
16.70
325
22.25
304
6.01
305
12.63
327
13.88
313
32.46
326
14.80
315
36.23
327
DPSM_ROBtwo views21.09
320
17.18
326
22.68
329
10.13
307
9.29
326
13.96
323
14.47
317
11.66
327
15.25
327
9.00
326
8.97
312
10.35
311
13.24
303
19.82
326
59.61
327
26.09
328
18.75
325
21.25
331
14.76
286
15.47
325
28.53
331
28.20
321
7.44
313
16.13
330
34.47
328
39.29
335
38.28
333
45.08
333
DPSMtwo views21.09
320
17.18
326
22.68
329
10.13
307
9.29
326
13.96
323
14.47
317
11.66
327
15.25
327
9.00
326
8.97
312
10.35
311
13.24
303
19.82
326
59.61
327
26.09
328
18.75
325
21.25
331
14.76
286
15.47
325
28.53
331
28.20
321
7.44
313
16.13
330
34.47
328
39.29
335
38.28
333
45.08
333
KSHMRtwo views21.80
322
6.71
318
4.04
305
99.23
337
6.14
318
41.63
333
70.49
335
3.63
298
8.86
313
3.60
277
3.42
239
6.78
291
84.46
334
17.61
323
40.67
261
3.96
210
10.14
294
2.82
311
90.71
332
2.91
271
12.90
287
12.31
216
9.04
321
2.84
303
19.52
317
5.56
288
8.25
297
10.42
292
MaskLacGwcNet_RVCtwo views22.39
323
1.43
251
1.63
251
2.01
263
1.89
264
2.00
261
4.03
269
2.25
263
2.65
274
5.01
307
28.79
325
216.21
340
50.44
329
5.46
303
37.62
248
4.30
217
5.35
280
12.78
326
28.48
304
1.49
221
14.42
316
12.87
225
1.01
246
2.45
283
1.87
257
7.04
294
145.49
340
5.50
272
DLNR_Zeroshot_testpermissivetwo views24.07
324
81.88
339
1.95
265
101.60
338
0.50
98
0.56
118
81.29
338
2.29
267
0.50
106
4.86
302
2.13
223
3.03
250
0.93
202
12.16
314
103.32
336
142.13
340
34.14
331
19.58
329
8.61
269
4.90
293
8.02
235
28.05
320
0.55
118
0.85
183
1.36
211
1.54
203
1.21
77
1.87
207
DPSMNet_ROBtwo views24.31
325
6.50
317
18.05
328
5.02
302
8.92
325
6.00
303
18.76
323
5.09
312
12.07
324
5.20
314
26.86
324
20.02
319
160.56
339
15.40
321
77.59
333
20.75
323
19.63
328
16.57
328
37.30
312
20.17
328
17.40
327
22.27
305
6.03
306
12.63
327
13.98
314
32.46
326
14.87
316
36.24
328
TorneroNettwo views25.03
326
6.23
314
3.71
304
95.21
336
4.04
308
30.59
329
28.04
324
4.36
306
17.91
329
2.20
234
37.98
328
81.16
333
72.52
331
18.24
324
46.94
286
2.75
175
13.19
313
2.38
299
87.74
330
9.05
317
15.54
324
12.50
220
5.92
304
2.71
294
49.11
334
8.21
300
3.60
256
13.88
298
zero-FEtwo views26.91
327
1.70
266
0.58
88
142.42
339
9.85
329
147.98
339
78.07
337
1.26
151
0.63
143
1.14
168
3.84
243
136.40
337
24.38
316
0.66
195
34.38
241
5.45
234
2.13
251
2.31
294
5.81
229
1.20
196
51.50
335
68.36
337
0.63
161
0.61
112
0.94
138
1.51
196
1.68
122
1.13
156
LRCNet_RVCtwo views27.23
328
30.79
329
14.68
326
35.16
326
31.14
333
36.50
330
30.07
327
23.05
331
12.67
326
36.10
336
33.27
326
37.41
325
28.58
318
37.19
332
51.77
312
7.29
261
31.08
330
27.01
334
67.79
328
28.97
331
22.94
330
11.62
205
39.23
333
30.57
334
7.31
301
2.54
257
11.22
303
9.26
287
ktntwo views29.25
329
4.04
305
95.12
339
14.38
309
5.47
315
18.03
325
17.50
321
16.11
330
67.22
338
2.86
255
5.27
260
171.03
339
80.57
333
10.72
313
76.12
332
3.35
192
21.01
329
2.75
307
90.20
331
29.10
332
15.07
322
11.01
192
7.65
315
3.01
305
5.09
291
5.80
289
4.72
273
6.57
280
LE_ROBtwo views30.50
330
24.69
328
35.49
332
34.61
325
56.81
339
18.87
326
58.99
332
31.76
334
41.68
333
5.39
320
26.68
323
46.42
327
49.67
327
13.45
316
40.69
263
4.22
213
12.06
307
1.23
242
46.44
320
37.28
335
12.68
283
19.06
293
48.23
334
22.44
332
30.42
323
31.57
325
31.85
328
40.86
329
PMLtwo views39.12
331
38.07
333
12.03
325
39.14
327
28.99
332
40.52
332
11.18
311
14.17
329
98.92
339
27.80
333
165.99
339
107.70
336
159.11
338
13.58
317
17.37
215
11.85
287
35.22
332
8.64
321
42.84
315
11.21
323
14.35
315
16.59
263
5.89
301
7.24
324
52.84
335
13.89
308
42.19
335
18.91
306
FlowAnythingtwo views42.87
332
34.63
332
45.87
334
20.47
317
18.89
331
28.10
328
28.59
325
23.29
333
30.83
331
18.75
332
18.33
319
20.84
321
26.99
317
39.76
333
119.32
337
51.72
335
37.34
333
42.61
336
29.10
305
31.48
334
57.33
338
70.32
338
14.52
328
32.62
336
68.87
337
78.91
337
76.96
336
91.15
339
CasAABBNettwo views43.13
333
34.58
331
45.64
333
20.16
316
18.53
330
28.05
327
29.10
326
23.25
332
30.68
330
18.72
331
18.11
318
20.71
320
37.91
321
39.77
334
120.31
338
53.12
337
37.70
334
42.54
335
29.33
306
30.54
333
57.52
339
65.08
336
14.60
329
32.33
335
69.15
338
79.07
338
76.98
337
90.93
338
HaxPigtwo views44.55
334
46.74
335
47.29
335
47.70
330
48.78
335
47.59
334
48.40
329
49.50
335
47.10
334
49.76
337
50.30
331
49.05
328
45.31
325
54.53
336
41.50
268
40.24
331
50.13
336
52.04
337
44.70
317
43.04
336
46.59
333
44.52
331
51.78
335
45.41
337
33.76
327
25.29
319
28.70
325
23.20
311
AVERAGE_ROBtwo views46.10
335
48.44
336
48.15
336
49.32
331
50.20
336
48.59
335
49.79
330
50.71
337
48.61
335
51.66
338
52.51
332
50.25
329
47.27
326
55.77
337
43.02
273
41.01
332
52.37
337
54.54
338
47.19
322
45.40
337
48.69
334
44.71
332
52.87
336
46.96
338
35.70
331
26.55
321
30.75
326
23.74
312
HanzoNettwo views48.72
336
45.82
334
75.50
338
62.48
334
48.71
334
62.22
337
81.53
339
55.12
339
62.18
337
15.62
330
22.35
322
75.50
332
105.13
336
172.23
340
54.19
323
11.79
284
63.30
339
9.59
323
142.68
336
22.42
329
19.77
329
25.86
315
34.29
332
5.85
323
9.77
310
9.44
302
8.54
298
13.60
297
MEDIAN_ROBtwo views49.56
337
51.56
337
50.68
337
52.75
332
53.71
337
52.03
336
53.33
331
54.25
338
52.17
336
54.87
339
55.86
334
53.55
330
50.14
328
59.05
338
46.45
283
44.58
333
55.75
338
57.86
339
50.47
323
48.81
338
52.02
336
47.66
333
56.65
337
49.99
339
38.96
332
30.09
323
33.54
331
31.34
322
BEATNet-Init1two views54.98
338
76.29
338
23.41
331
86.88
335
56.39
338
86.85
338
69.29
334
49.55
336
36.32
332
11.75
328
54.61
333
64.36
331
78.43
332
21.46
330
91.69
335
51.99
336
38.14
335
22.22
333
101.82
333
73.02
339
54.14
337
49.15
335
27.76
331
24.21
333
58.43
336
37.31
334
77.81
338
61.10
337
STTRV1_RVCtwo views1.35
244
1.13
196
1.70
254
1.33
229
2.15
265
1.82
234
1.56
201
1.45
228
1.88
217
3.47
241
3.12
251
4.87
269
1.12
250
6.48
254
11.18
302
1.07
217
10.39
322
9.37
257
2.21
272
5.53
292
2.91
263
5.85
279
13.08
296
DPSimNet_ROBtwo views193.45
340
99.23
340
195.37
340
175.02
340
155.06
340
112.88
340
167.32
340
164.47
340
99.95
340
205.57
340
169.31
338
207.38
340
93.94
339
127.45
339
85.03
339
87.66
340
201.24
339
103.73
340
162.25
340
98.87
339
105.97
339
134.73
340
183.74
340
136.27
339
168.25
340