This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.28
1
0.38
16
0.20
9
0.18
11
0.14
7
0.35
35
0.10
9
0.38
18
0.16
11
0.20
8
0.08
3
0.30
8
0.14
3
0.09
1
0.53
1
0.67
3
0.44
10
0.24
1
0.40
7
0.20
1
0.42
7
0.29
1
0.11
1
0.14
2
0.45
20
0.25
8
0.39
4
0.24
8
Pointernettwo views0.28
1
0.22
4
0.15
2
0.14
7
0.12
3
0.19
10
0.16
25
0.28
8
0.11
1
0.17
6
0.16
8
0.23
2
0.15
6
0.17
9
0.82
4
0.55
1
0.40
5
0.24
1
0.35
2
0.21
3
0.37
4
0.78
7
0.15
4
0.17
9
0.26
3
0.20
1
0.68
21
0.22
5
CroCo-Stereo Lap2two views0.35
3
0.23
6
0.15
2
0.11
2
0.12
3
0.16
2
0.08
4
0.35
15
0.15
8
0.47
30
0.10
4
0.33
9
0.15
6
0.16
6
1.27
12
1.03
25
0.37
3
0.37
11
0.46
14
0.22
5
0.60
21
0.93
11
0.17
7
0.14
2
0.40
15
0.34
25
0.41
6
0.27
15
StereoVisiontwo views0.36
4
0.28
7
0.22
12
0.13
6
0.18
17
0.21
14
0.14
21
0.30
10
0.23
23
0.35
21
0.18
9
0.35
12
0.17
14
0.17
9
1.03
9
0.80
11
0.47
15
0.36
10
0.44
10
0.23
6
0.47
10
0.59
5
0.16
5
0.22
22
0.41
17
0.40
32
0.72
23
0.36
26
CroCo-Stereocopylefttwo views0.36
4
0.21
3
0.15
2
0.11
2
0.10
1
0.19
10
0.06
1
0.33
12
0.14
4
0.31
16
0.05
1
0.37
15
0.14
3
0.18
13
1.64
22
1.08
30
0.38
4
0.38
12
0.52
16
0.21
3
0.65
26
0.90
10
0.17
7
0.15
4
0.39
13
0.31
19
0.45
7
0.26
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MM-Stereo_test3two views0.37
6
0.36
14
0.15
2
0.25
16
0.15
11
0.15
1
0.08
4
0.48
24
0.18
19
0.26
12
0.10
4
0.41
22
0.12
1
0.12
2
0.95
8
0.72
6
0.45
11
0.28
5
0.37
6
0.36
12
0.36
3
1.78
37
0.27
16
0.13
1
0.32
6
0.20
1
0.80
31
0.23
6
ProNettwo views0.42
7
0.28
7
0.34
26
0.26
17
0.15
11
0.28
23
0.40
95
0.38
18
0.13
3
0.16
3
0.52
56
0.29
6
0.14
3
0.20
18
1.47
13
1.03
25
0.47
15
0.35
9
0.36
4
0.31
8
0.41
6
1.45
30
0.43
42
0.31
28
0.36
9
0.20
1
0.40
5
0.26
13
Utwo views0.43
8
0.29
9
0.17
8
0.11
2
0.14
7
0.16
2
0.07
2
0.45
23
0.15
8
0.49
32
0.07
2
0.39
17
0.17
14
0.24
24
1.72
25
1.23
52
0.49
20
0.43
21
0.62
24
0.34
10
0.68
29
1.02
14
0.18
10
0.19
15
0.55
36
0.36
29
0.50
8
0.34
24
RAStereotwo views0.49
9
0.38
16
0.20
9
0.16
9
0.16
14
0.19
10
0.11
11
0.44
21
0.18
19
0.98
133
0.12
6
0.46
27
0.19
16
0.16
6
1.87
31
1.13
37
0.53
24
0.48
27
0.71
30
0.28
7
0.88
41
1.21
20
0.28
19
0.20
17
0.50
28
0.34
25
0.54
9
0.41
29
delettwo views0.53
10
0.58
28
0.49
49
0.36
39
0.50
78
0.51
81
0.31
62
0.50
25
0.30
34
0.56
36
0.44
42
0.47
28
0.36
43
0.48
109
1.21
11
0.72
6
0.58
30
0.48
27
0.47
15
0.42
18
0.61
22
0.70
6
0.41
39
0.47
56
0.52
31
0.36
29
1.09
49
0.51
39
AASNettwo views0.55
11
0.74
59
0.50
51
0.35
35
0.61
107
0.52
86
0.42
97
0.65
38
0.28
30
0.41
25
0.50
53
0.40
19
0.32
36
0.44
96
1.04
10
0.73
8
0.55
26
0.61
53
0.68
26
0.51
34
0.62
24
0.94
12
0.46
54
0.50
61
0.52
31
0.44
39
0.74
24
0.45
31
AANet_RVCtwo views0.56
12
0.46
22
0.41
36
0.33
31
0.61
107
0.28
23
0.34
79
0.61
32
0.58
107
0.43
27
0.40
39
0.40
19
0.49
68
0.34
44
1.48
14
0.84
15
0.56
28
0.53
34
0.58
23
0.53
39
0.47
10
0.52
4
0.34
25
0.40
39
0.58
46
0.56
51
1.05
44
0.97
108
TDLMtwo views0.57
13
0.62
31
0.66
84
0.43
62
0.58
104
0.49
74
0.51
124
0.72
46
0.45
68
0.33
18
0.80
117
0.83
89
0.46
63
0.46
105
0.67
2
0.67
3
0.59
32
0.55
41
0.52
16
0.51
34
0.51
15
1.17
17
0.44
46
0.41
42
0.42
19
0.35
27
0.64
18
0.70
65
MM-Stereo_test1two views0.60
14
0.69
42
0.16
6
0.23
15
0.14
7
0.16
2
0.07
2
0.37
17
0.14
4
0.27
14
0.12
6
0.43
25
0.12
1
0.14
4
2.25
46
2.24
142
0.49
20
0.34
8
0.43
9
0.37
15
0.37
4
4.78
83
0.27
16
0.15
4
0.35
7
0.23
5
0.65
20
0.24
8
DEFOM-Stereotwo views0.61
15
0.55
25
0.29
21
0.27
18
0.30
32
0.32
29
0.13
19
0.35
15
0.17
14
0.25
11
0.33
32
0.39
17
0.20
19
0.26
27
4.06
103
1.46
80
0.59
32
0.52
32
0.57
21
0.45
23
0.76
32
0.95
13
0.44
46
0.31
28
0.49
25
0.32
22
1.31
65
0.45
31
MaDis-Stereotwo views0.61
15
0.48
23
0.31
22
0.17
10
0.27
29
0.21
14
0.18
29
0.44
21
0.33
39
1.08
144
0.30
26
0.52
29
0.24
26
0.19
16
1.98
33
1.30
62
0.63
42
0.60
49
1.24
58
0.47
28
0.91
48
1.19
19
0.39
35
0.28
26
0.64
54
0.66
69
0.62
16
0.82
83
MMNettwo views0.63
17
0.58
28
0.47
46
0.39
51
0.56
101
0.43
59
0.31
62
0.61
32
0.40
49
0.39
24
0.60
77
0.68
52
0.35
38
0.52
124
1.55
15
0.80
11
0.77
70
0.60
49
0.76
32
0.55
43
0.65
26
0.87
9
0.44
46
0.60
86
0.52
31
0.49
44
1.49
82
0.50
37
UniTT-Stereotwo views0.64
18
0.44
21
0.35
28
0.21
12
0.25
24
0.35
35
0.18
29
0.62
36
0.31
36
0.75
73
0.29
23
0.69
54
0.36
43
0.25
26
1.85
30
1.53
90
0.60
36
0.65
67
1.69
86
0.47
28
1.19
68
1.30
22
0.39
35
0.33
31
0.56
40
0.55
49
0.55
10
0.58
45
RAFTtwo views0.65
19
0.22
4
0.20
9
0.28
19
0.13
6
0.31
28
0.08
4
0.97
90
0.18
19
0.79
92
0.19
12
0.28
5
0.16
10
0.20
18
7.28
138
1.41
72
0.42
7
0.27
3
0.54
19
0.36
12
0.45
9
0.42
2
0.21
12
0.17
9
0.41
17
0.33
23
0.91
35
0.27
15
DMCAtwo views0.68
20
0.72
50
0.65
80
0.40
54
0.49
75
0.54
90
0.34
79
0.59
31
0.55
99
0.79
92
0.64
84
0.73
61
0.41
50
0.47
107
1.60
21
0.99
22
0.76
64
0.68
72
0.68
26
0.52
38
0.71
31
1.17
17
0.51
79
0.57
76
0.50
28
0.55
49
1.06
46
0.62
58
iRaftStereo_RVCtwo views0.69
21
0.56
26
0.45
43
0.29
21
0.31
33
0.34
32
0.20
33
0.68
43
0.26
25
0.46
29
0.56
70
0.60
36
0.30
33
0.29
32
1.71
23
0.98
21
0.60
36
0.47
25
0.75
31
0.45
23
1.03
56
4.25
76
0.38
33
0.42
45
0.49
25
0.41
35
0.78
27
0.48
34
plaintwo views0.75
22
0.88
119
0.39
32
0.33
31
0.61
107
0.35
35
0.30
61
0.89
81
0.35
43
0.72
65
0.24
17
0.73
61
0.35
38
0.21
20
2.10
38
1.66
109
0.73
56
0.72
86
1.01
43
0.43
21
1.85
109
1.92
40
0.36
27
0.39
34
0.72
65
0.61
55
0.75
26
0.74
69
RAFT_CTSACEtwo views0.75
22
0.94
148
0.33
25
0.36
39
0.34
41
0.34
32
0.24
41
1.23
122
0.27
26
0.64
53
0.29
23
0.72
60
0.56
89
0.34
44
2.96
70
1.22
50
0.55
26
0.44
22
0.81
33
0.35
11
0.87
39
2.64
55
0.47
56
0.38
33
0.54
35
0.41
35
1.58
93
0.39
27
HCRNettwo views0.75
22
0.79
86
0.43
41
0.55
93
0.27
29
0.42
58
0.38
91
0.63
37
0.34
41
1.59
175
0.61
78
0.67
50
0.31
35
0.42
83
2.11
39
0.81
13
0.65
43
0.48
27
0.68
26
0.44
22
0.80
37
2.42
50
0.40
37
0.45
51
0.46
22
0.48
42
2.14
129
0.50
37
test_5two views0.76
25
0.91
129
0.32
24
0.39
51
0.26
27
0.36
40
0.19
31
1.79
200
0.33
39
0.60
43
1.97
193
0.76
69
0.75
137
0.33
41
1.58
17
1.23
52
0.57
29
0.55
41
1.09
49
0.40
17
0.64
25
1.83
38
0.31
22
0.46
55
0.47
24
0.40
32
1.72
103
0.44
30
MIF-Stereo (partial)two views0.77
26
0.77
75
0.34
26
0.29
21
0.38
51
0.36
40
0.31
62
0.54
27
0.40
49
0.61
46
0.32
28
0.55
32
0.40
47
0.24
24
2.14
41
1.65
107
0.69
49
0.76
100
0.93
40
0.48
30
1.52
90
1.76
36
0.42
40
0.39
34
0.64
54
0.70
73
2.25
147
0.86
94
UPFNettwo views0.78
27
0.71
44
0.89
116
0.55
93
0.65
124
0.60
116
0.56
128
0.72
46
0.57
104
0.59
42
0.59
75
0.64
44
0.47
65
0.61
151
1.83
29
1.02
24
0.77
70
0.69
80
0.92
38
0.73
101
0.70
30
1.04
15
0.55
97
0.67
113
0.64
54
0.57
53
2.18
134
0.59
51
CVANet_RVCtwo views0.80
28
0.73
57
0.92
128
0.86
162
0.64
121
0.72
145
0.62
138
1.17
112
0.55
99
0.47
30
0.89
132
0.91
103
0.48
66
0.51
122
0.84
5
0.75
10
0.61
38
0.59
47
0.56
20
0.63
65
0.66
28
3.82
68
0.43
42
0.47
56
0.57
42
0.44
39
0.78
27
1.05
125
TestStereotwo views0.82
29
0.94
148
0.85
109
0.56
98
0.47
68
0.68
136
0.35
87
1.21
120
0.42
55
0.90
121
0.65
86
0.88
96
0.55
87
0.39
67
1.59
19
0.96
18
0.77
70
0.54
36
1.41
66
0.57
48
1.30
75
1.32
23
0.48
61
0.49
60
0.79
83
0.81
84
1.39
69
0.79
80
GMStereopermissivetwo views0.82
29
0.99
167
0.40
35
0.49
78
0.48
70
0.56
97
0.46
111
0.79
57
0.47
73
0.55
35
0.47
46
0.84
94
0.41
50
0.37
59
1.71
23
1.08
30
0.77
70
0.54
36
1.93
95
0.59
55
1.20
70
2.06
42
0.45
50
0.57
76
0.77
76
0.67
71
1.86
114
0.57
43
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
AIO-test2two views0.83
31
0.17
1
0.12
1
0.09
1
0.11
2
0.16
2
0.11
11
0.23
4
0.15
8
0.19
7
0.20
14
0.42
24
0.15
6
0.13
3
8.89
146
6.57
232
0.32
1
0.27
3
0.30
1
0.20
1
0.30
1
2.20
47
0.12
2
0.16
7
0.21
1
0.20
1
0.25
1
0.19
2
CFNettwo views0.87
32
0.85
107
0.83
104
0.78
146
0.74
136
0.62
119
0.56
128
0.84
70
0.49
83
0.67
59
0.70
97
0.96
117
0.68
120
0.45
103
2.29
49
0.88
16
0.76
64
0.66
69
0.94
41
0.80
116
1.07
58
1.08
16
0.50
73
0.54
68
0.91
106
1.03
122
1.67
102
1.14
135
HGLStereotwo views0.89
33
0.66
35
0.79
98
0.52
86
0.71
132
0.57
102
0.50
121
0.67
42
0.51
91
1.67
184
0.96
138
0.66
49
0.57
91
0.54
134
1.73
26
1.28
60
0.85
88
0.78
103
1.10
51
0.68
88
1.07
58
2.08
43
0.51
79
0.68
115
0.75
75
0.79
81
1.59
98
0.81
81
RAFT+CT+SAtwo views0.90
34
0.97
157
0.42
40
0.45
72
0.29
31
0.39
48
0.21
34
1.63
186
0.35
43
0.73
69
0.32
28
0.91
103
0.69
123
0.41
73
1.58
17
1.43
75
0.59
32
0.60
49
2.18
101
0.50
32
0.90
43
5.09
91
0.35
26
0.43
46
0.55
36
0.43
38
1.56
88
0.49
35
UNettwo views0.90
34
0.77
75
0.77
95
0.61
108
0.61
107
0.61
118
0.57
133
0.90
82
0.60
113
1.20
148
0.68
89
0.77
72
0.58
95
0.67
174
1.80
28
1.20
48
0.83
87
0.73
89
1.14
54
0.83
130
0.90
43
1.35
24
0.65
145
0.77
134
0.70
63
0.79
81
2.48
171
0.95
106
ddtwo views0.93
36
0.81
92
0.54
60
1.07
185
0.45
65
0.87
165
0.50
121
0.86
73
0.42
55
0.83
103
0.44
42
1.28
154
0.40
47
0.56
141
2.32
50
1.06
28
1.03
139
0.74
94
2.01
98
0.62
63
0.87
39
1.54
33
0.52
85
0.75
129
0.86
97
0.58
54
1.74
105
1.43
162
DSFCAtwo views0.94
37
0.84
101
0.75
92
0.66
123
0.78
144
0.62
119
0.79
159
0.75
51
0.78
145
0.78
82
0.86
123
0.79
82
0.52
76
0.44
96
1.95
32
1.21
49
0.89
101
0.87
136
1.03
44
0.81
121
1.11
61
2.19
46
0.73
171
0.80
142
0.84
91
0.96
109
1.89
115
0.85
92
DMCA-RVCcopylefttwo views0.94
37
0.74
59
0.78
97
0.62
110
0.78
144
0.58
106
1.11
187
0.77
52
1.39
198
1.36
162
0.68
89
0.88
96
0.57
91
0.58
145
2.43
54
1.16
40
0.91
104
0.78
103
0.99
42
0.78
111
0.94
50
1.41
28
0.55
97
0.72
126
0.62
52
0.64
59
1.82
109
0.91
102
IERtwo views0.95
39
0.83
97
0.60
75
0.50
82
0.52
85
0.58
106
0.48
118
0.80
60
0.50
87
1.12
146
0.77
111
1.06
129
0.50
71
0.78
192
3.59
91
1.11
35
0.76
64
0.65
67
0.91
37
0.78
111
0.76
32
2.32
48
0.66
148
0.67
113
0.65
57
1.01
116
2.05
125
0.74
69
HITNettwo views0.97
40
0.66
35
0.64
79
0.69
126
0.50
78
0.40
50
0.33
76
1.25
125
0.87
157
0.70
61
0.70
97
0.94
112
0.53
77
0.39
67
2.05
36
1.16
40
0.69
49
0.64
59
0.84
34
0.61
59
2.15
119
4.61
80
0.49
66
0.60
86
0.63
53
0.63
58
1.82
109
0.82
83
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
RASNettwo views1.02
41
0.75
62
0.95
133
0.64
119
0.64
121
0.67
134
0.45
107
0.98
92
0.62
118
1.21
152
0.64
84
0.76
69
0.74
134
0.43
89
1.59
19
1.52
88
0.78
76
0.68
72
1.06
47
0.70
93
1.24
74
4.37
77
0.47
56
0.84
151
0.80
85
0.83
88
2.17
133
1.08
128
DLCB_ROBtwo views1.03
42
0.92
134
0.91
122
0.74
136
0.83
158
0.75
150
0.77
156
0.88
78
0.73
142
0.93
127
0.85
121
1.06
129
0.94
181
0.70
179
1.57
16
1.24
55
1.03
139
0.73
89
0.92
38
0.75
105
1.48
86
2.49
51
0.81
191
0.77
134
1.35
183
1.30
155
1.49
82
0.95
106
TESTrafttwo views1.04
43
0.98
163
0.44
42
0.41
56
0.34
41
0.41
51
0.26
49
1.12
105
0.40
49
0.98
133
0.35
35
0.64
44
0.76
142
0.53
127
3.11
78
1.82
122
0.74
58
0.52
32
3.10
144
0.57
48
1.16
65
3.86
71
0.37
29
0.45
51
0.58
46
1.17
144
2.52
177
0.60
52
DISCOtwo views1.04
43
0.98
163
0.62
77
0.57
99
0.62
114
0.84
162
0.83
163
0.77
52
0.82
149
1.98
198
0.89
132
0.68
52
0.70
124
0.45
103
1.98
33
1.35
68
1.00
132
0.81
112
1.83
89
0.81
121
1.00
53
2.90
59
0.62
134
0.65
108
0.74
73
0.84
90
2.03
124
0.85
92
STTStereotwo views1.06
45
0.95
153
0.90
119
0.79
150
0.77
142
0.70
141
1.10
184
0.86
73
1.48
207
1.26
156
0.78
115
1.13
141
0.78
150
0.94
209
2.76
60
1.16
40
0.76
64
0.73
89
1.10
51
0.66
79
1.18
67
1.53
32
0.62
134
0.58
80
0.78
80
1.22
149
1.76
107
1.40
160
TestStereo1two views1.09
46
0.99
167
0.41
36
0.38
42
0.37
49
0.41
51
0.27
52
1.02
96
0.40
49
0.80
96
0.34
33
0.61
40
0.74
134
0.53
127
2.97
71
1.78
118
0.74
58
0.54
36
3.12
145
0.57
48
1.44
79
5.38
97
0.37
29
0.43
46
0.59
49
1.04
125
2.53
179
0.60
52
SA-5Ktwo views1.09
46
0.99
167
0.41
36
0.38
42
0.37
49
0.41
51
0.27
52
1.02
96
0.40
49
0.80
96
0.34
33
0.61
40
0.74
134
0.53
127
2.97
71
1.78
118
0.74
58
0.54
36
3.12
145
0.57
48
1.44
79
5.38
97
0.37
29
0.43
46
0.59
49
1.04
125
2.53
179
0.60
52
NLCA_NET_v2_RVCtwo views1.09
46
0.93
140
0.85
109
0.74
136
0.81
152
0.66
131
1.22
197
1.07
100
2.23
242
1.99
199
0.76
107
0.97
118
0.63
108
0.94
209
2.41
53
1.05
27
0.74
58
0.72
86
1.32
61
0.70
93
0.90
43
1.40
25
0.59
123
0.61
88
0.74
73
1.58
182
1.48
81
1.26
152
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AIO-Stereopermissivetwo views1.11
49
0.33
12
0.22
12
0.35
35
0.16
14
0.20
13
0.11
11
0.18
1
0.14
4
0.15
2
0.20
14
0.22
1
0.16
10
0.17
9
5.08
119
1.09
34
0.46
13
0.40
17
1.20
55
0.50
32
0.43
8
16.33
242
0.20
11
0.17
9
0.35
7
0.24
7
0.64
18
0.19
2
psm_uptwo views1.12
50
0.88
119
1.03
154
0.79
150
0.95
169
0.77
153
0.66
145
1.33
145
1.03
174
0.87
111
0.69
94
1.12
138
0.76
142
0.76
187
2.94
68
1.17
43
0.96
122
0.82
117
2.32
108
0.85
133
1.44
79
1.89
39
0.51
79
0.92
177
1.03
131
1.08
132
1.62
99
1.09
129
PDISCO_ROBtwo views1.12
50
0.87
115
0.62
77
0.79
150
0.70
130
0.54
90
0.76
155
0.95
89
0.69
135
1.78
189
0.98
144
0.75
68
0.63
108
0.65
169
2.15
42
1.54
95
0.99
129
1.10
197
1.60
79
0.82
127
1.80
102
2.71
56
0.57
114
0.84
151
1.20
162
0.84
90
2.56
183
0.90
99
PS-NSSStwo views1.13
52
1.45
230
0.73
89
1.20
204
0.95
169
1.22
206
1.06
178
0.80
60
0.55
99
0.74
71
0.51
54
2.17
197
1.08
196
0.93
207
2.02
35
0.96
18
0.89
101
0.74
94
1.56
75
0.65
75
0.97
52
0.79
8
1.65
248
0.55
71
1.13
153
0.96
109
3.19
215
1.11
132
SAtwo views1.14
53
0.95
153
0.46
44
0.55
93
0.54
94
0.50
79
0.25
46
1.59
181
0.47
73
0.72
65
0.40
39
0.73
61
0.59
100
0.62
156
2.09
37
2.12
137
0.82
85
0.82
117
3.31
158
0.67
86
1.46
82
4.78
83
0.36
27
0.69
117
0.78
80
1.11
135
2.64
191
0.72
68
LMCR-Stereopermissivemany views1.14
53
0.84
101
0.91
122
0.55
93
0.63
118
0.66
131
0.34
79
1.12
105
0.64
124
0.82
101
0.77
111
0.94
112
0.49
68
0.44
96
3.22
83
1.57
102
1.06
147
0.76
100
2.19
103
1.43
190
1.90
111
4.46
78
0.53
91
0.81
145
0.87
99
0.86
96
1.11
51
0.94
104
AF-Nettwo views1.15
55
0.85
107
1.00
145
0.77
142
0.93
165
1.00
183
2.29
222
1.51
169
1.06
176
0.57
39
0.96
138
1.40
164
0.64
111
0.75
185
2.20
44
1.08
30
0.85
88
0.62
54
1.83
89
0.79
114
0.90
43
2.97
60
0.66
148
0.65
108
0.98
121
0.89
99
1.58
93
1.24
150
Nwc_Nettwo views1.15
55
0.85
107
1.00
145
0.77
142
0.93
165
1.00
183
2.29
222
1.51
169
1.06
176
0.57
39
0.96
138
1.40
164
0.64
111
0.75
185
2.20
44
1.08
30
0.85
88
0.62
54
1.83
89
0.79
114
0.90
43
2.97
60
0.66
148
0.65
108
0.98
121
0.89
99
1.58
93
1.24
150
RSMtwo views1.16
57
0.30
10
0.23
16
0.32
28
0.15
11
0.21
14
0.10
9
0.18
1
0.16
11
0.14
1
0.27
20
0.23
2
0.20
19
0.15
5
0.70
3
0.64
2
0.43
8
0.38
12
0.36
4
0.42
18
0.50
12
23.43
286
0.23
13
0.17
9
0.40
15
0.25
8
0.61
15
0.24
8
CAStwo views1.16
57
0.81
92
0.47
46
0.51
84
0.49
75
0.38
44
0.31
62
0.56
28
0.45
68
1.20
148
0.90
134
0.64
44
0.97
189
0.32
37
3.11
78
2.22
141
0.98
126
0.85
130
1.21
56
0.64
68
3.95
142
5.48
109
0.47
56
0.31
28
0.85
96
0.92
106
1.21
58
1.15
138
GANettwo views1.17
59
0.80
91
0.81
102
0.71
129
0.71
132
1.18
198
0.64
141
0.83
67
0.47
73
0.61
46
6.20
248
2.19
198
0.44
62
0.65
169
0.94
7
0.81
13
0.87
95
0.79
105
0.65
25
0.46
26
0.56
18
6.49
124
0.53
91
0.57
76
0.65
57
0.47
41
0.85
32
0.70
65
Occ-Gtwo views1.18
60
0.59
30
0.31
22
0.34
33
0.31
33
0.26
20
0.12
17
0.38
18
0.19
22
0.16
3
0.36
36
0.34
11
0.25
27
0.16
6
7.20
137
1.86
123
0.48
17
0.45
23
1.09
49
0.42
18
0.93
49
13.28
212
0.29
21
0.21
18
0.38
11
0.26
12
0.97
40
0.31
21
CASnettwo views1.22
61
0.92
134
0.55
61
0.41
56
0.45
65
0.39
48
0.24
41
0.92
84
0.50
87
0.78
82
0.56
70
0.91
103
0.54
84
0.38
60
3.31
84
1.35
68
0.77
70
0.51
31
1.43
67
0.56
45
7.13
191
5.44
108
0.45
50
0.48
59
1.22
165
0.50
47
1.47
78
0.78
79
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Sa-1000two views1.22
61
0.77
75
0.49
49
0.49
78
0.61
107
0.51
81
0.29
58
1.69
191
0.53
95
0.73
69
0.48
52
0.73
61
0.66
118
0.76
187
3.04
75
1.97
130
0.98
126
0.95
157
3.31
158
0.63
65
1.92
114
4.89
85
0.37
29
0.82
146
1.15
156
1.22
149
2.35
156
0.75
71
IGEV-BASED-STEREO-two views1.26
63
0.86
111
0.39
32
0.42
61
0.32
35
0.32
29
0.19
31
0.71
45
0.32
37
0.70
61
0.31
27
0.64
44
0.56
89
0.43
89
4.05
102
2.29
143
0.65
43
0.70
82
1.04
45
0.51
34
1.88
110
13.45
213
0.46
54
0.24
24
0.57
42
0.37
31
1.14
54
0.54
40
iinet-ftwo views1.26
63
1.10
190
0.69
86
0.94
170
0.47
68
0.72
145
0.58
134
0.79
57
0.50
87
2.11
208
1.35
171
0.83
89
0.64
111
0.38
60
3.97
101
1.88
124
0.79
78
0.68
72
3.04
141
1.08
163
1.61
93
3.40
62
0.68
154
0.75
129
1.14
154
0.64
59
2.22
146
0.90
99
APVNettwo views1.28
65
1.03
181
0.68
85
0.69
126
0.78
144
0.87
165
0.89
167
0.79
57
0.72
140
0.91
123
0.83
120
0.92
108
0.61
102
0.59
147
3.31
84
1.71
111
1.16
163
0.99
168
3.22
151
0.92
141
1.91
113
4.73
82
0.58
117
1.11
198
0.80
85
0.84
90
1.90
116
0.97
108
RSM++two views1.29
66
0.33
12
0.25
18
0.36
39
0.20
18
0.24
19
0.11
11
0.22
3
0.17
14
0.16
3
0.28
22
0.27
4
0.20
19
0.17
9
0.89
6
0.71
5
0.43
8
0.39
16
0.52
16
0.46
26
0.53
16
25.80
291
0.31
22
0.18
13
0.55
36
0.26
12
0.57
12
0.29
19
RPtwo views1.29
66
1.05
185
1.26
199
0.96
171
1.11
186
0.85
163
1.39
202
1.24
124
1.30
194
0.61
46
1.16
158
1.27
152
0.75
137
0.72
183
3.49
88
1.12
36
0.95
118
0.68
72
1.24
58
0.83
130
1.02
55
4.57
79
0.63
138
0.91
175
0.90
104
1.02
121
2.51
175
1.20
145
AACVNettwo views1.30
68
0.89
123
0.74
90
0.93
166
0.95
169
0.73
147
0.64
141
0.88
78
0.64
124
0.74
71
0.88
129
0.83
89
0.67
119
0.62
156
9.20
148
1.41
72
0.87
95
0.84
128
1.21
56
0.80
116
1.51
88
2.50
52
0.75
180
0.69
117
0.88
101
1.11
135
1.91
117
1.31
154
AMNettwo views1.31
69
1.12
192
1.05
157
1.14
194
1.12
188
1.27
212
1.07
181
1.35
148
1.13
183
1.10
145
1.11
155
1.55
177
1.26
204
1.20
232
1.75
27
1.59
104
1.37
186
1.23
218
1.37
64
1.22
173
1.40
78
1.40
25
1.25
233
1.26
210
1.26
167
1.70
191
1.54
86
1.65
175
AIO-test1two views1.32
70
0.19
2
0.16
6
0.12
5
0.14
7
0.18
8
0.15
22
0.33
12
0.17
14
0.26
12
0.26
19
0.35
12
0.15
6
0.18
13
10.09
156
3.61
182
0.36
2
0.31
6
0.44
10
0.36
12
0.35
2
16.14
238
0.14
3
0.15
4
0.23
2
0.23
5
0.33
2
0.17
1
ARAFTtwo views1.32
70
0.72
50
0.50
51
0.35
35
0.34
41
0.44
61
0.24
41
0.65
38
0.35
43
2.25
212
0.56
70
0.60
36
0.30
33
0.43
89
2.15
42
1.46
80
0.75
62
0.75
98
2.78
134
0.58
52
2.25
123
12.47
202
0.45
50
0.39
34
0.94
114
0.40
32
1.98
122
0.57
43
iResNet_ROBtwo views1.32
70
0.86
111
0.86
112
0.65
120
0.60
105
0.69
138
0.66
145
2.64
254
0.58
107
1.71
186
0.75
106
0.97
118
0.82
161
0.49
113
5.86
127
1.53
90
0.93
112
0.86
132
2.96
138
0.68
88
2.22
120
1.21
20
0.62
134
0.95
182
0.86
97
0.98
114
2.65
193
1.02
121
PA-Nettwo views1.33
73
0.99
167
1.18
186
0.77
142
1.35
207
0.69
138
0.90
168
0.82
66
1.17
188
0.82
101
1.28
166
0.78
79
0.79
152
0.93
207
4.45
114
1.31
64
0.72
54
0.80
110
1.06
47
0.89
136
1.19
68
4.70
81
0.68
154
0.85
158
1.01
127
2.17
224
1.45
76
2.09
193
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GANetREF_RVCpermissivetwo views1.35
74
1.22
201
1.01
149
1.18
198
1.10
185
1.02
186
0.81
160
1.25
125
1.15
186
1.30
159
0.77
111
2.55
217
0.96
185
0.63
160
2.28
48
1.23
52
1.09
151
0.99
168
2.42
113
0.90
139
2.22
120
1.72
35
0.79
188
1.12
199
1.31
174
1.27
152
2.62
188
1.48
164
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
IPLGR_Ctwo views1.36
75
0.72
50
0.89
116
0.59
103
0.54
94
0.54
90
0.34
79
0.81
63
0.58
107
0.76
77
0.69
94
1.05
128
0.53
77
0.64
164
2.77
61
1.41
72
0.92
107
0.69
80
3.26
154
0.64
68
1.68
97
10.52
163
0.58
117
0.83
149
1.01
127
0.65
68
2.40
165
0.61
55
ACREtwo views1.36
75
0.71
44
0.88
114
0.61
108
0.53
88
0.55
95
0.35
87
0.81
63
0.58
107
0.76
77
0.69
94
1.06
129
0.53
77
0.64
164
2.80
66
1.39
71
0.92
107
0.68
72
3.26
154
0.64
68
1.68
97
10.53
164
0.58
117
0.83
149
1.03
131
0.64
59
2.40
165
0.62
58
CIPLGtwo views1.37
77
0.71
44
0.91
122
0.59
103
0.53
88
0.54
90
0.36
89
0.81
63
0.59
112
0.76
77
0.68
89
1.04
125
0.53
77
0.64
164
3.08
76
1.45
79
0.93
112
0.67
70
3.23
152
0.64
68
1.66
94
10.56
165
0.58
117
0.84
151
1.03
131
0.66
69
2.36
158
0.61
55
NCC-stereotwo views1.37
77
1.25
206
1.13
172
1.00
176
1.08
179
0.98
180
1.87
212
1.76
196
1.58
215
0.60
43
1.33
168
1.22
146
1.08
196
0.78
192
3.16
81
1.19
46
0.95
118
1.00
172
1.64
80
1.00
155
1.20
70
3.65
64
0.84
200
0.84
151
1.28
170
1.57
180
1.44
72
1.60
171
Abc-Nettwo views1.37
77
1.25
206
1.13
172
1.00
176
1.08
179
0.98
180
1.87
212
1.76
196
1.58
215
0.60
43
1.33
168
1.22
146
1.08
196
0.78
192
3.16
81
1.19
46
0.95
118
1.00
172
1.64
80
1.00
155
1.20
70
3.65
64
0.84
200
0.84
151
1.28
170
1.57
180
1.44
72
1.60
171
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
raft_robusttwo views1.38
80
0.94
148
0.55
61
0.60
105
0.48
70
0.59
113
0.38
91
2.05
226
0.53
95
1.67
184
0.52
56
0.83
89
0.81
157
0.49
113
3.50
89
1.90
125
0.92
107
0.86
132
4.99
188
0.61
59
3.19
133
5.05
90
0.47
56
0.64
102
1.04
135
1.06
128
1.58
93
0.99
117
GLC_STEREOtwo views1.38
80
0.90
126
0.91
122
0.58
101
0.62
114
0.49
74
0.43
101
1.68
190
0.48
77
0.77
81
0.68
89
0.81
87
0.62
107
0.61
151
9.99
155
1.91
126
0.92
107
0.60
49
1.71
87
0.71
98
2.58
128
3.85
70
0.48
61
0.57
76
0.69
62
0.56
51
2.36
158
0.87
97
UDGNettwo views1.40
82
1.04
182
0.83
104
1.64
228
1.39
209
1.70
230
1.25
199
1.21
120
0.81
148
0.63
51
0.87
126
0.92
108
0.42
53
1.61
246
2.12
40
1.25
56
0.87
95
0.89
144
2.45
115
0.92
141
1.95
116
5.71
112
1.28
235
0.54
68
1.21
163
1.10
134
2.15
130
1.02
121
SACVNettwo views1.42
83
0.96
156
1.03
154
0.93
166
1.15
190
0.95
176
0.99
174
1.50
166
0.82
149
1.21
152
0.74
104
0.99
122
0.73
132
0.70
179
3.38
86
1.50
86
1.24
172
0.85
130
2.24
105
0.96
148
2.50
127
5.99
119
0.69
161
0.90
172
1.04
135
1.06
128
2.02
123
1.29
153
Former-RAFT_DAM_RVCtwo views1.44
84
0.64
33
0.58
68
0.44
70
0.42
60
0.38
44
0.27
52
1.25
125
0.49
83
0.85
107
0.62
80
0.76
69
0.54
84
0.35
46
12.82
171
1.55
98
0.72
54
0.71
83
2.02
100
0.58
52
1.72
99
6.96
131
0.42
40
0.39
34
0.82
89
1.19
145
0.71
22
0.77
76
trnettwo views1.46
85
0.91
129
0.99
142
0.53
88
0.44
63
0.49
74
0.25
46
1.41
156
0.67
130
0.88
118
1.00
146
0.97
118
0.76
142
0.44
96
7.79
141
3.28
168
0.95
118
0.64
59
2.41
110
0.64
68
3.97
144
3.96
72
0.58
117
0.63
100
1.03
131
1.01
116
1.73
104
0.99
117
sAnonymous2two views1.46
85
0.77
75
0.55
61
0.43
62
0.48
70
0.71
142
0.42
97
1.28
131
0.99
167
0.65
56
0.88
129
1.13
141
0.96
185
0.36
49
2.58
55
2.36
147
1.11
153
1.05
187
3.69
167
0.96
148
4.96
157
7.11
132
0.64
141
0.61
88
0.84
91
1.39
162
1.25
60
1.23
148
CroCo_RVCtwo views1.46
85
0.77
75
0.55
61
0.43
62
0.48
70
0.71
142
0.42
97
1.28
131
0.99
167
0.65
56
0.88
129
1.13
141
0.96
185
0.36
49
2.58
55
2.36
147
1.11
153
1.05
187
3.69
167
0.96
148
4.96
157
7.11
132
0.64
141
0.61
88
0.84
91
1.39
162
1.25
60
1.23
148
CEStwo views1.47
88
0.78
83
0.61
76
0.46
75
0.57
102
0.52
86
0.23
37
1.50
166
0.68
132
0.78
82
0.86
123
0.86
95
0.90
174
0.39
67
7.38
140
3.09
161
1.24
172
1.04
182
1.48
69
1.19
170
4.63
154
5.40
105
0.67
151
0.45
51
0.87
99
0.82
85
1.16
55
1.15
138
HSMtwo views1.47
88
0.76
71
1.02
152
0.81
154
0.80
150
0.56
97
0.56
128
1.86
206
0.60
113
0.76
77
0.85
121
0.90
101
0.68
120
0.60
150
11.58
167
1.15
38
0.96
122
0.74
94
2.61
119
0.74
102
2.26
124
2.51
53
0.60
128
0.87
160
0.95
117
0.98
114
2.08
127
1.02
121
DN-CSS_ROBtwo views1.49
90
0.84
101
1.08
164
0.88
164
0.88
159
0.50
79
0.39
93
2.00
219
0.63
121
1.55
173
1.79
185
1.00
123
0.81
157
0.41
73
3.48
87
1.46
80
1.12
157
0.95
157
5.28
193
0.75
105
4.20
145
3.69
66
0.56
104
1.01
188
0.80
85
0.82
85
2.06
126
1.31
154
stereogantwo views1.50
91
1.32
215
1.15
178
1.13
191
1.31
203
1.13
196
1.02
177
1.26
128
1.04
175
1.20
148
1.09
153
1.65
182
0.90
174
0.67
174
2.78
64
1.43
75
1.01
136
0.81
112
1.83
89
0.99
154
1.36
77
8.05
140
0.73
171
0.92
177
0.91
106
1.08
132
2.36
158
1.37
157
MGS-Stereotwo views1.51
92
0.99
167
0.53
59
0.41
56
0.35
45
0.41
51
0.36
89
0.66
41
0.28
30
0.53
34
0.47
46
0.52
29
0.39
45
0.43
89
23.18
202
1.01
23
0.77
70
0.79
105
1.05
46
0.67
86
1.17
66
1.46
31
0.47
56
0.69
117
0.77
76
0.48
42
1.29
63
0.77
76
LoS_RVCtwo views1.52
93
1.26
208
0.96
135
0.32
28
0.52
85
0.38
44
0.34
79
0.73
48
0.57
104
2.10
206
0.76
107
0.73
61
0.72
129
0.35
46
4.43
112
3.80
185
0.91
104
2.29
266
3.41
162
0.70
93
4.52
150
6.76
126
0.56
104
0.44
49
0.84
91
0.85
94
0.93
36
0.98
112
tt_lltwo views1.52
93
1.26
208
0.96
135
0.32
28
0.52
85
0.38
44
0.34
79
0.73
48
0.57
104
2.10
206
0.76
107
0.73
61
0.72
129
0.35
46
4.43
112
3.80
185
0.91
104
2.29
266
3.41
162
0.70
93
4.52
150
6.76
126
0.56
104
0.44
49
0.84
91
0.85
94
0.93
36
0.98
112
TANstereotwo views1.55
95
1.06
187
0.94
131
0.68
124
0.76
138
0.90
170
0.33
76
0.86
73
0.64
124
0.70
61
1.05
150
0.60
36
0.61
102
1.01
216
2.77
61
2.92
158
1.00
132
1.15
204
1.49
70
1.30
182
5.05
163
5.77
114
1.42
238
0.59
83
0.57
42
0.90
101
5.94
257
0.75
71
XX-TBDtwo views1.55
95
1.06
187
0.94
131
0.68
124
0.76
138
0.90
170
0.33
76
0.86
73
0.64
124
0.70
61
1.05
150
0.60
36
0.61
102
1.01
216
2.77
61
2.92
158
1.00
132
1.15
204
1.49
70
1.30
182
5.05
163
5.77
114
1.42
238
0.59
83
0.57
42
0.90
101
5.94
257
0.75
71
MM-Stereo_test2two views1.56
97
0.78
83
0.24
17
0.30
25
0.21
20
0.18
8
0.11
11
0.33
12
0.16
11
0.36
22
0.18
9
0.40
19
0.16
10
0.18
13
5.36
123
11.21
253
0.46
13
0.40
17
0.42
8
0.53
39
0.50
12
17.82
262
0.28
19
0.18
13
0.39
13
0.25
8
0.56
11
0.25
12
RGCtwo views1.56
97
1.33
217
1.98
243
1.18
198
1.24
196
1.20
203
1.06
178
1.20
118
1.09
179
0.91
123
1.67
180
1.23
148
1.26
204
0.92
206
4.08
105
1.27
58
1.06
147
0.86
132
1.92
93
1.10
165
1.72
99
5.40
105
0.79
188
1.03
190
1.17
158
1.52
176
2.20
136
1.83
180
LL-Strereo2two views1.57
99
0.66
35
0.65
80
0.40
54
0.35
45
0.32
29
0.23
37
1.48
162
0.42
55
0.68
60
0.57
73
0.63
43
0.32
36
0.67
174
2.65
58
7.88
242
0.65
43
0.55
41
1.37
64
0.70
93
1.80
102
15.65
235
0.50
73
0.40
39
0.65
57
0.62
56
1.06
46
0.56
41
CREStereotwo views1.57
99
0.92
134
0.99
142
0.53
88
0.43
62
0.49
74
0.26
49
1.44
160
0.71
139
0.87
111
1.01
147
0.95
115
0.76
142
0.44
96
7.17
135
4.29
194
0.93
112
0.59
47
2.41
110
0.65
75
5.45
166
5.19
93
0.61
130
0.63
100
1.02
130
1.01
116
1.74
105
0.98
112
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
raft+_RVCtwo views1.58
101
0.74
59
0.75
92
0.41
56
0.35
45
0.52
86
0.32
72
1.47
161
0.45
68
0.63
51
0.61
78
0.69
54
0.39
45
0.30
35
4.83
116
4.95
205
0.76
64
0.56
44
1.64
80
0.60
58
0.96
51
16.85
252
0.50
73
0.45
51
0.78
80
0.62
56
0.88
33
0.68
64
GIP-stereotwo views1.59
102
0.56
26
0.35
28
0.29
21
0.24
23
0.21
14
0.11
11
0.24
6
0.17
14
0.31
16
0.19
12
0.38
16
0.19
16
0.27
29
11.70
170
7.84
241
0.48
17
0.41
20
0.44
10
0.51
34
0.58
19
15.22
230
0.17
7
0.21
18
0.45
20
0.30
18
0.78
27
0.24
8
PMTNettwo views1.59
102
0.94
148
1.06
158
0.49
78
0.51
82
0.49
74
0.32
72
0.83
67
0.72
140
0.83
103
0.63
82
0.89
100
0.50
71
0.42
83
7.10
134
4.35
197
0.96
122
0.57
45
2.41
110
0.58
52
5.99
175
6.00
120
0.61
130
0.41
42
1.97
238
1.03
122
1.16
55
1.19
143
ICVPtwo views1.60
104
0.75
62
1.11
170
0.77
142
0.78
144
0.87
165
0.64
141
1.10
103
0.85
153
1.37
165
1.11
155
0.95
115
1.12
200
0.57
143
3.12
80
2.05
136
1.33
181
1.00
172
1.56
75
1.07
161
3.91
141
10.82
169
0.69
161
0.87
160
0.95
117
1.21
147
1.52
84
1.14
135
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
LoStwo views1.62
105
0.79
86
0.65
80
0.53
88
0.57
102
0.67
134
0.39
93
2.55
251
0.90
159
1.22
155
0.98
144
0.98
121
0.87
171
0.44
96
4.09
106
3.52
176
1.45
189
0.94
156
2.24
105
0.75
105
6.08
177
7.76
137
0.68
154
0.64
102
1.18
161
0.97
112
1.10
50
0.87
97
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GEStwo views1.63
106
0.75
62
0.83
104
0.79
150
0.73
135
0.82
160
0.67
147
1.36
151
0.95
165
1.65
182
0.95
137
0.78
79
0.65
114
0.66
171
6.17
130
1.65
107
1.02
137
0.91
151
5.50
197
1.23
176
4.23
146
5.40
105
0.67
151
0.96
184
0.81
88
0.83
88
1.52
84
1.65
175
iResNetv2_ROBtwo views1.65
107
0.91
129
0.76
94
1.13
191
0.66
125
0.73
147
0.56
128
2.62
252
0.67
130
1.76
188
0.87
126
1.36
161
0.77
149
0.42
83
5.48
124
1.34
67
1.04
142
0.74
94
4.59
182
0.89
136
7.80
205
2.09
44
0.62
134
0.93
179
0.89
103
0.86
96
3.12
214
0.90
99
NCCL2two views1.66
108
1.30
213
1.16
180
1.12
189
1.48
215
0.80
157
1.13
190
1.07
100
1.15
186
1.84
192
1.26
164
1.12
138
0.84
164
0.83
199
4.07
104
1.52
88
1.22
169
0.89
144
1.35
62
0.93
145
2.49
126
5.97
118
1.47
243
1.14
201
1.49
205
1.40
165
3.78
238
1.89
185
rafts_anoytwo views1.69
109
0.82
96
0.95
133
0.45
72
0.51
82
0.54
90
0.46
111
1.57
180
0.51
91
0.61
46
0.70
97
0.71
57
0.49
68
0.36
49
8.16
142
6.28
229
0.82
85
0.79
105
2.48
116
0.65
75
1.66
94
11.09
179
0.54
96
0.54
68
1.00
126
0.90
101
0.96
38
0.99
117
MIM_Stereotwo views1.71
110
0.77
75
0.56
65
0.43
62
0.38
51
0.47
63
0.23
37
1.50
166
0.32
37
0.56
36
0.46
44
0.65
48
0.28
31
0.39
67
6.21
132
11.24
254
0.65
43
0.82
117
3.32
160
0.89
136
1.35
76
10.19
159
0.38
33
0.51
63
0.55
36
0.42
37
1.96
120
0.58
45
CFNet_pseudotwo views1.71
110
0.79
86
0.89
116
0.83
157
0.79
148
0.71
142
0.43
101
0.93
86
0.53
95
0.94
130
0.81
119
0.94
112
0.88
173
0.82
198
15.18
181
1.47
84
0.79
78
0.73
89
7.38
237
0.78
111
1.08
60
2.74
57
0.74
177
0.70
121
0.91
106
0.91
104
1.47
78
1.13
134
IGEV-Stereo+two views1.72
112
1.04
182
0.26
20
0.48
77
0.32
35
0.29
25
0.13
19
0.50
25
0.27
26
0.78
82
7.60
276
0.57
34
0.26
29
0.31
36
3.09
77
3.57
179
0.61
38
0.62
54
1.55
72
0.54
41
1.01
54
20.06
277
0.57
114
0.21
18
0.46
22
0.31
19
0.58
13
0.40
28
CC-Net-ROBtwo views1.72
112
1.82
244
1.21
190
1.92
235
1.84
236
2.43
248
1.64
207
0.93
86
0.96
166
1.27
157
0.68
89
5.86
259
2.76
228
1.47
242
2.26
47
0.95
17
1.46
192
1.26
225
2.79
135
0.96
148
1.12
63
1.41
28
3.28
265
0.73
127
1.31
174
1.15
143
1.47
78
1.57
167
dadtwo views1.73
114
0.98
163
0.82
103
2.17
245
1.18
193
1.11
194
4.08
246
1.66
189
0.63
121
1.21
152
0.54
65
1.12
138
2.00
219
0.63
160
3.74
93
1.25
56
1.14
160
0.82
117
2.70
130
0.80
116
1.47
85
2.54
54
0.73
171
1.01
188
2.41
248
0.71
74
5.51
253
3.77
231
raftrobusttwo views1.74
115
0.68
40
1.00
145
0.55
93
0.51
82
0.45
62
0.34
79
1.54
171
0.48
77
0.94
130
0.72
100
0.88
96
0.53
77
0.41
73
7.35
139
5.79
219
0.73
56
0.71
83
4.77
185
0.68
88
2.01
117
10.90
170
0.65
145
0.50
61
1.06
138
0.86
96
1.05
44
0.84
91
XPNet_ROBtwo views1.76
116
1.58
236
1.17
184
0.93
166
1.17
192
1.05
189
0.98
173
0.97
90
1.17
188
1.07
143
1.79
185
4.38
247
0.73
132
0.80
196
2.59
57
1.58
103
1.78
211
0.97
163
1.45
68
1.06
160
2.58
128
8.45
145
0.94
217
0.88
167
0.99
123
1.31
156
3.33
221
1.71
177
BEATNet_4xtwo views1.77
117
0.78
83
0.79
98
0.76
139
0.70
130
0.51
81
0.49
120
1.23
122
1.31
195
0.84
106
0.76
107
1.06
129
0.76
142
0.67
174
8.95
147
2.41
149
1.91
214
1.42
233
1.30
60
0.88
135
4.99
161
9.14
149
0.51
79
1.03
190
0.77
76
0.82
85
1.85
111
1.10
130
RALAANettwo views1.79
118
0.71
44
0.88
114
0.54
91
0.55
98
0.63
126
0.43
101
1.30
135
0.52
94
0.93
127
0.65
86
0.74
67
0.60
101
0.33
41
8.49
145
1.53
90
0.78
76
0.91
151
2.18
101
1.09
164
3.35
136
15.13
229
0.55
97
0.79
141
0.92
112
1.03
122
2.08
127
0.77
76
CREStereo++_RVCtwo views1.81
119
0.91
129
1.09
166
0.52
86
0.61
107
0.41
51
0.29
58
1.37
153
0.56
102
0.83
103
0.63
82
0.77
72
0.86
168
0.40
71
2.94
68
3.08
160
0.98
126
0.63
58
2.71
131
0.56
45
4.98
160
6.57
125
0.59
123
0.53
67
1.06
138
1.06
128
12.85
285
0.97
108
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MyStereo04two views1.85
120
0.92
134
1.06
158
0.81
154
0.90
161
0.59
113
0.43
101
1.56
177
0.99
167
2.30
214
0.87
126
1.46
168
0.57
91
0.41
73
3.53
90
2.81
156
0.93
112
1.01
176
5.44
196
2.73
241
4.96
157
6.15
122
1.83
252
0.96
184
1.39
190
1.73
192
2.57
185
0.94
104
AE-Stereotwo views1.87
121
0.86
111
1.31
204
0.82
156
0.55
98
0.58
106
0.78
157
0.83
67
0.49
83
0.79
92
0.54
65
1.31
158
0.72
129
0.52
124
2.79
65
4.03
190
1.04
142
0.97
163
3.06
143
1.16
167
4.60
153
15.60
233
0.55
97
1.04
193
1.33
179
1.34
158
1.95
119
0.86
94
RALCasStereoNettwo views1.87
121
0.84
101
1.02
152
0.54
91
0.55
98
0.62
119
0.48
118
1.48
162
0.46
72
1.01
137
0.74
104
0.92
108
0.50
71
0.36
49
6.19
131
11.19
252
0.81
80
0.76
100
1.55
72
0.68
88
1.46
82
13.06
209
0.52
85
0.66
111
0.94
114
1.13
141
0.96
38
1.14
135
GEStereo_RVCtwo views1.88
123
0.97
157
1.01
149
1.01
180
0.88
159
1.12
195
1.07
181
1.65
188
0.82
149
0.90
121
0.78
115
1.38
162
0.79
152
0.64
164
2.40
52
2.33
145
1.22
169
1.22
217
4.10
176
1.26
179
5.16
165
12.04
196
0.73
171
1.21
205
0.95
117
0.97
112
2.49
173
1.64
174
DeepPruner_ROBtwo views1.89
124
0.77
75
0.97
138
0.86
162
0.91
163
0.80
157
5.39
253
1.26
128
0.91
161
1.47
170
1.61
179
0.92
108
0.82
161
0.56
141
4.41
110
1.54
95
1.07
149
1.06
190
2.72
133
0.80
116
7.63
199
7.36
135
0.87
210
0.77
134
0.91
106
1.47
171
2.20
136
0.99
117
sCroCo_RVCtwo views1.92
125
0.68
40
0.57
66
0.38
42
0.50
78
0.76
152
0.43
101
0.94
88
1.56
214
1.51
171
0.77
111
1.06
129
0.96
185
0.50
120
3.03
73
5.07
208
1.25
174
1.23
218
2.55
117
1.40
187
7.89
208
12.35
200
0.45
50
0.64
102
0.94
114
1.12
138
2.34
154
1.04
124
IGEV-Stereo++two views1.94
126
0.41
19
0.22
12
0.22
14
0.25
24
0.21
14
0.09
7
0.25
7
0.17
14
0.20
8
0.36
36
0.29
6
0.21
23
0.19
16
16.62
186
1.60
105
0.45
11
0.38
12
0.87
36
0.49
31
0.58
19
25.92
295
0.25
14
0.16
7
0.31
5
0.27
15
1.12
52
0.27
15
MoCha-V2two views1.94
126
0.31
11
0.25
18
0.21
12
0.17
16
0.17
7
0.15
22
0.23
4
0.11
1
0.27
14
0.32
28
0.33
9
0.16
10
0.22
23
16.77
188
2.58
151
0.41
6
0.40
17
0.35
2
0.92
141
0.61
22
25.91
294
0.16
5
0.19
15
0.38
11
0.26
12
0.36
3
0.19
2
GMOStereotwo views1.98
128
0.75
62
0.52
54
0.62
110
0.53
88
0.47
63
0.47
114
1.54
171
0.48
77
0.87
111
0.47
46
0.77
72
0.58
95
0.38
60
10.16
157
5.49
214
0.81
80
0.88
140
3.13
147
0.81
121
1.81
105
16.83
248
0.49
66
0.56
72
1.11
147
0.74
76
1.57
89
0.58
45
error versiontwo views1.98
128
0.75
62
0.52
54
0.62
110
0.53
88
0.47
63
0.47
114
1.54
171
0.48
77
0.87
111
0.47
46
0.77
72
0.58
95
0.38
60
10.16
157
5.49
214
0.81
80
0.88
140
3.13
147
0.81
121
1.81
105
16.83
248
0.49
66
0.56
72
1.11
147
0.74
76
1.57
89
0.58
45
test-vtwo views1.98
128
0.75
62
0.52
54
0.62
110
0.53
88
0.47
63
0.47
114
1.54
171
0.48
77
0.87
111
0.47
46
0.77
72
0.58
95
0.38
60
10.16
157
5.49
214
0.81
80
0.88
140
3.13
147
0.81
121
1.81
105
16.83
248
0.49
66
0.56
72
1.11
147
0.74
76
1.57
89
0.58
45
test-2two views1.98
128
0.75
62
0.52
54
0.62
110
0.53
88
0.47
63
0.47
114
1.54
171
0.48
77
0.87
111
0.47
46
0.77
72
0.58
95
0.38
60
10.16
157
5.49
214
0.81
80
0.88
140
3.13
147
0.81
121
1.81
105
16.83
248
0.49
66
0.56
72
1.11
147
0.74
76
1.57
89
0.58
45
RAFT + AFFtwo views2.00
132
0.49
24
0.46
44
0.41
56
0.20
18
0.43
59
0.21
34
0.65
38
0.24
24
0.56
36
0.27
20
0.78
79
0.22
24
0.32
37
39.56
229
0.96
18
0.71
52
0.38
12
1.92
93
0.39
16
0.79
35
1.40
25
0.33
24
0.40
39
0.73
66
0.35
27
0.59
14
0.30
20
MLCVtwo views2.04
133
0.89
123
0.99
142
1.37
214
1.31
203
1.02
186
1.01
175
2.14
228
0.80
146
2.00
200
4.28
223
1.74
186
1.62
212
0.48
109
3.03
73
2.01
133
1.33
181
0.96
160
6.76
225
1.13
166
6.05
176
5.71
112
0.68
154
1.73
225
1.32
178
1.39
162
2.32
151
1.07
126
4D-IteraStereotwo views2.05
134
0.63
32
1.16
180
0.49
78
0.44
63
0.41
51
0.26
49
1.43
158
0.38
47
0.75
73
0.55
69
0.79
82
0.42
53
0.46
105
9.38
151
11.47
258
0.71
52
0.68
72
2.81
136
0.64
68
3.95
142
11.85
193
0.52
85
0.58
80
0.71
64
0.84
90
2.34
154
0.63
60
test_4two views2.06
135
0.75
62
0.84
107
0.43
62
0.36
48
0.36
40
0.27
52
0.78
55
0.34
41
0.75
73
0.53
64
0.91
103
0.35
38
0.41
73
13.80
175
13.16
268
0.68
48
0.72
86
1.64
80
0.61
59
1.21
73
11.03
176
0.48
61
0.52
64
0.66
61
0.71
74
2.72
195
0.61
55
GCAP-BATtwo views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
test_for_modeltwo views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
testlalala2two views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
testlalalatwo views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
testlalala_basetwo views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
GCAP-Stereotwo views2.08
136
0.93
140
0.58
68
0.38
42
0.41
53
0.47
63
0.31
62
1.31
138
0.43
61
0.78
82
0.52
56
2.25
203
0.43
55
0.36
49
3.88
95
6.19
223
13.58
291
0.64
59
2.63
120
0.66
79
8.41
220
5.39
99
0.56
104
0.62
92
0.73
66
0.64
59
2.21
139
0.82
83
LALA_ROBtwo views2.09
142
2.18
254
1.21
190
1.07
185
1.32
205
1.18
198
1.12
188
1.19
117
1.45
203
2.05
204
2.76
205
3.68
233
0.92
177
0.96
212
4.76
115
1.53
90
1.45
189
1.18
213
2.60
118
1.36
185
3.60
140
8.26
144
0.80
190
1.16
202
1.35
183
1.44
168
3.89
241
2.12
196
ETE_ROBtwo views2.14
143
1.95
249
1.29
202
1.08
187
1.39
209
1.29
214
1.47
204
1.12
105
2.26
243
1.35
161
3.17
212
3.39
230
0.94
181
1.14
228
5.12
120
1.56
100
2.63
234
0.99
168
2.98
139
1.22
173
4.29
147
8.09
142
0.91
215
1.09
195
1.28
170
1.38
161
2.37
162
1.87
183
DEFOM-Stereo_RVCtwo views2.17
144
0.75
62
0.52
54
0.39
51
0.34
41
0.26
20
0.16
25
0.68
43
0.30
34
0.72
65
0.42
41
0.77
72
0.35
38
0.33
41
17.96
196
9.49
246
0.66
47
0.57
45
1.74
88
0.54
41
1.66
94
16.17
239
0.53
91
0.41
42
0.65
57
0.49
44
0.98
41
0.65
61
DDUNettwo views2.19
145
2.74
261
2.17
247
2.93
257
2.67
257
3.05
256
2.77
232
1.17
112
1.11
181
1.60
176
1.37
175
2.26
210
1.70
213
2.81
259
2.35
51
1.30
62
2.80
239
2.43
278
2.64
126
2.90
245
1.94
115
4.91
86
2.77
262
1.00
187
1.10
144
0.94
107
2.50
174
1.10
130
castereotwo views2.25
146
0.88
119
1.01
149
0.46
75
0.48
70
0.34
32
0.29
58
0.77
52
0.49
83
0.80
96
0.65
86
1.04
125
0.48
66
0.43
89
15.61
183
5.51
218
1.04
142
0.79
105
2.67
127
0.65
75
7.84
206
12.66
205
0.61
130
0.61
88
1.26
167
1.24
151
1.06
46
1.20
145
CASStwo views2.25
146
1.02
179
1.23
193
1.34
212
1.04
176
0.89
168
5.14
250
1.41
156
1.02
173
1.29
158
2.38
203
1.25
150
0.84
164
0.53
127
3.59
91
2.58
151
3.60
245
1.09
195
3.45
164
1.24
177
7.99
210
9.49
151
0.68
154
0.88
167
1.59
215
1.27
152
2.51
175
1.41
161
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
FADNet-RVC-Resampletwo views2.26
148
0.88
119
1.00
145
0.72
132
0.82
155
0.64
127
1.20
194
1.09
102
0.94
163
0.99
135
0.96
138
1.71
185
0.79
152
1.00
215
25.20
206
1.54
95
1.23
171
1.59
241
1.55
72
1.07
161
1.59
92
6.84
129
0.60
128
1.24
207
0.88
101
1.96
213
1.44
72
1.54
166
castereo++two views2.33
149
0.76
71
0.85
109
0.60
105
0.42
60
0.35
35
0.27
52
0.85
72
0.43
61
0.81
99
0.62
80
1.04
125
0.51
74
0.41
73
9.80
153
6.42
230
1.02
137
0.75
98
3.24
153
0.69
92
6.99
188
13.47
214
0.68
154
0.62
92
1.16
157
1.06
128
7.61
269
1.59
170
Anonymous3two views2.34
150
0.87
115
0.96
135
0.57
99
1.20
195
0.90
170
0.70
150
2.43
246
1.12
182
1.04
139
0.97
142
2.57
218
1.18
203
0.58
145
4.83
116
8.57
244
1.53
198
1.46
236
5.31
194
1.61
202
6.76
183
10.34
161
0.73
171
0.71
124
1.11
147
1.40
165
2.31
149
1.33
156
s12784htwo views2.36
151
1.12
192
1.42
211
1.12
189
0.93
165
0.62
119
0.40
95
1.36
151
0.68
132
1.05
142
0.86
123
1.10
136
0.94
181
0.43
89
2.88
67
4.87
204
1.00
132
0.73
89
3.80
169
0.59
55
7.79
203
9.50
152
0.55
97
0.69
117
1.89
233
1.97
214
11.65
281
3.89
232
RYNettwo views2.44
152
0.41
19
0.36
31
0.30
25
0.32
35
0.41
51
0.25
46
0.61
32
0.56
102
0.33
18
0.36
36
0.41
22
0.26
29
0.27
29
52.15
291
0.73
8
0.48
17
1.00
172
0.57
21
0.31
8
0.54
17
0.42
2
0.40
37
0.34
32
0.58
46
1.58
182
1.32
66
0.49
35
NaN_ROBtwo views2.45
153
1.12
192
1.08
164
0.97
172
1.86
239
0.90
170
1.61
206
1.33
145
10.69
294
1.00
136
1.27
165
2.58
219
0.94
181
1.20
232
17.00
190
1.43
75
1.03
139
0.90
149
1.56
75
1.21
172
1.90
111
3.45
63
0.81
191
1.12
199
1.54
212
2.00
217
2.39
164
3.23
223
anonymousdsptwo views2.48
154
0.38
16
0.39
32
0.28
19
0.32
35
0.29
25
0.15
22
0.56
28
0.27
26
0.43
27
18.77
294
0.54
31
0.20
19
0.32
37
13.20
173
1.48
85
0.58
30
0.54
36
0.70
29
0.61
59
0.78
34
23.15
285
0.43
42
0.39
34
0.49
25
0.29
16
1.16
55
0.33
22
ADLNettwo views2.55
155
0.99
167
0.77
95
0.63
115
0.76
138
0.65
129
0.53
126
1.11
104
0.61
116
0.58
41
0.72
100
1.70
184
0.61
102
0.88
202
46.09
256
1.06
28
0.75
62
0.68
72
0.86
35
0.75
105
0.79
35
1.96
41
0.55
97
0.58
80
0.96
120
0.96
109
1.63
100
0.76
75
GwcNet-ADLtwo views2.59
156
1.24
204
1.55
220
1.27
207
1.36
208
0.98
180
0.84
164
1.49
164
0.86
154
3.20
243
6.66
254
2.00
194
1.04
193
0.79
195
3.85
94
4.95
205
1.68
207
0.89
144
5.11
190
2.44
235
6.48
180
11.06
178
0.92
216
1.18
203
1.31
174
1.92
209
2.15
130
2.69
210
CFNet_RVCtwo views2.61
157
0.87
115
0.97
138
0.76
139
0.82
155
0.73
147
0.52
125
0.74
50
0.66
129
0.87
111
1.03
148
0.90
101
0.61
102
0.52
124
44.12
250
1.18
44
0.85
88
0.81
112
2.35
109
0.76
109
1.46
82
2.38
49
0.53
91
0.73
127
0.99
123
1.11
135
1.93
118
1.22
147
test-3two views2.64
158
1.01
175
1.14
175
0.63
115
0.62
114
0.58
106
0.45
107
1.98
216
0.42
55
0.86
108
0.54
65
1.48
170
0.53
77
0.41
73
15.10
179
11.78
260
0.86
93
0.82
117
6.54
217
0.74
102
5.58
169
11.75
191
0.51
79
0.90
172
0.91
106
1.01
116
3.11
211
0.97
108
test_1two views2.64
158
1.01
175
1.14
175
0.63
115
0.62
114
0.58
106
0.45
107
1.98
216
0.42
55
0.86
108
0.54
65
1.48
170
0.53
77
0.41
73
15.10
179
11.82
263
0.86
93
0.82
117
6.53
216
0.74
102
5.60
172
11.75
191
0.50
73
0.90
172
0.91
106
1.01
116
3.11
211
0.98
112
test_3two views2.64
158
1.02
179
1.12
171
0.65
120
0.63
118
0.57
102
0.45
107
1.95
209
0.41
54
0.88
118
0.51
54
1.47
169
0.54
84
0.40
71
14.93
178
11.79
261
0.88
100
0.83
123
6.54
217
0.76
109
5.54
167
11.70
190
0.49
66
0.88
167
0.99
123
1.12
138
3.23
216
0.98
112
Any-RAFTtwo views2.70
161
0.95
153
1.29
202
0.76
139
0.79
148
0.51
81
0.42
97
1.99
218
0.58
107
0.86
108
6.97
268
1.52
174
0.51
74
0.44
96
5.49
125
3.45
173
0.94
116
0.93
155
6.85
231
0.82
127
14.24
285
11.16
180
0.70
163
0.78
139
1.62
217
1.89
206
2.28
148
4.18
234
FADNet-RVCtwo views2.70
161
0.72
50
0.93
129
0.78
146
1.09
184
0.60
116
2.77
232
0.92
84
0.62
118
1.01
137
0.73
103
1.50
172
0.65
114
0.62
156
38.99
226
1.71
111
0.92
107
0.91
151
2.27
107
1.57
199
2.69
130
4.17
74
0.53
91
0.80
142
1.47
202
1.12
138
1.45
76
1.38
158
UCFNet_RVCtwo views2.81
163
1.27
210
0.90
119
0.89
165
0.94
168
0.78
156
0.62
138
0.78
55
0.68
132
0.91
123
0.80
117
1.29
155
1.02
191
0.50
120
42.02
244
1.15
38
0.85
88
0.83
123
6.67
221
0.85
133
1.51
88
2.89
58
1.15
227
0.75
129
1.10
144
1.14
142
1.58
93
2.10
195
PWCDC_ROBbinarytwo views2.81
163
0.72
50
0.69
86
0.63
115
0.95
169
0.69
138
0.70
150
1.04
99
1.58
215
0.64
53
1.84
187
0.91
103
3.56
243
0.77
191
39.21
227
2.17
139
1.31
179
0.99
168
1.59
78
1.01
157
3.34
135
5.82
116
0.72
166
0.87
160
0.77
76
0.94
107
1.13
53
1.19
143
cross-rafttwo views2.82
165
0.91
129
1.18
186
0.75
138
0.90
161
0.66
131
0.46
111
2.03
224
0.61
116
0.95
132
1.42
177
1.08
135
0.76
142
0.53
127
8.24
144
5.88
220
1.09
151
0.80
110
6.99
234
2.68
240
12.15
255
17.17
257
0.72
166
0.78
139
1.60
216
1.91
207
1.66
101
2.34
203
FADNettwo views2.84
166
0.83
97
0.90
119
0.83
157
1.04
176
0.62
119
2.08
218
0.99
93
0.76
143
0.92
126
0.92
136
1.18
145
0.78
150
0.76
187
40.37
235
1.50
86
0.97
125
1.03
180
2.68
129
1.57
199
3.20
134
5.00
88
0.51
79
0.68
115
1.58
214
1.68
189
1.54
86
1.82
179
NVstereo2Dtwo views2.85
167
0.83
97
0.80
101
0.70
128
0.80
150
0.92
174
0.81
160
1.18
116
0.76
143
0.93
127
1.03
148
0.81
87
0.55
87
0.72
183
52.45
293
1.56
100
0.94
116
0.87
136
1.64
80
0.72
100
1.14
64
1.60
34
0.76
182
0.87
160
1.08
141
0.79
81
1.01
42
0.75
71
iResNettwo views2.85
167
0.97
157
0.97
138
1.43
219
1.80
234
1.47
222
1.12
188
1.81
201
1.13
183
2.59
225
4.97
234
1.93
190
2.37
223
0.49
113
10.52
163
7.03
235
1.43
188
1.23
218
6.83
230
1.98
222
10.31
241
4.92
87
0.64
141
2.13
246
1.14
154
1.54
178
2.80
198
1.38
158
PWC_ROBbinarytwo views2.85
167
1.23
202
1.47
217
0.98
173
1.11
186
1.27
212
1.99
216
1.27
130
1.94
234
1.81
190
3.58
219
2.35
213
3.05
236
1.01
216
14.14
177
4.27
193
2.10
225
1.91
258
3.81
170
1.66
204
5.64
173
8.18
143
0.85
204
2.03
240
1.36
186
1.46
169
3.11
211
3.25
224
AnonymousMtwo views2.90
170
0.65
34
0.48
48
0.51
84
0.33
39
0.52
86
0.24
41
1.70
192
0.47
73
0.75
73
4.40
228
0.71
57
0.46
63
0.47
107
2.68
59
3.64
184
1.18
165
1.04
182
1.95
96
3.61
259
4.88
156
12.46
201
0.67
151
0.66
111
0.60
51
1.21
147
15.66
292
16.35
276
Reg-Stereo(zero)two views2.93
171
0.81
92
1.58
222
0.71
129
1.46
213
0.57
102
0.70
150
3.61
271
0.69
135
3.55
251
6.85
262
1.53
175
0.84
164
1.60
244
4.30
107
5.29
211
3.30
243
0.83
123
6.52
214
1.87
215
5.58
169
14.63
225
0.72
166
0.70
121
1.08
141
1.51
172
4.73
249
3.62
228
HItwo views2.93
171
0.81
92
1.58
222
0.71
129
1.46
213
0.57
102
0.70
150
3.61
271
0.69
135
3.55
251
6.85
262
1.53
175
0.84
164
1.60
244
4.30
107
5.29
211
3.30
243
0.83
123
6.52
214
1.87
215
5.58
169
14.63
225
0.72
166
0.70
121
1.08
141
1.51
172
4.73
249
3.62
228
anonymousdsp2two views2.94
173
0.84
101
0.87
113
0.43
62
0.45
65
0.58
106
0.34
79
1.16
111
0.38
47
0.66
58
21.85
295
0.70
56
0.41
50
0.59
147
13.83
176
3.60
181
0.76
64
0.71
83
2.22
104
1.35
184
1.52
90
21.23
280
0.43
42
0.62
92
0.79
83
0.50
47
1.85
111
0.65
61
MIPNettwo views2.96
174
0.92
134
0.91
122
0.50
82
0.67
128
0.56
97
0.61
137
1.33
145
0.54
98
2.05
204
0.97
142
0.83
89
0.81
157
0.49
113
40.68
237
1.72
113
1.31
179
0.97
163
3.26
154
1.24
177
1.50
87
9.35
150
0.59
123
1.03
190
1.35
183
1.98
215
2.90
203
0.81
81
RAFT-Stereo + iAFFtwo views3.00
175
0.73
57
0.91
122
0.43
62
0.41
53
0.58
106
0.28
57
0.99
93
0.60
113
1.54
172
0.59
75
0.80
85
0.40
47
0.28
31
44.82
252
1.22
50
0.69
49
0.53
34
2.71
131
0.62
63
2.23
122
13.76
222
0.50
73
0.59
83
0.90
104
0.75
80
2.54
181
0.66
63
IPLGtwo views3.07
176
0.76
71
0.72
88
0.43
62
0.54
94
0.56
97
0.53
126
1.62
183
0.36
46
0.62
50
0.58
74
0.79
82
0.68
120
0.49
113
50.96
282
1.74
117
1.12
157
0.97
163
3.52
165
0.64
68
1.11
61
6.45
123
0.52
85
0.82
146
0.92
112
1.91
207
2.86
200
0.71
67
DAStwo views3.10
177
1.00
173
1.10
168
1.19
201
1.08
179
1.08
192
1.21
195
1.75
194
1.79
229
3.25
244
5.47
240
2.72
222
3.29
240
0.55
137
5.31
121
7.12
236
2.42
232
1.23
218
6.24
209
1.85
213
12.96
265
10.93
171
0.78
185
1.97
235
1.37
188
1.75
193
2.60
186
1.57
167
SepStereotwo views3.10
177
1.00
173
1.10
168
1.19
201
1.08
179
1.08
192
1.21
195
1.75
194
1.79
229
3.25
244
5.47
240
2.72
222
3.29
240
0.55
137
5.31
121
7.12
236
2.42
232
1.23
218
6.24
209
1.85
213
12.96
265
10.93
171
0.78
185
1.97
235
1.37
188
1.75
193
2.60
186
1.57
167
GANet-ADLtwo views3.14
179
0.92
134
1.31
204
1.05
184
1.05
178
1.24
209
0.92
170
1.20
118
1.01
170
3.66
257
6.58
253
1.07
134
0.81
157
0.49
113
11.53
166
4.97
207
1.73
208
0.91
151
6.57
219
2.05
226
8.13
212
18.07
268
0.71
164
0.95
182
1.11
147
1.99
216
2.91
204
1.84
181
DCVSM-stereotwo views3.15
180
0.94
148
1.56
221
1.37
214
1.08
179
1.54
224
1.01
175
3.02
260
1.32
196
3.44
248
6.18
247
6.76
266
2.79
231
0.90
205
5.98
128
4.29
194
1.47
193
1.10
197
7.68
239
3.59
257
6.97
187
8.61
147
1.23
229
2.64
265
1.46
198
2.00
217
3.57
229
2.42
205
AFF-stereotwo views3.18
181
0.71
44
0.65
80
0.31
27
0.33
39
0.55
95
0.23
37
0.87
77
0.42
55
1.36
162
0.46
44
0.67
50
0.35
38
0.26
27
46.76
260
1.18
44
0.62
41
0.86
132
2.87
137
0.45
23
4.82
155
15.89
237
0.44
46
0.47
56
0.82
89
0.68
72
2.38
163
0.56
41
pcwnet_v2two views3.23
182
0.83
97
0.97
138
0.93
166
1.14
189
0.96
177
0.69
149
1.17
112
0.87
157
2.03
202
1.10
154
1.29
155
1.08
196
1.26
235
45.42
253
1.62
106
1.08
150
0.89
144
6.88
232
0.84
132
3.07
132
4.23
75
1.04
222
0.91
175
1.05
137
1.19
145
2.44
167
2.19
200
RTSCtwo views3.28
183
0.98
163
1.45
215
0.78
146
0.96
173
1.01
185
2.41
226
1.17
112
1.33
197
2.40
220
2.02
198
1.27
152
1.03
192
1.14
228
40.84
240
3.19
164
1.99
217
1.31
229
4.15
177
1.44
191
3.49
138
5.65
110
0.68
154
1.18
203
1.17
158
1.04
125
2.44
167
2.09
193
GREAT-IGEVtwo views3.32
184
0.37
15
0.22
12
0.15
8
0.12
3
0.16
2
0.09
7
0.31
11
9.28
290
0.33
18
0.18
9
0.44
26
0.19
16
0.21
20
18.63
198
22.84
299
0.49
20
0.32
7
0.45
13
0.59
55
0.50
12
31.41
303
0.25
14
0.30
27
0.30
4
0.25
8
0.90
34
0.23
6
RAFT-Testtwo views3.32
184
0.86
111
1.22
192
1.02
181
0.82
155
0.59
113
0.58
134
2.18
232
0.70
138
1.12
146
7.31
273
1.02
124
0.91
176
0.59
147
9.35
150
11.60
259
1.14
160
0.81
112
7.01
235
1.28
180
10.82
248
17.19
258
0.76
182
0.77
134
1.51
208
4.92
258
1.38
68
2.16
199
CSANtwo views3.35
186
1.35
220
1.16
180
1.52
224
2.04
247
1.26
211
7.98
265
1.54
171
10.46
291
2.39
219
3.42
216
5.12
255
2.55
227
1.14
228
8.20
143
1.38
70
1.73
208
1.10
197
3.33
161
1.72
208
6.90
185
10.63
166
0.82
195
1.50
217
1.94
237
3.78
251
2.45
169
2.93
215
AEACVtwo views3.45
187
0.93
140
0.35
28
0.29
21
0.21
20
0.27
22
0.12
17
0.28
8
0.14
4
0.24
10
0.24
17
0.36
14
0.22
24
0.21
20
30.09
213
24.13
301
0.59
32
0.46
24
1.65
85
0.91
140
0.89
42
28.36
301
0.27
16
0.21
18
0.36
9
0.31
19
0.63
17
0.28
18
MFMNet_retwo views3.46
188
1.42
225
1.49
218
1.53
225
1.89
241
2.00
238
2.86
235
2.64
254
2.15
240
1.61
177
1.95
192
3.90
235
2.80
232
1.04
219
16.75
187
4.11
191
2.68
236
1.96
259
6.65
220
2.58
239
14.03
280
5.20
94
1.88
253
2.03
240
1.41
192
1.32
157
3.30
220
2.21
201
R-Stereo Traintwo views3.50
189
1.01
175
1.23
193
1.00
176
0.66
125
0.77
153
0.32
72
1.30
135
1.01
170
1.63
179
4.33
224
1.34
159
0.71
126
0.42
83
34.59
217
4.42
198
1.66
205
1.02
178
6.76
225
1.16
167
7.74
201
13.63
217
0.52
85
0.64
102
1.53
210
1.66
187
1.39
69
1.92
187
RAFT-Stereopermissivetwo views3.50
189
1.01
175
1.23
193
1.00
176
0.66
125
0.77
153
0.32
72
1.30
135
1.01
170
1.63
179
4.33
224
1.34
159
0.71
126
0.42
83
34.59
217
4.42
198
1.66
205
1.02
178
6.76
225
1.16
167
7.74
201
13.63
217
0.52
85
0.64
102
1.53
210
1.66
187
1.39
69
1.92
187
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSMDNettwo views3.50
189
0.89
123
1.16
180
0.58
101
0.75
137
0.62
119
0.50
121
2.02
221
0.62
118
1.04
139
1.76
183
1.11
137
12.05
270
0.61
151
12.99
172
10.73
250
1.17
164
0.81
112
6.92
233
1.46
194
11.45
253
17.23
259
0.72
166
0.84
151
1.47
202
1.81
199
1.28
62
1.94
189
AIO_rvctwo views3.52
192
0.72
50
0.41
36
0.34
33
0.22
22
0.35
35
0.17
27
0.57
30
0.28
30
0.38
23
0.22
16
0.56
33
0.25
27
0.29
32
23.43
203
18.50
293
0.51
23
0.48
27
2.01
98
0.55
43
0.84
38
41.45
306
0.49
66
0.23
23
0.51
30
0.29
16
0.74
24
0.33
22
FADNet_RVCtwo views3.56
193
1.23
202
1.25
198
1.44
220
1.84
236
1.07
191
1.92
215
1.49
164
1.21
190
1.36
162
1.98
196
2.15
196
1.78
215
1.70
247
24.01
204
3.18
163
2.07
224
2.72
281
5.67
203
1.96
221
6.65
181
9.51
153
0.82
195
1.59
220
1.21
163
1.51
172
12.03
282
2.86
214
EGLCR-Stereotwo views3.59
194
0.87
115
1.26
199
0.45
72
0.49
75
0.62
119
0.24
41
0.84
70
1.44
201
0.72
65
3.96
220
0.80
85
0.65
114
0.51
122
4.34
109
8.11
243
1.11
153
1.11
200
3.53
166
0.71
98
5.00
162
35.96
305
0.56
104
0.71
124
1.01
127
0.91
104
20.20
295
0.86
94
IPLGRtwo views3.62
195
0.90
126
0.93
129
0.65
120
0.68
129
0.51
81
0.44
106
1.14
109
0.45
68
2.02
201
1.29
167
0.88
96
0.76
142
0.48
109
49.71
272
1.92
127
1.37
186
1.13
201
3.29
157
1.45
192
3.00
131
15.33
231
0.59
123
1.08
194
1.51
208
1.93
211
3.46
225
0.91
102
SHDtwo views3.64
196
1.05
185
2.15
246
1.16
197
1.24
196
1.21
204
2.45
227
1.63
186
1.66
218
2.43
221
2.96
207
1.83
187
2.53
226
0.95
211
39.82
231
3.82
187
1.89
213
1.51
237
4.16
178
2.08
229
5.74
174
5.69
111
0.74
177
1.99
237
1.92
236
1.81
199
1.97
121
1.86
182
HHtwo views3.66
197
0.67
38
1.44
212
0.83
157
0.81
152
0.96
177
1.10
184
1.85
204
0.86
154
5.18
286
5.29
237
1.95
191
0.86
168
0.61
151
11.66
168
15.16
284
0.99
129
1.04
182
6.30
211
3.12
251
13.50
276
13.59
215
0.86
205
0.94
180
1.45
196
1.81
199
3.81
239
2.04
190
HanStereotwo views3.66
197
0.67
38
1.44
212
0.83
157
0.81
152
0.96
177
1.10
184
1.85
204
0.86
154
5.18
286
5.29
237
1.95
191
0.86
168
0.61
151
11.66
168
15.16
284
0.99
129
1.04
182
6.30
211
3.12
251
13.50
276
13.59
215
0.86
205
0.94
180
1.45
196
1.81
199
3.81
239
2.04
190
RTStwo views3.66
197
1.19
195
1.07
162
0.99
174
1.30
201
1.36
216
3.80
243
1.35
148
1.49
209
2.37
216
1.17
160
1.84
188
1.14
201
1.07
221
42.35
245
3.22
165
2.05
222
1.43
234
4.07
174
1.94
219
4.46
148
5.32
95
1.05
223
1.34
212
1.91
234
5.04
259
2.33
152
2.12
196
RTSAtwo views3.66
197
1.19
195
1.07
162
0.99
174
1.30
201
1.36
216
3.80
243
1.35
148
1.49
209
2.37
216
1.17
160
1.84
188
1.14
201
1.07
221
42.35
245
3.22
165
2.05
222
1.43
234
4.07
174
1.94
219
4.46
148
5.32
95
1.05
223
1.34
212
1.91
234
5.04
259
2.33
152
2.12
196
MSKI-zero shottwo views3.77
201
0.85
107
1.15
178
0.73
133
0.63
118
0.68
136
0.56
128
1.86
206
0.94
163
0.88
118
6.74
256
1.62
181
0.71
126
0.43
89
15.96
184
13.56
271
1.52
196
1.01
176
6.81
229
8.64
287
10.46
244
16.23
240
0.59
123
0.87
160
1.50
206
1.95
212
1.85
111
3.10
219
HSM-Net_RVCpermissivetwo views3.81
202
1.09
189
1.14
175
1.82
231
1.25
198
0.94
175
0.70
150
2.28
241
1.07
178
2.74
230
5.68
244
38.55
301
1.46
211
0.55
137
5.03
118
1.95
128
1.20
167
0.79
105
1.99
97
1.22
173
7.13
191
13.94
224
0.84
200
2.30
249
1.64
218
1.51
172
2.21
139
1.75
178
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HUFtwo views3.84
203
0.71
44
0.57
66
0.35
35
0.26
27
0.29
25
0.17
27
0.80
60
0.29
33
0.49
32
0.29
23
0.61
40
0.43
55
0.29
32
28.08
210
23.64
300
0.61
38
0.62
54
5.18
191
0.63
65
1.76
101
34.41
304
0.50
73
0.52
64
0.56
40
0.33
23
0.79
30
0.47
33
XQCtwo views3.85
204
1.31
214
1.36
208
1.30
210
1.53
217
1.33
215
2.55
229
1.62
183
1.46
205
2.54
223
3.01
209
1.69
183
4.90
246
1.38
240
44.59
251
3.43
172
1.76
210
1.35
231
3.99
173
1.75
209
4.57
152
5.16
92
0.89
214
1.42
215
2.05
240
2.68
234
2.31
149
2.06
192
FCDSN-DCtwo views3.99
205
0.97
157
2.81
267
1.39
216
1.40
211
1.15
197
1.19
193
0.91
83
0.91
161
1.04
139
0.72
100
1.58
180
0.75
137
0.63
160
52.37
292
2.42
150
1.30
178
1.13
201
1.11
53
0.80
116
7.88
207
16.59
245
0.81
191
2.41
257
1.31
174
1.68
189
1.29
63
1.11
132
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
UDGtwo views4.03
206
2.77
262
2.35
256
2.93
257
2.67
257
3.00
255
2.72
231
1.31
138
1.13
183
1.64
181
1.94
191
2.23
201
1.70
213
2.77
257
48.50
267
1.67
110
3.08
241
2.35
271
2.67
127
2.91
246
3.58
139
5.04
89
2.66
257
1.23
206
1.07
140
1.28
154
2.36
158
1.15
138
test-1two views4.23
207
0.69
42
1.20
189
0.60
105
0.60
105
0.75
150
0.64
141
1.95
209
0.80
146
4.00
265
5.47
240
2.20
199
0.79
152
0.41
73
24.74
205
12.65
267
1.45
189
1.51
237
6.68
222
6.25
278
10.73
247
20.07
278
0.58
117
0.87
160
1.46
198
1.76
197
2.89
202
2.51
207
IGEV_Zeroshot_testtwo views4.26
208
0.84
101
1.93
238
2.97
261
0.71
132
3.42
259
1.32
201
2.22
236
1.67
219
4.20
268
6.87
264
2.33
212
1.00
190
0.48
109
9.28
149
11.41
256
1.04
142
0.84
128
5.57
199
4.84
267
8.38
218
21.42
281
0.65
145
0.84
151
1.46
198
1.58
182
14.79
289
2.96
217
DeepPrunerFtwo views4.26
208
1.62
238
0.74
90
2.93
257
4.99
290
2.40
246
3.44
238
0.88
78
3.92
267
0.79
92
1.16
158
0.71
57
0.57
91
0.63
160
43.07
249
2.04
135
1.04
142
0.87
136
2.42
113
0.92
141
1.80
102
2.10
45
0.88
213
0.82
146
28.99
297
1.77
198
2.48
171
1.16
141
EKT-Stereotwo views4.27
210
0.97
157
1.18
186
0.73
133
0.77
142
0.89
168
1.18
191
2.02
221
1.53
213
1.56
174
4.82
232
1.25
150
0.80
156
0.54
134
31.80
215
14.62
279
1.26
175
1.36
232
5.54
198
7.66
283
9.42
234
17.09
256
0.57
114
0.75
129
1.41
192
1.82
203
2.56
183
1.07
126
PVDtwo views4.32
211
1.44
229
2.25
251
1.41
217
1.77
231
1.75
231
2.70
230
3.05
261
2.66
250
3.00
238
4.25
222
2.70
221
3.99
244
1.37
239
39.86
232
3.83
188
2.30
231
2.28
265
4.67
184
2.74
242
7.12
190
6.88
130
1.06
225
1.88
233
3.05
254
2.71
235
2.99
206
2.93
215
MFN_U_SF_DS_RVCtwo views4.37
212
1.52
233
1.06
158
2.01
239
1.95
244
2.24
243
6.41
259
2.14
228
2.21
241
1.72
187
1.55
178
2.74
225
6.14
250
6.25
279
28.17
211
1.81
120
1.51
194
1.06
190
5.38
195
1.78
210
12.52
257
8.92
148
1.51
246
1.25
209
2.26
243
3.39
247
3.05
209
7.55
257
AIO_testtwo views4.46
213
0.79
86
0.51
53
0.44
70
0.25
24
0.36
40
0.21
34
0.61
32
0.27
26
0.42
26
0.32
28
0.58
35
0.28
31
0.32
37
31.53
214
28.68
305
0.53
24
0.47
25
1.35
62
0.56
45
1.06
57
47.74
310
0.48
61
0.26
25
0.52
31
0.49
44
1.04
43
0.35
25
gcap-zeroshottwo views4.50
214
0.79
86
1.44
212
1.90
234
0.76
138
1.22
206
2.14
219
2.08
227
0.63
121
5.43
296
7.06
270
2.92
226
0.70
124
0.41
73
13.38
174
11.02
251
1.21
168
1.09
195
36.04
282
1.48
195
8.46
226
11.16
180
3.53
268
0.89
171
1.44
195
1.46
169
1.34
67
1.49
165
FC-DCNNcopylefttwo views4.51
215
1.62
238
4.08
281
2.84
255
2.39
250
3.98
262
10.51
279
2.63
253
1.71
221
2.88
232
1.36
173
4.19
244
1.34
207
0.70
179
7.04
133
2.00
131
1.35
184
1.04
182
9.58
248
0.98
152
9.23
232
16.30
241
0.86
205
1.84
229
4.65
265
2.21
225
7.62
270
16.90
278
FAT-Stereotwo views4.52
216
1.20
199
2.24
249
1.53
225
1.85
238
1.44
220
1.59
205
3.56
270
1.83
231
3.65
255
6.20
248
6.73
265
2.83
234
1.06
220
10.97
165
14.80
281
2.18
227
2.42
276
5.19
192
8.70
289
13.23
271
13.14
210
0.95
218
2.77
274
1.34
181
2.22
226
3.04
208
5.45
246
PSMNet-ADLtwo views4.56
217
0.97
157
1.17
184
1.19
201
1.28
199
1.04
188
0.92
170
1.77
198
1.26
192
3.47
249
6.08
246
1.51
173
3.10
239
0.57
143
51.86
289
9.30
245
1.51
194
0.96
160
5.92
206
1.28
180
6.83
184
12.62
204
0.87
210
0.88
167
1.17
158
1.43
167
3.02
207
1.17
142
NOSS_ROBtwo views4.59
218
1.38
224
0.84
107
1.18
198
1.29
200
1.18
198
0.68
148
2.34
244
1.43
200
4.86
277
6.67
255
6.78
267
1.06
195
10.45
287
17.10
191
14.19
275
1.64
201
1.16
207
3.03
140
1.02
158
14.13
281
17.92
265
0.82
195
1.66
223
1.27
169
4.91
257
3.40
223
1.44
163
SAMSARAtwo views4.67
219
1.33
217
1.79
230
1.51
223
1.56
222
1.58
225
3.79
242
2.22
236
1.93
233
2.38
218
3.37
215
2.12
195
9.35
258
2.02
252
37.97
224
5.46
213
2.03
221
1.62
243
4.95
187
2.84
244
6.73
182
6.13
121
1.00
219
2.01
238
4.21
264
6.28
268
4.36
244
5.44
245
AIO-Stereo-zeroshotpermissivetwo views4.68
220
1.27
210
2.35
256
1.21
206
1.52
216
1.82
235
1.18
191
2.02
221
7.37
284
3.67
258
7.12
271
2.40
214
1.99
218
0.42
83
5.56
126
11.42
257
1.54
199
1.15
204
6.68
222
6.15
277
8.32
215
17.95
266
0.64
141
1.37
214
1.74
226
7.67
274
16.62
293
5.12
242
ITSA-stereotwo views4.84
221
1.28
212
1.23
193
1.66
229
1.71
228
1.05
189
4.19
247
2.00
219
1.47
206
3.70
259
6.77
257
2.20
199
1.42
209
1.36
238
17.32
192
6.64
233
2.71
238
1.88
255
6.39
213
4.78
265
7.50
196
10.94
173
1.25
233
2.52
260
1.54
212
4.85
256
23.59
297
8.62
258
ADCReftwo views4.89
222
1.42
225
1.03
154
0.78
146
1.79
232
1.25
210
1.80
209
1.00
95
5.53
278
1.84
192
1.05
150
1.16
144
0.93
179
1.23
234
53.67
297
2.00
131
1.15
162
1.05
187
3.90
172
1.36
185
2.10
118
4.11
73
2.09
254
1.09
195
2.26
243
4.58
252
2.46
170
29.47
295
FC-DCNN v2copylefttwo views4.90
223
1.67
240
4.09
282
2.95
260
2.41
251
4.23
266
10.50
278
3.34
263
2.69
251
2.88
232
1.36
173
4.20
245
2.16
221
0.70
179
7.18
136
2.02
134
1.35
184
1.03
180
9.59
250
0.98
152
9.12
231
16.72
247
0.86
205
1.79
226
5.94
271
3.28
245
12.65
284
16.55
277
MADNet+two views4.92
224
2.05
252
1.88
235
2.10
242
2.41
251
1.62
228
5.57
254
2.53
250
2.09
237
2.66
228
2.11
199
4.11
241
2.91
235
2.54
255
41.01
241
5.19
209
4.09
249
1.69
245
4.60
183
3.68
260
13.15
270
7.71
136
1.76
250
3.65
289
3.07
255
2.16
223
3.24
218
3.28
225
MFN_U_SF_RVCtwo views5.03
225
1.91
248
1.84
232
2.23
247
1.92
243
2.67
250
6.14
256
2.41
245
1.98
236
4.44
271
10.81
291
4.14
243
2.48
225
4.92
275
32.71
216
3.59
180
2.29
230
1.81
252
11.46
257
3.54
256
7.96
209
7.26
134
1.24
232
3.78
291
1.85
230
3.74
250
2.83
199
3.90
233
SGM-Foresttwo views5.08
226
1.24
204
0.79
98
2.11
243
1.57
223
1.42
218
0.58
134
1.40
154
0.90
159
4.89
279
0.91
135
2.72
222
12.97
273
0.64
164
17.84
195
3.50
174
0.87
95
0.68
72
9.60
251
0.82
127
7.51
197
17.96
267
0.87
210
1.09
195
1.69
223
1.75
193
5.90
256
34.83
300
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCP+two views5.11
227
1.52
233
1.70
228
1.08
187
1.55
219
1.22
206
2.28
220
1.03
98
2.69
251
3.96
264
2.19
202
2.25
203
0.63
108
0.98
214
54.20
299
1.53
90
0.87
95
0.96
160
4.27
179
0.95
146
2.45
125
3.80
67
0.74
177
0.80
142
2.41
248
11.13
280
7.77
271
23.00
285
MSC_U_SF_DS_RVCtwo views5.15
228
2.25
258
1.46
216
2.42
249
2.07
248
2.04
240
5.18
251
1.97
213
2.61
247
2.96
236
1.93
190
3.79
234
10.20
261
10.36
286
27.56
209
3.55
178
3.01
240
1.99
260
14.19
260
3.59
257
7.40
194
9.91
156
2.85
264
1.93
234
2.42
250
2.82
236
2.19
135
6.53
254
S-Stereotwo views5.20
229
1.19
195
1.90
237
1.82
231
1.73
230
1.68
229
2.29
222
2.74
258
2.14
239
3.32
246
13.02
292
5.98
260
1.85
216
0.89
203
28.39
212
16.06
288
1.91
214
2.35
271
5.62
201
9.27
294
7.51
197
15.02
228
1.62
247
2.70
268
1.33
179
2.06
221
2.88
201
3.20
222
FBW_ROBtwo views5.25
230
2.41
259
2.49
259
2.72
253
2.98
267
2.61
249
6.30
258
1.78
199
1.10
180
2.52
222
2.82
206
4.91
253
8.67
255
6.67
280
49.93
275
1.28
60
1.82
212
0.97
163
9.21
246
1.68
205
9.07
229
5.89
117
4.29
272
1.84
229
1.48
204
1.92
209
1.81
108
2.56
208
EAI-Stereotwo views5.34
231
1.04
182
2.30
254
1.02
181
1.55
219
0.85
163
1.91
214
2.21
235
2.99
256
0.81
99
6.93
267
1.39
163
0.83
163
0.54
134
26.39
207
49.22
309
1.18
165
1.17
209
7.74
241
1.54
198
8.92
228
12.00
195
0.78
185
2.02
239
1.46
198
2.24
227
3.36
222
1.89
185
iRaft-Stereo_20wtwo views5.41
232
1.35
220
2.82
268
2.69
251
1.55
219
1.58
225
1.23
198
1.96
211
3.24
262
5.53
297
7.00
269
1.55
177
1.33
206
0.55
137
6.14
129
9.93
247
1.65
204
0.87
136
6.14
208
5.54
272
8.40
219
20.46
279
0.73
171
0.87
160
1.71
224
34.19
303
11.64
280
5.53
248
ccs_robtwo views5.44
233
1.11
191
1.53
219
1.20
204
0.97
174
1.19
201
1.07
181
2.86
259
1.25
191
4.19
266
35.07
301
8.65
278
1.42
209
0.76
187
35.68
220
6.12
222
1.64
201
1.17
209
5.87
205
1.60
201
10.36
243
12.86
207
0.76
182
2.22
248
1.10
144
1.34
158
2.64
191
2.22
202
CBMVpermissivetwo views5.62
234
1.43
227
1.24
197
1.61
227
1.61
224
1.96
236
2.28
220
3.43
264
1.48
207
3.08
240
6.42
251
7.79
271
9.12
256
0.62
156
17.34
193
13.54
270
2.64
235
1.27
226
9.58
248
1.19
170
10.31
241
16.88
253
0.86
205
2.04
243
1.64
218
1.86
204
4.52
245
26.08
290
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
model_zeroshottwo views5.64
235
0.77
75
1.32
206
1.93
236
0.99
175
0.64
127
0.62
138
1.94
208
0.65
128
3.86
262
6.90
265
1.45
167
0.65
114
0.66
171
15.20
182
14.91
282
1.28
176
1.06
190
7.09
236
1.05
159
13.05
269
25.85
292
0.63
138
0.75
129
39.07
308
1.65
186
2.16
132
6.16
252
ADCLtwo views5.74
236
1.87
246
1.62
225
1.28
208
1.42
212
1.61
227
2.34
225
1.29
133
5.06
276
3.00
238
1.99
197
1.30
157
0.87
171
1.13
227
49.88
274
1.73
116
1.64
201
1.77
249
3.04
141
1.41
188
3.47
137
3.84
69
1.23
229
1.32
211
9.34
284
11.37
281
11.30
279
28.87
294
ADCMidtwo views5.86
237
2.21
256
2.60
261
1.42
218
2.94
266
2.42
247
4.52
248
1.96
211
2.94
255
1.88
194
3.14
211
2.67
220
2.81
233
1.59
243
50.47
279
3.62
183
2.00
219
1.84
254
7.49
238
2.45
236
5.56
168
8.48
146
2.66
257
1.57
219
2.29
245
8.47
276
7.21
267
20.87
283
AnyNet_C32two views6.19
238
1.45
230
1.40
209
1.28
208
1.69
227
1.43
219
3.69
241
1.56
177
5.23
277
2.63
226
4.52
229
2.23
201
1.34
207
1.41
241
54.68
300
3.51
175
2.24
229
2.06
264
3.81
170
1.98
222
7.39
193
11.40
185
1.23
229
1.87
231
5.90
270
14.50
284
6.04
259
20.74
282
DPSNettwo views6.19
238
1.58
236
1.40
209
1.82
231
2.77
260
2.27
244
2.04
217
1.97
213
2.91
254
2.12
209
5.08
235
10.47
289
6.82
253
8.77
283
19.95
200
11.92
266
5.92
258
3.73
290
17.76
266
9.60
296
12.18
256
17.85
263
3.88
270
3.21
284
2.31
246
3.71
249
2.62
188
2.45
206
DDVStwo views6.28
240
1.19
195
1.34
207
1.13
191
1.54
218
1.21
204
1.06
178
2.48
247
1.74
223
3.43
247
79.09
309
6.13
261
1.94
217
1.15
231
10.44
161
6.06
221
2.12
226
1.31
229
5.58
200
4.97
269
9.98
239
13.68
219
0.82
195
1.24
207
1.22
165
1.52
176
4.65
246
2.63
209
G-Nettwo views6.30
241
1.67
240
1.86
233
1.46
222
1.83
235
1.49
223
1.31
200
4.92
284
8.45
287
3.15
241
4.65
230
7.94
272
6.81
252
0.87
201
16.87
189
7.83
240
1.93
216
2.71
280
5.65
202
6.44
280
9.07
229
11.41
186
1.44
240
2.80
276
1.78
228
18.73
291
6.49
263
30.54
296
otakutwo views6.32
242
5.21
284
2.43
258
18.55
290
3.05
269
6.58
282
5.21
252
1.43
158
1.44
201
1.31
160
1.39
176
3.94
238
2.76
228
3.25
264
26.81
208
1.43
75
10.64
274
1.19
214
20.32
272
1.71
207
13.88
279
11.69
189
11.83
302
2.03
240
1.64
218
2.05
219
2.52
177
6.37
253
SANettwo views6.32
242
2.20
255
1.79
230
2.07
241
2.63
256
3.36
257
10.20
275
4.41
282
7.43
285
2.04
203
4.35
226
8.33
275
12.55
271
1.80
249
47.09
262
1.72
113
6.07
259
1.51
237
4.45
180
1.81
212
9.80
236
10.36
162
1.21
228
2.72
272
2.04
239
5.93
267
3.67
232
9.02
259
RainbowNettwo views6.38
244
3.77
276
2.95
271
4.59
270
3.15
272
4.28
267
10.99
285
2.04
225
1.97
235
1.89
197
1.11
155
3.92
237
3.08
238
3.63
269
42.37
247
1.96
129
4.60
251
1.56
240
16.57
265
8.71
290
11.66
254
11.28
184
10.57
297
2.32
250
2.23
242
2.29
229
2.78
197
6.05
251
pmcnntwo views6.42
245
1.56
235
1.60
224
2.69
251
3.39
273
2.12
241
10.59
281
2.67
256
2.61
247
2.54
223
6.38
250
6.37
262
16.22
285
0.89
203
16.23
185
14.56
278
4.57
250
3.30
288
7.74
241
7.59
282
13.62
278
22.89
284
6.22
282
2.53
261
1.86
231
3.14
242
4.68
247
4.77
236
HBP-ISPtwo views6.55
246
1.35
220
2.23
248
1.99
237
1.62
225
1.78
232
0.81
160
2.50
248
1.26
192
4.90
280
6.79
258
1.42
166
0.75
137
14.52
293
52.81
294
19.38
295
1.33
181
1.14
203
6.08
207
7.98
285
12.72
260
19.17
275
0.83
199
1.51
218
2.15
241
2.05
219
3.91
243
3.74
230
edge stereotwo views6.57
247
1.88
247
3.13
274
2.21
246
1.87
240
2.69
252
3.15
236
4.49
283
3.41
264
3.95
263
4.81
231
6.45
263
20.30
289
1.11
224
18.59
197
14.65
280
2.02
220
1.64
244
36.45
283
6.00
276
7.11
189
13.70
221
1.44
240
2.08
244
2.35
247
2.08
222
3.74
233
5.94
250
SQANettwo views6.61
248
4.52
283
2.25
251
19.46
291
2.80
261
5.78
277
5.10
249
1.62
183
1.42
199
1.20
148
1.35
171
3.49
231
2.47
224
2.79
258
39.69
230
1.32
65
10.61
272
1.08
194
20.69
274
1.49
196
12.87
262
10.98
174
11.36
300
1.61
221
1.68
222
2.30
230
2.67
194
5.76
249
SPS-STEREOcopylefttwo views6.95
249
1.75
243
1.96
241
2.47
250
1.71
228
2.67
250
7.51
262
2.73
257
1.77
226
3.62
254
6.80
260
4.88
252
2.19
222
1.30
236
41.49
242
11.88
265
3.62
246
2.04
261
36.63
285
2.04
225
14.17
282
17.87
264
1.48
244
2.69
267
2.50
251
3.26
244
3.74
233
2.81
213
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ADCStwo views7.02
250
1.96
251
1.96
241
1.45
221
2.34
249
1.96
236
3.44
238
2.25
238
3.95
269
2.64
227
3.13
210
3.52
232
17.50
287
2.18
253
52.87
295
11.38
255
3.10
242
2.55
279
5.10
189
2.56
238
10.82
248
10.12
158
1.74
249
2.12
245
2.53
252
10.38
279
7.40
268
18.54
280
ADCPNettwo views7.22
251
1.20
199
3.00
273
1.33
211
3.12
271
1.46
221
9.28
272
2.20
233
3.19
260
4.19
266
7.62
277
2.54
216
15.76
283
1.74
248
49.34
271
3.53
177
2.22
228
1.25
224
19.78
270
3.05
250
6.47
179
6.78
128
4.59
273
1.45
216
3.90
262
5.06
261
3.90
242
26.91
291
ACVNet_1two views7.23
252
3.88
278
3.60
278
16.55
287
3.61
279
6.82
284
10.77
282
1.61
182
1.77
226
1.62
178
1.34
170
4.64
249
3.07
237
7.87
281
46.54
259
1.46
80
11.70
280
1.77
249
20.85
275
1.62
203
14.44
293
9.86
154
7.17
284
2.93
279
1.84
229
2.33
231
2.75
196
2.71
211
TRStereotwo views7.27
253
1.32
215
1.93
238
0.85
161
0.64
121
2.31
245
0.87
165
2.20
233
0.84
152
4.40
270
1.76
183
2.27
211
0.75
137
0.53
127
9.78
152
18.00
291
0.89
101
0.90
149
5.70
204
1.69
206
7.47
195
17.27
260
0.63
138
0.64
102
1.43
194
106.42
313
3.23
216
1.61
173
Ntrotwo views7.30
254
6.21
288
2.53
260
8.29
280
3.01
268
5.20
274
8.21
267
1.40
154
1.51
211
1.44
169
1.19
162
3.90
235
2.78
230
3.15
263
35.64
219
1.27
58
10.61
272
1.27
226
45.74
293
1.93
218
14.28
289
11.91
194
11.38
301
2.65
266
1.73
225
2.28
228
2.54
181
4.94
239
anonymitytwo views7.31
255
0.90
126
1.71
229
1.15
195
0.92
164
0.82
160
0.78
157
2.16
230
1.73
222
3.78
261
97.18
310
1.99
193
0.92
177
0.53
127
9.97
154
7.82
239
1.13
159
0.89
144
6.68
222
1.45
192
7.79
203
18.56
271
0.75
180
0.77
134
1.50
206
1.58
182
21.11
296
2.77
212
CBMV_ROBtwo views7.32
256
1.49
232
2.01
244
2.37
248
1.95
244
2.94
254
2.85
234
6.45
289
1.67
219
5.35
294
6.91
266
9.95
285
11.78
268
0.67
174
38.78
225
6.71
234
3.91
247
1.19
214
10.02
253
2.47
237
9.67
235
17.08
255
0.81
191
1.62
222
7.83
279
10.07
278
5.85
254
25.35
289
AnyNet_C01two views7.46
257
2.22
257
2.25
251
2.99
262
1.99
246
1.80
234
6.11
255
3.82
276
5.59
279
3.15
241
4.35
226
4.84
251
6.54
251
2.23
254
58.48
301
14.06
274
6.69
262
3.67
289
4.82
186
3.18
253
8.68
227
13.81
223
2.41
255
2.39
255
5.67
268
3.29
246
8.76
274
17.77
279
WAO-6two views7.60
258
2.96
264
2.69
263
8.39
282
2.91
265
4.09
264
9.80
273
3.51
269
3.29
263
1.83
191
2.44
204
6.58
264
10.28
264
3.07
260
50.48
280
2.35
146
13.45
290
1.89
257
9.14
245
2.24
234
14.27
286
12.25
198
3.34
267
2.73
273
7.78
278
7.61
273
4.78
251
11.18
268
ACVNet_2two views7.60
258
3.56
270
2.92
270
21.71
294
3.45
277
5.03
273
10.20
275
1.84
202
1.75
224
1.88
194
1.90
189
4.13
242
3.42
242
3.13
262
48.14
266
1.55
98
12.78
286
1.59
241
33.01
281
1.79
211
11.17
251
7.89
138
6.76
283
2.80
276
3.11
257
2.99
240
3.50
227
3.10
219
IMH-64-1two views7.69
260
3.33
266
3.54
275
4.78
271
3.41
274
4.66
269
7.94
263
3.50
267
3.08
257
1.39
166
1.97
193
5.46
256
11.00
265
5.06
276
51.74
285
4.54
200
6.41
260
2.30
268
19.20
268
2.05
226
8.35
216
10.70
167
7.76
291
2.38
252
6.01
272
4.61
253
13.27
287
9.08
260
IMH-64two views7.69
260
3.33
266
3.54
275
4.78
271
3.41
274
4.66
269
7.94
263
3.50
267
3.08
257
1.39
166
1.97
193
5.46
256
11.00
265
5.06
276
51.74
285
4.54
200
6.41
260
2.30
268
19.20
268
2.05
226
8.35
216
10.70
167
7.76
291
2.38
252
6.01
272
4.61
253
13.27
287
9.08
260
Deantwo views7.71
262
3.73
275
2.70
264
34.51
299
4.04
284
5.77
276
11.08
286
2.27
240
2.38
245
2.20
210
1.67
180
5.02
254
5.62
248
3.37
265
48.84
269
1.81
120
12.14
283
1.69
245
9.97
252
2.18
231
14.18
283
9.87
155
7.32
286
2.79
275
3.52
259
2.90
237
3.53
228
3.17
221
FINETtwo views8.71
263
0.76
71
1.06
158
0.73
133
0.61
107
0.65
129
0.96
172
1.14
109
10.65
292
0.64
53
8.32
283
1.23
148
12.97
273
0.66
171
19.47
199
15.19
286
1.11
153
0.67
70
4.45
180
3.30
254
6.92
186
25.13
290
0.48
61
1.82
227
33.04
301
36.43
307
1.44
72
45.32
310
WAO-7two views9.07
264
3.01
265
5.43
292
29.81
297
2.48
253
4.10
265
9.87
274
2.50
248
4.12
271
4.70
275
7.51
274
8.00
273
14.77
281
1.87
250
40.78
239
2.16
138
12.66
284
2.78
283
45.71
292
2.18
231
10.61
245
10.06
157
1.41
237
2.61
264
3.09
256
4.78
255
2.98
205
5.05
241
MeshStereopermissivetwo views9.32
265
2.66
260
2.34
255
4.20
267
2.89
264
4.28
267
2.45
227
8.29
299
9.16
289
5.14
285
8.46
285
11.16
290
13.23
278
0.85
200
51.81
288
15.66
287
4.76
254
1.82
253
21.81
277
1.92
217
15.41
299
19.79
276
1.07
226
2.40
256
8.53
283
5.45
262
10.67
277
15.48
275
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
IMHtwo views9.35
266
3.37
269
3.55
277
4.56
269
3.42
276
4.71
272
8.11
266
3.47
266
3.11
259
1.42
168
1.87
188
5.75
258
16.21
284
47.47
309
51.66
284
2.73
154
9.15
268
2.36
273
20.87
276
2.09
230
8.20
214
10.33
160
8.06
294
2.34
251
7.63
277
5.85
266
3.76
237
10.29
266
ELAS_RVCcopylefttwo views9.44
267
3.33
266
5.58
293
4.11
266
3.68
280
7.49
288
6.29
257
7.70
295
3.76
266
5.25
290
7.74
279
9.89
281
11.05
267
3.12
261
47.81
265
4.61
203
7.01
263
9.67
299
11.32
255
2.99
249
13.48
274
18.09
269
2.75
260
4.11
292
20.24
293
23.51
293
5.06
252
5.25
243
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MADNet++two views9.58
268
4.14
282
6.28
296
4.33
268
5.76
293
4.05
263
8.92
270
7.11
291
7.31
283
5.28
292
7.81
280
7.63
270
9.16
257
13.24
290
22.87
201
20.42
296
7.52
266
6.31
294
10.37
254
7.95
284
14.23
284
18.70
272
4.07
271
5.38
295
5.79
269
22.37
292
9.94
276
11.72
269
AIO-Stereo-zeroshot1permissivetwo views9.97
269
1.84
245
2.24
249
1.34
212
1.79
232
1.78
232
1.71
208
2.17
231
7.58
286
3.47
249
7.13
272
2.44
215
2.07
220
0.38
60
10.77
164
13.53
269
1.54
199
1.19
214
136.48
308
6.52
281
8.17
213
26.38
296
0.61
130
0.97
186
1.28
170
18.58
289
2.35
156
4.90
238
PWCKtwo views10.29
270
3.91
279
2.77
266
4.89
275
3.54
278
7.32
287
8.68
268
3.93
278
4.63
275
4.65
274
5.75
245
24.50
297
9.85
260
3.38
266
35.70
221
3.25
167
10.92
275
2.38
274
72.59
303
5.10
270
14.78
295
8.07
141
3.71
269
2.51
259
7.91
280
7.44
270
6.33
260
9.46
263
SFCPSMtwo views10.77
271
1.34
219
1.09
166
1.15
195
1.19
194
1.19
201
0.90
168
1.29
133
1.76
225
2.70
229
5.58
243
4.33
246
10.25
263
1.08
223
51.59
283
5.22
210
1.99
217
1.17
209
161.66
311
4.44
262
7.65
200
11.04
177
0.84
200
1.68
224
1.34
181
1.75
193
3.44
224
3.04
218
ELAScopylefttwo views10.84
272
3.56
270
4.96
286
4.79
273
4.42
289
5.56
275
6.51
260
7.57
292
3.94
268
5.28
292
7.73
278
9.90
283
11.95
269
3.98
272
51.90
290
4.58
202
7.45
265
9.46
297
9.29
247
2.75
243
13.28
272
17.44
261
2.75
260
3.75
290
17.66
291
27.22
297
13.08
286
31.86
298
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views11.01
273
9.35
297
6.18
295
8.36
281
7.13
298
10.04
297
10.87
283
5.04
285
4.04
270
2.99
237
3.99
221
9.99
286
9.75
259
8.16
282
48.50
267
14.21
276
7.41
264
5.05
293
7.73
240
3.91
261
13.36
273
18.71
273
8.17
295
3.64
288
11.32
286
18.46
288
12.54
283
28.46
293
SGM_RVCbinarytwo views11.64
274
2.80
263
1.89
236
2.92
256
2.54
255
4.66
269
8.81
269
7.78
297
3.50
265
5.57
298
8.27
281
9.89
281
12.97
273
0.97
213
4.41
110
2.83
157
7.65
267
1.17
209
40.85
287
6.32
279
10.68
246
24.24
287
1.79
251
3.32
286
27.82
296
35.58
304
31.94
304
43.00
306
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
UNDER WATER-64two views11.94
275
7.33
295
5.26
290
17.03
288
7.50
299
8.66
294
16.40
295
8.75
301
4.42
273
4.46
272
3.23
213
17.69
293
16.25
286
9.32
284
46.44
257
10.50
249
13.88
297
3.04
287
12.89
259
8.65
288
14.27
286
14.74
227
10.97
298
4.47
293
6.36
275
18.61
290
9.42
275
21.90
284
LSM0two views11.96
276
1.70
242
2.88
269
2.75
254
2.51
254
3.46
260
9.27
271
4.20
280
4.16
272
3.65
255
7.52
275
7.40
269
10.23
262
1.32
237
64.87
305
78.56
312
4.73
253
2.33
270
20.33
273
4.80
266
14.31
290
17.05
254
1.30
236
3.15
282
3.41
258
15.40
287
6.33
260
25.24
288
LVEtwo views12.08
277
3.68
273
2.75
265
55.08
308
4.35
288
8.14
291
74.25
311
1.97
213
2.42
246
2.31
215
1.72
182
4.79
250
5.02
247
3.47
268
40.00
234
2.29
143
11.14
276
1.88
255
50.99
298
2.03
224
10.30
240
12.06
197
5.50
274
3.25
285
3.73
261
3.25
243
3.10
210
6.68
256
DGSMNettwo views12.30
278
2.15
253
2.14
245
1.99
237
1.68
226
2.73
253
1.82
210
3.08
262
2.11
238
12.64
304
99.93
311
4.00
240
18.54
288
19.58
300
45.95
255
15.08
283
12.73
285
10.09
300
15.38
263
4.59
264
13.00
267
15.62
234
7.34
287
3.49
287
1.76
227
5.84
265
3.48
226
5.37
244
JetRedtwo views12.58
279
6.94
294
7.73
297
4.83
274
6.78
296
9.44
296
10.92
284
5.31
288
4.60
274
5.84
300
3.34
214
8.16
274
8.25
254
9.89
285
50.58
281
14.44
277
10.47
271
7.92
295
7.78
243
5.56
273
18.07
304
24.74
289
11.23
299
4.59
294
12.62
287
25.80
295
25.52
299
28.19
292
MDST_ROBtwo views12.84
280
32.58
305
1.86
233
20.66
293
2.84
263
7.65
289
3.50
240
4.02
279
1.51
211
3.73
260
6.49
252
3.22
229
42.47
296
0.80
196
50.42
278
2.20
140
1.29
177
0.83
123
18.69
267
1.42
189
12.92
264
18.51
270
1.50
245
1.82
227
24.51
295
15.09
285
31.82
302
34.42
299
XX-Stereotwo views13.13
281
0.72
50
1.28
201
1.04
183
0.54
94
0.81
159
0.87
165
1.13
108
0.51
91
4.52
273
6.79
258
1.56
179
1.04
193
0.49
113
39.98
233
16.92
290
1.52
196
0.95
157
6.78
228
0.95
146
6.18
178
13.69
220
0.71
164
0.52
64
237.32
313
1.37
160
2.63
190
3.58
226
TorneroNet-64two views13.22
282
6.29
290
5.03
288
34.00
298
3.73
283
10.39
298
16.61
296
3.46
265
12.22
300
2.26
213
5.35
239
17.42
292
34.25
294
14.90
294
47.42
264
3.17
162
13.22
289
2.42
276
36.46
284
9.14
293
14.27
286
12.82
206
5.64
275
2.71
269
14.05
290
13.61
282
3.58
230
12.45
270
notakertwo views13.32
283
13.02
300
4.84
283
18.53
289
6.99
297
8.41
293
14.34
292
3.85
277
3.23
261
2.91
234
2.14
201
31.16
299
43.76
297
4.86
274
85.76
309
2.65
153
12.81
287
2.79
284
43.18
290
2.96
248
14.95
296
11.46
187
7.77
293
3.13
281
2.66
253
2.97
239
3.75
235
4.87
237
ACV-stereotwo views13.53
284
1.95
249
1.64
227
2.13
244
1.16
191
3.41
258
1.39
202
1.71
193
1.85
232
2.95
235
4.86
233
3.99
239
45.11
298
1.12
225
53.60
296
16.55
289
2.70
237
1.30
228
170.74
312
4.49
263
12.74
261
16.57
244
1.00
219
1.87
231
1.39
190
3.04
241
3.75
235
2.35
204
SGM-ForestMtwo views13.80
285
10.32
299
8.18
298
4.90
276
3.69
281
7.87
290
10.55
280
7.61
293
10.68
293
5.09
284
8.30
282
9.49
280
12.89
272
4.42
273
49.85
273
13.64
273
10.21
270
1.16
207
11.67
258
8.91
291
11.41
252
24.59
288
3.28
265
5.76
297
31.49
299
36.13
305
19.13
294
41.30
305
WAO-8two views14.11
286
5.49
285
4.86
284
26.82
295
4.15
286
6.96
285
11.78
289
3.65
274
6.35
281
31.53
308
38.68
303
8.33
275
22.49
290
20.27
303
50.28
276
3.34
169
11.20
278
2.04
261
55.23
300
5.70
274
9.91
237
11.24
182
5.91
277
2.59
262
8.00
281
7.57
271
6.79
264
9.89
264
Venustwo views14.11
286
5.49
285
4.86
284
26.82
295
4.15
286
6.96
285
11.78
289
3.65
274
6.35
281
31.53
308
38.68
303
8.33
275
22.49
290
20.27
303
50.28
276
3.34
169
11.20
278
2.04
261
55.23
300
5.70
274
9.91
237
11.24
182
5.91
277
2.59
262
8.00
281
7.57
271
6.79
264
9.89
264
SGM+DAISYtwo views15.03
288
3.86
277
5.41
291
3.96
265
3.71
282
6.66
283
7.44
261
7.77
296
10.90
297
5.69
299
8.99
289
9.93
284
13.12
277
3.67
270
45.62
254
18.93
294
4.69
252
3.97
292
15.74
264
13.34
299
15.06
297
28.38
302
1.46
242
13.52
304
34.47
303
36.45
308
37.75
307
45.36
311
ACVNet-4btwo views15.72
289
4.04
280
2.68
262
44.32
304
2.83
262
6.13
280
62.22
308
1.84
202
1.78
228
1.65
182
1.24
163
4.40
248
112.58
311
3.38
266
47.32
263
1.32
65
16.00
299
1.73
248
55.10
299
2.19
233
14.48
294
16.37
243
7.30
285
3.18
283
1.64
218
1.88
205
2.20
136
4.57
235
MANEtwo views15.81
290
9.88
298
8.25
299
5.12
279
6.22
295
8.39
292
11.49
288
7.67
294
10.83
296
4.97
281
8.34
284
8.98
279
12.97
273
3.88
271
48.84
269
18.39
292
11.83
281
20.15
305
11.32
255
9.38
295
13.48
274
26.38
296
2.78
263
12.22
301
32.08
300
36.35
306
33.31
305
43.41
307
DispFullNettwo views16.30
291
3.61
272
4.99
287
3.31
263
3.08
270
3.50
261
3.23
237
6.46
290
2.69
251
5.18
286
6.80
260
88.00
309
15.13
282
2.74
256
39.32
228
24.41
302
4.06
248
3.86
291
139.45
309
28.19
305
12.57
258
15.74
236
2.71
259
2.38
252
4.19
263
2.67
233
6.81
266
5.03
240
UNDER WATERtwo views16.74
292
8.01
296
5.18
289
15.67
286
9.29
302
8.94
295
36.85
303
8.38
300
6.23
280
4.21
269
3.00
208
18.64
294
96.12
309
15.60
297
37.14
222
10.17
248
14.68
298
2.79
284
47.09
295
8.60
286
17.12
302
13.21
211
17.04
304
5.56
296
6.15
274
15.22
286
6.39
262
14.80
274
PSMNet_ROBtwo views17.18
293
5.57
287
2.98
272
3.51
264
2.73
259
6.41
281
10.28
277
2.31
243
2.27
244
4.77
276
140.21
312
98.21
310
6.08
249
34.53
306
10.47
162
1.72
113
5.37
256
1.72
247
20.16
271
3.45
255
13.00
267
8.00
139
63.38
312
2.71
269
3.54
260
3.57
248
3.25
219
3.61
227
STStereotwo views17.90
294
3.70
274
5.94
294
43.89
303
5.62
292
39.01
306
13.50
291
7.84
298
10.79
295
5.25
290
8.94
286
24.58
298
30.28
293
1.98
251
59.79
304
13.60
272
5.75
257
1.79
251
40.86
288
5.29
271
11.04
250
15.34
232
2.47
256
11.83
300
23.98
294
30.27
299
23.75
298
36.15
301
DGTPSM_ROBtwo views18.53
295
6.49
291
18.04
302
4.98
277
8.90
300
5.93
278
18.56
298
5.08
286
12.04
298
5.07
283
9.28
290
12.68
291
55.86
304
15.28
295
66.30
306
20.57
297
19.32
302
16.27
302
24.75
278
20.04
302
16.70
301
22.25
282
6.01
280
12.63
302
13.88
288
32.46
301
14.80
290
36.23
302
DPSM_ROBtwo views21.09
296
17.18
301
22.68
304
10.13
283
9.29
302
13.96
299
14.47
293
11.66
302
15.25
302
9.00
301
8.97
287
10.35
287
13.24
279
19.82
301
59.61
302
26.09
303
18.75
300
21.25
306
14.76
261
15.47
300
28.53
307
28.20
299
7.44
288
16.13
305
34.47
303
39.29
310
38.28
308
45.08
308
DPSMtwo views21.09
296
17.18
301
22.68
304
10.13
283
9.29
302
13.96
299
14.47
293
11.66
302
15.25
302
9.00
301
8.97
287
10.35
287
13.24
279
19.82
301
59.61
302
26.09
303
18.75
300
21.25
306
14.76
261
15.47
300
28.53
307
28.20
299
7.44
288
16.13
305
34.47
303
39.29
310
38.28
308
45.08
308
KSHMRtwo views21.80
298
6.71
293
4.04
280
99.23
312
6.14
294
41.63
308
70.49
310
3.63
273
8.86
288
3.60
253
3.42
216
6.78
267
84.46
308
17.61
298
40.67
236
3.96
189
10.14
269
2.82
286
90.71
306
2.91
246
12.90
263
12.31
199
9.04
296
2.84
278
19.52
292
5.56
263
8.25
272
10.42
267
MaskLacGwcNet_RVCtwo views22.39
299
1.43
227
1.63
226
2.01
239
1.89
241
2.00
238
4.03
245
2.25
238
2.65
249
5.01
282
28.79
299
216.21
314
50.44
303
5.46
278
37.62
223
4.30
196
5.35
255
12.78
301
28.48
279
1.49
196
14.42
292
12.87
208
1.01
221
2.45
258
1.87
232
7.04
269
145.49
314
5.50
247
DLNR_Zeroshot_testpermissivetwo views24.07
300
81.88
313
1.95
240
101.60
313
0.50
78
0.56
97
81.29
312
2.29
242
0.50
87
4.86
277
2.13
200
3.03
227
0.93
179
12.16
289
103.32
311
142.13
314
34.14
306
19.58
304
8.61
244
4.90
268
8.02
211
28.05
298
0.55
97
0.85
158
1.36
186
1.54
178
1.21
58
1.87
183
DPSMNet_ROBtwo views24.31
301
6.50
292
18.05
303
5.02
278
8.92
301
6.00
279
18.76
299
5.09
287
12.07
299
5.20
289
26.86
298
20.02
295
160.56
313
15.40
296
77.59
308
20.75
298
19.63
303
16.57
303
37.30
286
20.17
303
17.40
303
22.27
283
6.03
281
12.63
302
13.98
289
32.46
301
14.87
291
36.24
303
TorneroNettwo views25.03
302
6.23
289
3.71
279
95.21
311
4.04
284
30.59
304
28.04
300
4.36
281
17.91
304
2.20
210
37.98
302
81.16
308
72.52
305
18.24
299
46.94
261
2.75
155
13.19
288
2.38
274
87.74
304
9.05
292
15.54
300
12.50
203
5.92
279
2.71
269
49.11
309
8.21
275
3.60
231
13.88
273
LRCNet_RVCtwo views27.23
303
30.79
304
14.68
301
35.16
301
31.14
307
36.50
305
30.07
302
23.05
306
12.67
301
36.10
310
33.27
300
37.41
300
28.58
292
37.19
307
51.77
287
7.29
238
31.08
305
27.01
309
67.79
302
28.97
306
22.94
306
11.62
188
39.23
307
30.57
309
7.31
276
2.54
232
11.22
278
9.26
262
ktntwo views29.25
304
4.04
280
95.12
313
14.38
285
5.47
291
18.03
301
17.50
297
16.11
305
67.22
312
2.86
231
5.27
236
171.03
313
80.57
307
10.72
288
76.12
307
3.35
171
21.01
304
2.75
282
90.20
305
29.10
307
15.07
298
11.01
175
7.65
290
3.01
280
5.09
266
5.80
264
4.72
248
6.57
255
LE_ROBtwo views30.50
305
24.69
303
35.49
307
34.61
300
56.81
313
18.87
302
58.99
307
31.76
308
41.68
307
5.39
295
26.68
297
46.42
302
49.67
301
13.45
291
40.69
238
4.22
192
12.06
282
1.23
218
46.44
294
37.28
309
12.68
259
19.06
274
48.23
308
22.44
307
30.42
298
31.57
300
31.85
303
40.86
304
PMLtwo views39.12
306
38.07
307
12.03
300
39.14
302
28.99
306
40.52
307
11.18
287
14.17
304
98.92
313
27.80
307
165.99
313
107.70
311
159.11
312
13.58
292
17.37
194
11.85
264
35.22
307
8.64
296
42.84
289
11.21
298
14.35
291
16.59
245
5.89
276
7.24
299
52.84
310
13.89
283
42.19
310
18.91
281
CasAABBNettwo views43.13
307
34.58
306
45.64
308
20.16
292
18.53
305
28.05
303
29.10
301
23.25
307
30.68
305
18.72
306
18.11
293
20.71
296
37.91
295
39.77
308
120.31
312
53.12
311
37.70
308
42.54
310
29.33
280
30.54
308
57.52
313
65.08
312
14.60
303
32.33
310
69.15
312
79.07
312
76.98
311
90.93
313
HaxPigtwo views44.55
308
46.74
309
47.29
309
47.70
305
48.78
309
47.59
309
48.40
304
49.50
309
47.10
308
49.76
311
50.30
305
49.05
303
45.31
299
54.53
310
41.50
243
40.24
306
50.13
310
52.04
311
44.70
291
43.04
310
46.59
309
44.52
307
51.78
309
45.41
311
33.76
302
25.29
294
28.70
300
23.20
286
AVERAGE_ROBtwo views46.10
309
48.44
310
48.15
310
49.32
306
50.20
310
48.59
310
49.79
305
50.71
311
48.61
309
51.66
312
52.51
306
50.25
304
47.27
300
55.77
311
43.02
248
41.01
307
52.37
311
54.54
312
47.19
296
45.40
311
48.69
310
44.71
308
52.87
310
46.96
312
35.70
306
26.55
296
30.75
301
23.74
287
HanzoNettwo views48.72
310
45.82
308
75.50
312
62.48
309
48.71
308
62.22
312
81.53
313
55.12
313
62.18
311
15.62
305
22.35
296
75.50
307
105.13
310
172.23
314
54.19
298
11.79
261
63.30
313
9.59
298
142.68
310
22.42
304
19.77
305
25.86
293
34.29
306
5.85
298
9.77
285
9.44
277
8.54
273
13.60
272
MEDIAN_ROBtwo views49.56
311
51.56
311
50.68
311
52.75
307
53.71
311
52.03
311
53.33
306
54.25
312
52.17
310
54.87
313
55.86
308
53.55
305
50.14
302
59.05
312
46.45
258
44.58
308
55.75
312
57.86
313
50.47
297
48.81
312
52.02
311
47.66
309
56.65
311
49.99
313
38.96
307
30.09
298
33.54
306
31.34
297
BEATNet-Init1two views54.98
312
76.29
312
23.41
306
86.88
310
56.39
312
86.85
313
69.29
309
49.55
310
36.32
306
11.75
303
54.61
307
64.36
306
78.43
306
21.46
305
91.69
310
51.99
310
38.14
309
22.22
308
101.82
307
73.02
313
54.14
312
49.15
311
27.76
305
24.21
308
58.43
311
37.31
309
77.81
312
61.10
312
STTRV1_RVCtwo views1.35
220
1.13
172
1.70
230
1.33
206
2.15
242
1.82
210
1.56
177
1.45
203
1.88
194
3.47
218
3.12
228
4.87
245
1.12
225
6.48
231
11.18
277
1.07
193
10.39
297
9.37
233
2.21
247
5.53
267
2.91
238
5.85
254
13.08
271
DPSimNet_ROBtwo views193.45
314
99.23
314
195.37
314
175.02
314
155.06
314
112.88
314
167.32
314
164.47
314
99.95
314
205.57
314
169.31
312
207.38
314
93.94
313
127.45
313
85.03
313
87.66
314
201.24
313
103.73
314
162.25
314
98.87
313
105.97
313
134.73
314
183.74
314
136.27
313
168.25
314