This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort by
ProNettwo views0.09
2
0.09
4
0.09
4
0.07
3
0.05
3
0.09
5
0.08
11
0.08
2
0.04
2
0.06
1
0.17
15
0.06
1
0.04
1
0.05
6
0.14
2
0.14
1
0.15
2
0.13
3
0.13
1
0.09
2
0.14
1
0.08
1
0.08
12
0.07
4
0.11
1
0.10
1
0.10
1
0.08
1
MoCha-V2two views0.09
2
0.09
4
0.06
2
0.08
5
0.05
3
0.05
1
0.04
2
0.09
4
0.06
4
0.07
2
0.07
3
0.10
3
0.05
3
0.04
4
0.13
1
0.15
2
0.15
2
0.14
4
0.15
3
0.10
5
0.15
2
0.09
2
0.06
5
0.06
2
0.12
2
0.11
2
0.11
2
0.08
1
CroCo-Stereocopylefttwo views0.08
1
0.06
1
0.05
1
0.05
1
0.03
2
0.05
1
0.03
1
0.08
2
0.03
1
0.07
2
0.02
1
0.08
2
0.04
1
0.02
1
0.15
4
0.16
4
0.14
1
0.12
1
0.14
2
0.08
1
0.15
2
0.09
2
0.03
1
0.04
1
0.15
3
0.14
3
0.15
4
0.10
3
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.13
5
0.08
3
0.09
4
0.11
8
0.05
3
0.15
18
0.04
2
0.18
11
0.10
6
0.10
4
0.13
6
0.13
7
0.08
6
0.03
2
0.15
4
0.15
2
0.17
5
0.12
1
0.18
4
0.09
2
0.15
2
0.14
7
0.04
3
0.08
5
0.22
13
0.21
11
0.23
15
0.20
12
StereoVisiontwo views0.14
7
0.10
6
0.09
4
0.07
3
0.10
9
0.11
7
0.07
7
0.13
6
0.17
23
0.13
7
0.12
5
0.11
4
0.08
6
0.04
4
0.20
12
0.21
13
0.20
6
0.16
6
0.18
4
0.14
7
0.16
5
0.14
7
0.04
3
0.10
7
0.23
14
0.22
16
0.25
18
0.25
20
CroCo-Stereo Lap2two views0.10
4
0.07
2
0.06
2
0.06
2
0.06
6
0.06
3
0.04
2
0.06
1
0.05
3
0.14
9
0.05
2
0.11
4
0.05
3
0.03
2
0.14
2
0.17
5
0.16
4
0.14
4
0.19
8
0.09
2
0.18
6
0.10
4
0.03
1
0.06
2
0.16
5
0.18
8
0.15
4
0.11
4
RYNettwo views0.18
10
0.16
11
0.13
11
0.11
8
0.12
17
0.13
11
0.09
13
0.16
8
0.27
100
0.13
7
0.15
12
0.13
7
0.10
10
0.09
16
0.23
24
0.19
8
0.20
6
0.27
36
0.22
9
0.14
7
0.18
6
0.15
11
0.25
131
0.14
17
0.20
8
0.50
117
0.22
9
0.16
7
AEACVtwo views0.13
5
0.17
15
0.09
4
0.12
11
0.11
14
0.09
5
0.05
5
0.10
5
0.06
4
0.12
5
0.11
4
0.11
4
0.06
5
0.08
12
0.17
6
0.17
5
0.22
9
0.17
8
0.24
12
0.12
6
0.19
8
0.13
5
0.06
5
0.09
6
0.15
3
0.17
7
0.15
4
0.13
5
TDLMtwo views0.16
8
0.19
21
0.14
15
0.15
18
0.17
32
0.15
18
0.11
27
0.16
8
0.14
13
0.12
5
0.22
34
0.17
9
0.14
24
0.10
19
0.17
6
0.18
7
0.21
8
0.20
10
0.18
4
0.14
7
0.19
8
0.13
5
0.11
23
0.15
20
0.17
6
0.16
5
0.18
7
0.18
9
AANet_RVCtwo views0.20
15
0.19
21
0.18
45
0.14
15
0.17
32
0.12
9
0.12
32
0.18
11
0.19
32
0.15
10
0.21
30
0.18
10
0.15
30
0.13
29
0.26
41
0.23
18
0.24
11
0.26
29
0.22
9
0.22
44
0.20
10
0.19
16
0.16
75
0.16
24
0.26
27
0.26
25
0.26
19
0.34
47
delettwo views0.17
9
0.16
11
0.16
27
0.20
42
0.14
21
0.19
34
0.12
32
0.15
7
0.13
10
0.19
11
0.17
15
0.19
11
0.11
13
0.15
37
0.20
12
0.19
8
0.22
9
0.20
10
0.18
4
0.18
23
0.21
11
0.14
7
0.11
23
0.13
14
0.20
8
0.20
10
0.18
7
0.22
14
AASNettwo views0.20
15
0.22
37
0.15
20
0.21
46
0.18
43
0.24
60
0.17
74
0.23
14
0.14
13
0.22
14
0.26
52
0.21
12
0.13
20
0.16
41
0.20
12
0.22
15
0.28
17
0.23
19
0.24
12
0.19
28
0.23
12
0.19
16
0.12
29
0.16
24
0.23
14
0.21
11
0.22
9
0.19
10
MMNettwo views0.20
15
0.20
27
0.17
35
0.21
46
0.17
32
0.20
38
0.14
50
0.23
14
0.16
21
0.19
11
0.20
26
0.27
19
0.11
13
0.22
101
0.21
19
0.21
13
0.27
15
0.24
21
0.29
19
0.18
23
0.23
12
0.15
11
0.12
29
0.15
20
0.23
14
0.23
17
0.22
9
0.25
20
HCRNettwo views0.24
29
0.30
89
0.15
20
0.34
111
0.15
23
0.25
69
0.15
59
0.30
27
0.14
13
0.69
207
0.32
66
0.39
55
0.14
24
0.17
48
0.20
12
0.20
11
0.30
22
0.22
15
0.33
30
0.15
12
0.24
14
0.15
11
0.16
75
0.12
10
0.20
8
0.24
19
0.24
16
0.22
14
GANettwo views0.22
23
0.20
27
0.20
56
0.22
49
0.23
70
0.24
60
0.19
85
0.31
29
0.17
23
0.24
16
0.21
30
0.29
25
0.14
24
0.14
32
0.21
19
0.24
20
0.29
19
0.31
63
0.24
12
0.15
12
0.24
14
0.19
16
0.16
75
0.17
35
0.23
14
0.21
11
0.26
19
0.24
18
CVANet_RVCtwo views0.22
23
0.29
85
0.21
63
0.29
87
0.22
66
0.25
69
0.15
59
0.27
21
0.16
21
0.24
16
0.34
73
0.23
14
0.19
53
0.14
32
0.20
12
0.22
15
0.25
13
0.24
21
0.24
12
0.17
20
0.24
14
0.17
14
0.13
44
0.18
46
0.23
14
0.19
9
0.22
9
0.23
16
test crocotwo views0.21
19
0.17
15
0.14
15
0.14
15
0.11
14
0.16
23
0.09
13
0.30
27
0.12
8
0.41
49
0.14
10
0.26
18
0.10
10
0.07
8
0.24
28
0.26
31
0.35
32
0.28
41
0.34
32
0.17
20
0.26
17
0.21
24
0.09
15
0.15
20
0.25
24
0.25
22
0.27
21
0.34
47
test_5two views0.20
15
0.18
18
0.14
15
0.17
25
0.10
9
0.15
18
0.11
27
0.25
17
0.15
17
0.29
23
0.13
6
0.29
25
0.30
120
0.07
8
0.20
12
0.24
20
0.26
14
0.22
15
0.23
11
0.14
7
0.26
17
0.23
29
0.07
7
0.17
35
0.25
24
0.26
25
0.31
24
0.26
22
UPFNettwo views0.28
41
0.25
52
0.26
101
0.26
74
0.23
70
0.30
87
0.21
91
0.34
37
0.25
80
0.35
32
0.32
66
0.33
39
0.21
63
0.23
116
0.31
68
0.28
41
0.37
43
0.31
63
0.37
39
0.23
49
0.27
19
0.24
32
0.18
98
0.20
64
0.28
34
0.29
41
0.32
29
0.29
28
CAStwo views0.27
40
0.21
33
0.17
35
0.21
46
0.17
32
0.18
29
0.09
13
0.33
34
0.20
44
0.33
26
0.38
95
0.29
25
0.19
53
0.17
48
0.28
52
0.26
31
0.37
43
0.26
29
0.38
43
0.20
35
0.29
20
0.27
41
0.16
75
0.18
46
0.36
61
0.36
75
0.40
60
0.55
116
AFF-stereotwo views0.22
23
0.22
37
0.18
45
0.15
18
0.13
19
0.20
38
0.09
13
0.38
51
0.19
32
0.42
58
0.20
26
0.30
29
0.11
13
0.08
12
0.19
10
0.24
20
0.28
17
0.19
9
0.35
36
0.15
12
0.29
20
0.19
16
0.09
15
0.12
10
0.27
30
0.28
38
0.32
29
0.24
18
MIF-Stereo (partial)two views0.21
19
0.16
11
0.15
20
0.13
14
0.12
17
0.16
23
0.08
11
0.28
23
0.19
32
0.30
24
0.18
18
0.21
12
0.12
19
0.10
19
0.24
28
0.26
31
0.35
32
0.27
36
0.30
20
0.17
20
0.30
22
0.20
21
0.10
19
0.16
24
0.27
30
0.23
17
0.27
21
0.27
24
MIF-Stereotwo views0.21
19
0.15
8
0.11
8
0.12
11
0.09
8
0.13
11
0.07
7
0.22
13
0.15
17
0.37
37
0.17
15
0.28
23
0.17
40
0.12
25
0.23
24
0.24
20
0.35
32
0.26
29
0.38
43
0.18
23
0.30
22
0.17
14
0.11
23
0.14
17
0.26
27
0.35
70
0.22
9
0.27
24
RAFT_CTSACEtwo views0.21
19
0.15
8
0.13
11
0.11
8
0.11
14
0.19
34
0.13
41
0.27
21
0.15
17
0.48
101
0.13
6
0.33
39
0.25
92
0.12
25
0.21
19
0.22
15
0.29
19
0.20
10
0.27
17
0.14
7
0.30
22
0.31
65
0.07
7
0.13
14
0.25
24
0.26
25
0.31
24
0.21
13
iRaftStereo_RVCtwo views0.18
10
0.15
8
0.11
8
0.10
7
0.10
9
0.12
9
0.06
6
0.26
19
0.11
7
0.27
19
0.25
50
0.24
16
0.11
13
0.09
16
0.18
8
0.20
11
0.29
19
0.22
15
0.26
16
0.15
12
0.30
22
0.23
29
0.08
12
0.12
10
0.21
11
0.21
11
0.27
21
0.19
10
StereoIMtwo views0.19
14
0.14
7
0.13
11
0.08
5
0.07
7
0.08
4
0.07
7
0.17
10
0.12
8
0.26
18
0.13
6
0.28
23
0.09
9
0.06
7
0.20
12
0.24
20
0.31
24
0.26
29
0.32
27
0.15
12
0.31
26
0.19
16
0.07
7
0.12
10
0.28
34
0.31
49
0.31
24
0.37
53
RAFT+CT+SAtwo views0.23
27
0.20
27
0.16
27
0.19
33
0.13
19
0.15
18
0.12
32
0.33
34
0.19
32
0.44
72
0.14
10
0.34
43
0.29
116
0.09
16
0.23
24
0.29
52
0.27
15
0.22
15
0.31
23
0.19
28
0.31
26
0.35
89
0.07
7
0.17
35
0.29
36
0.27
30
0.31
24
0.28
27
RAFT + AFFtwo views0.18
10
0.18
18
0.11
8
0.16
23
0.10
9
0.14
15
0.09
13
0.25
17
0.15
17
0.33
26
0.16
13
0.31
31
0.11
13
0.07
8
0.18
8
0.19
8
0.33
26
0.16
6
0.31
23
0.16
18
0.31
26
0.14
7
0.07
7
0.11
8
0.21
11
0.16
5
0.14
3
0.13
5
DMCAtwo views0.23
27
0.19
21
0.21
63
0.18
30
0.19
51
0.17
25
0.18
81
0.29
26
0.23
65
0.23
15
0.28
58
0.29
25
0.17
40
0.19
71
0.25
34
0.25
26
0.30
22
0.29
49
0.27
17
0.20
35
0.31
26
0.20
21
0.19
104
0.18
46
0.24
19
0.27
30
0.22
9
0.27
24
HITNettwo views0.28
41
0.27
69
0.21
63
0.22
49
0.21
59
0.22
50
0.15
59
0.41
58
0.22
60
0.50
113
0.35
78
0.44
71
0.21
63
0.17
48
0.26
41
0.24
20
0.33
26
0.31
63
0.31
23
0.19
28
0.32
30
0.28
48
0.16
75
0.18
46
0.31
44
0.28
38
0.44
78
0.42
72
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
PS-NSSStwo views0.45
133
0.52
177
0.38
145
0.68
183
0.40
150
0.56
174
0.44
159
0.57
160
0.31
126
0.58
182
0.35
78
1.11
188
0.31
125
0.28
142
0.40
117
0.30
64
0.40
57
0.36
98
0.71
135
0.32
102
0.32
30
0.21
24
0.26
135
0.29
124
0.47
103
0.47
109
0.47
84
0.62
132
LL-Strereo2two views0.24
29
0.18
18
0.14
15
0.17
25
0.15
23
0.13
11
0.09
13
0.36
40
0.21
52
0.51
123
0.18
18
0.33
39
0.17
40
0.10
19
0.25
34
0.28
41
0.39
53
0.27
36
0.45
78
0.22
44
0.33
32
0.20
21
0.12
29
0.14
17
0.24
19
0.27
30
0.33
36
0.26
22
IERtwo views0.29
45
0.24
46
0.24
87
0.24
61
0.21
59
0.25
69
0.17
74
0.35
39
0.21
52
0.36
33
0.45
130
0.51
102
0.20
58
0.24
121
0.32
79
0.29
52
0.38
48
0.31
63
0.33
30
0.23
49
0.33
32
0.27
41
0.20
114
0.19
60
0.30
40
0.32
51
0.35
40
0.39
65
UNettwo views0.32
67
0.28
74
0.27
102
0.29
87
0.27
98
0.31
92
0.21
91
0.41
58
0.26
92
0.41
49
0.37
88
0.39
55
0.28
111
0.25
129
0.31
68
0.30
64
0.43
83
0.35
93
0.39
47
0.26
68
0.33
32
0.32
76
0.19
104
0.26
114
0.34
52
0.37
80
0.37
51
0.41
69
anonymousdsptwo views0.18
10
0.16
11
0.13
11
0.12
11
0.10
9
0.13
11
0.09
13
0.24
16
0.13
10
0.28
21
0.16
13
0.23
14
0.08
6
0.11
24
0.19
10
0.23
18
0.24
11
0.20
10
0.30
20
0.15
12
0.34
35
0.21
24
0.09
15
0.11
8
0.19
7
0.15
4
0.24
16
0.16
7
ADLNettwo views0.34
80
0.39
142
0.25
95
0.33
103
0.29
112
0.36
116
0.32
132
0.42
60
0.25
80
0.37
37
0.38
95
0.60
148
0.28
111
0.50
195
0.31
68
0.30
64
0.40
57
0.31
63
0.38
43
0.28
79
0.34
35
0.28
48
0.28
145
0.19
60
0.36
61
0.40
94
0.35
40
0.36
51
RAFT-Stereo + iAFFtwo views0.25
33
0.24
46
0.21
63
0.17
25
0.15
23
0.18
29
0.10
21
0.47
88
0.19
32
0.43
66
0.22
34
0.39
55
0.13
20
0.10
19
0.23
24
0.25
26
0.32
25
0.21
14
0.39
47
0.18
23
0.34
35
0.23
29
0.12
29
0.17
35
0.35
58
0.27
30
0.34
37
0.33
44
AF-Nettwo views0.40
102
0.36
121
0.35
140
0.39
132
0.44
156
0.43
142
0.38
145
0.44
64
0.43
159
0.37
37
0.49
142
0.58
136
0.32
128
0.31
154
0.41
125
0.36
113
0.35
32
0.36
98
0.45
78
0.30
91
0.34
35
0.30
58
0.33
156
0.30
128
0.38
68
0.42
96
0.59
138
0.47
89
Nwc_Nettwo views0.40
102
0.36
121
0.35
140
0.39
132
0.44
156
0.43
142
0.38
145
0.44
64
0.43
159
0.37
37
0.49
142
0.58
136
0.32
128
0.31
154
0.41
125
0.36
113
0.35
32
0.36
98
0.45
78
0.30
91
0.34
35
0.30
58
0.33
156
0.30
128
0.38
68
0.42
96
0.59
138
0.47
89
NLCA_NET_v2_RVCtwo views0.38
94
0.38
136
0.38
145
0.34
111
0.47
165
0.32
96
0.52
177
0.40
56
0.44
162
0.41
49
0.41
110
0.56
123
0.26
96
0.41
182
0.43
134
0.30
64
0.39
53
0.33
76
0.40
57
0.27
73
0.34
35
0.27
41
0.22
117
0.24
94
0.37
64
0.47
109
0.40
60
0.44
77
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
Former-RAFT_DAM_RVCtwo views0.30
53
0.22
37
0.21
63
0.23
59
0.18
43
0.19
34
0.12
32
0.44
64
0.35
143
0.43
66
0.40
106
0.40
60
0.21
63
0.18
58
0.32
79
0.29
52
0.42
77
0.31
63
0.37
39
0.27
73
0.35
41
0.33
81
0.13
44
0.18
46
0.37
64
0.51
124
0.31
24
0.47
89
MIM_Stereotwo views0.22
23
0.17
15
0.16
27
0.19
33
0.15
23
0.20
38
0.10
21
0.28
23
0.13
10
0.43
66
0.19
23
0.31
31
0.10
10
0.12
25
0.21
19
0.28
41
0.36
41
0.26
29
0.34
32
0.20
35
0.35
41
0.24
32
0.08
12
0.16
24
0.24
19
0.21
11
0.32
29
0.23
16
TESTrafttwo views0.25
33
0.21
33
0.15
20
0.15
18
0.16
28
0.14
15
0.13
41
0.28
23
0.26
92
0.41
49
0.19
23
0.27
19
0.30
120
0.07
8
0.24
28
0.31
79
0.34
29
0.24
21
0.30
20
0.18
23
0.35
41
0.39
104
0.09
15
0.17
35
0.34
52
0.33
57
0.35
40
0.31
36
IPLGtwo views0.30
53
0.28
74
0.24
87
0.22
49
0.20
54
0.25
69
0.15
59
0.45
70
0.19
32
0.45
76
0.28
58
0.45
76
0.18
47
0.23
116
0.33
84
0.29
52
0.43
83
0.35
93
0.40
57
0.28
79
0.35
41
0.44
128
0.12
29
0.20
64
0.35
58
0.36
75
0.37
51
0.37
53
ARAFTtwo views0.24
29
0.20
27
0.15
20
0.20
42
0.16
28
0.20
38
0.10
21
0.32
30
0.19
32
0.45
76
0.24
38
0.34
43
0.13
20
0.10
19
0.24
28
0.25
26
0.41
69
0.34
81
0.34
32
0.16
18
0.35
41
0.21
24
0.11
23
0.13
14
0.29
36
0.24
19
0.32
29
0.29
28
FINETtwo views0.31
62
0.30
89
0.31
121
0.34
111
0.24
77
0.27
78
0.29
124
0.36
40
0.28
109
0.39
44
0.26
52
0.37
51
0.23
79
0.22
101
0.43
134
0.35
106
0.37
43
0.28
41
0.46
82
0.25
60
0.35
41
0.28
48
0.24
128
0.24
94
0.35
58
0.27
30
0.39
57
0.32
43
CFNettwo views0.34
80
0.31
97
0.25
95
0.38
127
0.32
124
0.30
87
0.23
104
0.46
78
0.26
92
0.41
49
0.36
84
0.58
136
0.30
120
0.24
121
0.28
52
0.26
31
0.39
53
0.34
81
0.37
39
0.26
68
0.35
41
0.22
28
0.17
83
0.24
94
0.47
103
0.39
91
0.46
80
0.51
102
MGS-Stereotwo views0.24
29
0.23
41
0.16
27
0.16
23
0.14
21
0.14
15
0.10
21
0.34
37
0.14
13
0.28
21
0.20
26
0.24
16
0.13
20
0.17
48
0.25
34
0.26
31
0.40
57
0.34
81
0.39
47
0.25
60
0.36
48
0.25
34
0.14
53
0.17
35
0.26
27
0.24
19
0.35
40
0.34
47
TestStereo1two views0.26
37
0.24
46
0.15
20
0.17
25
0.17
32
0.17
25
0.13
41
0.32
30
0.24
71
0.43
66
0.18
18
0.27
19
0.33
131
0.08
12
0.25
34
0.30
64
0.35
32
0.24
21
0.32
27
0.19
28
0.36
48
0.40
110
0.12
29
0.17
35
0.34
52
0.33
57
0.39
57
0.31
36
SA-5Ktwo views0.26
37
0.24
46
0.15
20
0.17
25
0.17
32
0.17
25
0.13
41
0.32
30
0.24
71
0.43
66
0.18
18
0.27
19
0.33
131
0.08
12
0.25
34
0.30
64
0.35
32
0.24
21
0.32
27
0.19
28
0.36
48
0.40
110
0.12
29
0.17
35
0.34
52
0.33
57
0.39
57
0.31
36
MIPNettwo views0.35
85
0.32
106
0.24
87
0.26
74
0.23
70
0.27
78
0.15
59
0.50
107
0.20
44
0.45
76
0.37
88
0.52
105
0.29
116
0.22
101
0.35
101
0.33
93
0.46
111
0.37
109
0.51
94
0.37
121
0.36
48
0.44
128
0.14
53
0.19
60
0.46
101
0.51
124
0.42
74
0.51
102
raft+_RVCtwo views0.25
33
0.22
37
0.17
35
0.19
33
0.18
43
0.18
29
0.13
41
0.38
51
0.19
32
0.46
89
0.30
63
0.34
43
0.16
33
0.13
29
0.25
34
0.26
31
0.33
26
0.27
36
0.37
39
0.19
28
0.36
48
0.26
37
0.10
19
0.15
20
0.30
40
0.29
41
0.36
49
0.30
33
RALAANettwo views0.29
45
0.31
97
0.23
81
0.22
49
0.21
59
0.23
55
0.16
69
0.38
51
0.19
32
0.33
26
0.38
95
0.35
48
0.18
47
0.15
37
0.33
84
0.29
52
0.38
48
0.37
109
0.48
88
0.27
73
0.36
48
0.29
55
0.15
66
0.20
64
0.34
52
0.30
45
0.35
40
0.35
50
STTStereotwo views0.39
100
0.42
151
0.43
161
0.37
123
0.43
154
0.34
111
0.49
171
0.37
45
0.33
137
0.38
42
0.43
127
0.51
102
0.30
120
0.38
174
0.47
148
0.32
88
0.41
69
0.40
134
0.40
57
0.29
86
0.36
48
0.28
48
0.22
117
0.28
121
0.40
79
0.45
105
0.40
60
0.62
132
DISCOtwo views0.32
67
0.30
89
0.23
81
0.31
93
0.28
108
0.33
100
0.30
129
0.32
30
0.29
117
0.40
47
0.41
110
0.32
35
0.20
58
0.23
116
0.32
79
0.29
52
0.42
77
0.32
73
0.46
82
0.29
86
0.36
48
0.31
65
0.19
104
0.24
94
0.37
64
0.36
75
0.41
67
0.38
57
anonymousdsp2two views0.26
37
0.28
74
0.18
45
0.19
33
0.16
28
0.21
44
0.14
50
0.37
45
0.19
32
0.38
42
0.22
34
0.36
50
0.16
33
0.14
32
0.22
23
0.26
31
0.36
41
0.25
26
0.56
110
0.21
39
0.37
56
0.31
65
0.13
44
0.18
46
0.31
44
0.25
22
0.38
54
0.29
28
SAtwo views0.30
53
0.27
69
0.17
35
0.18
30
0.17
32
0.24
60
0.10
21
0.47
88
0.26
92
0.54
146
0.20
26
0.46
84
0.14
24
0.12
25
0.30
58
0.30
64
0.41
69
0.30
59
0.40
57
0.23
49
0.37
56
0.37
97
0.10
19
0.20
64
0.41
84
0.38
82
0.49
99
0.37
53
DSFCAtwo views0.33
75
0.39
142
0.32
127
0.31
93
0.27
98
0.35
113
0.25
111
0.36
40
0.29
117
0.32
25
0.42
119
0.38
53
0.22
72
0.19
71
0.32
79
0.31
79
0.38
48
0.36
98
0.46
82
0.26
68
0.37
56
0.37
97
0.23
124
0.24
94
0.38
68
0.35
70
0.34
37
0.43
75
DMCA-RVCcopylefttwo views0.31
62
0.25
52
0.28
105
0.25
65
0.27
98
0.24
60
0.25
111
0.36
40
0.31
126
0.33
26
0.38
95
0.54
112
0.24
83
0.20
82
0.40
117
0.35
106
0.35
32
0.34
81
0.35
36
0.29
86
0.37
56
0.33
81
0.22
117
0.24
94
0.29
36
0.29
41
0.36
49
0.41
69
PA-Nettwo views0.50
154
0.59
188
0.54
184
0.40
136
0.53
182
0.42
137
0.53
182
0.56
153
0.52
176
0.46
89
0.41
110
0.49
94
0.48
168
0.49
192
0.54
170
0.42
153
0.37
43
0.44
156
0.43
70
0.45
162
0.37
56
0.48
151
0.27
139
0.39
167
0.52
131
0.87
191
0.45
79
0.99
181
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NVstereo2Dtwo views0.41
115
0.37
127
0.31
121
0.45
148
0.38
143
0.56
174
0.56
186
0.45
70
0.29
117
0.41
49
0.42
119
0.44
71
0.23
79
0.59
206
0.51
162
0.41
146
0.48
122
0.43
150
0.40
57
0.32
102
0.37
56
0.28
48
0.45
191
0.30
128
0.52
131
0.36
75
0.40
60
0.44
77
iResNet_ROBtwo views0.35
85
0.30
89
0.27
102
0.32
100
0.21
59
0.33
100
0.22
96
0.45
70
0.27
100
0.45
76
0.42
119
0.38
53
0.48
168
0.19
71
0.28
52
0.29
52
0.45
100
0.36
98
0.55
105
0.24
58
0.37
56
0.27
41
0.19
104
0.25
104
0.44
96
0.39
91
0.47
84
0.47
89
DN-CSS_ROBtwo views0.36
90
0.31
97
0.30
111
0.31
93
0.30
117
0.25
69
0.17
74
0.51
119
0.25
80
0.51
123
0.56
167
0.56
123
0.36
143
0.18
58
0.31
68
0.28
41
0.41
69
0.31
63
0.81
148
0.27
73
0.37
56
0.25
34
0.22
117
0.32
144
0.37
64
0.32
51
0.41
67
0.38
57
PWCDC_ROBbinarytwo views0.45
133
0.20
27
0.30
111
0.20
42
0.33
130
0.23
55
0.29
124
0.26
19
0.96
215
0.21
13
0.54
162
0.30
29
2.04
226
0.49
192
0.51
162
0.41
146
0.38
48
0.41
142
0.39
47
0.37
121
0.37
56
0.61
194
0.35
162
0.31
137
0.24
19
0.49
114
0.35
40
0.53
110
test_4two views0.25
33
0.19
21
0.17
35
0.14
15
0.15
23
0.11
7
0.07
7
0.38
51
0.20
44
0.53
139
0.18
18
0.34
43
0.16
33
0.15
37
0.24
28
0.27
38
0.35
32
0.25
26
0.31
23
0.21
39
0.38
65
0.31
65
0.10
19
0.17
35
0.31
44
0.33
57
0.34
37
0.36
51
rafts_anoytwo views0.29
45
0.30
89
0.23
81
0.22
49
0.24
77
0.23
55
0.14
50
0.44
64
0.18
29
0.44
72
0.34
73
0.40
60
0.16
33
0.14
32
0.33
84
0.30
64
0.40
57
0.37
109
0.40
57
0.25
60
0.38
65
0.29
55
0.12
29
0.20
64
0.38
68
0.33
57
0.35
40
0.41
69
CFNet_pseudotwo views0.38
94
0.32
106
0.34
136
0.41
140
0.33
130
0.38
122
0.28
119
0.51
119
0.29
117
0.54
146
0.52
157
0.46
84
0.42
162
0.24
121
0.41
125
0.33
93
0.39
53
0.36
98
0.46
82
0.25
60
0.38
65
0.31
65
0.19
104
0.26
114
0.43
95
0.46
106
0.52
122
0.55
116
FADNet-RVCtwo views0.41
115
0.37
127
0.28
105
0.41
140
0.33
130
0.33
100
0.32
132
0.53
141
0.30
122
0.52
132
0.41
110
0.59
144
0.35
139
0.25
129
0.51
162
0.37
119
0.43
83
0.34
81
0.75
141
0.40
135
0.38
65
0.39
104
0.28
145
0.36
155
0.47
103
0.52
127
0.40
60
0.53
110
RPtwo views0.43
124
0.45
159
0.48
171
0.48
157
0.43
154
0.46
147
0.47
161
0.47
88
0.45
165
0.34
30
0.61
179
0.57
131
0.42
162
0.33
161
0.40
117
0.35
106
0.43
83
0.35
93
0.49
90
0.34
111
0.38
65
0.37
97
0.29
151
0.35
151
0.49
119
0.44
101
0.53
124
0.58
126
NaN_ROBtwo views0.56
165
0.47
165
0.48
171
0.51
163
0.59
190
0.42
137
0.39
150
0.72
193
0.48
171
0.64
198
0.49
142
1.54
203
0.48
168
0.32
159
0.47
148
0.36
113
0.42
77
0.40
134
0.55
105
0.46
167
0.38
65
0.33
81
0.27
139
0.49
184
0.68
175
0.75
178
0.72
169
1.21
191
GMStereopermissivetwo views0.32
67
0.32
106
0.20
56
0.27
78
0.25
82
0.31
92
0.24
108
0.48
94
0.25
80
0.37
37
0.30
63
0.54
112
0.27
109
0.19
71
0.30
58
0.30
64
0.45
100
0.29
49
0.56
110
0.32
102
0.39
71
0.25
34
0.18
98
0.22
77
0.39
75
0.30
45
0.47
84
0.33
44
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
psm_uptwo views0.42
119
0.38
136
0.41
154
0.45
148
0.33
130
0.46
147
0.27
116
0.50
107
0.51
174
0.43
66
0.42
119
0.45
76
0.40
159
0.30
148
0.40
117
0.35
106
0.47
115
0.38
115
0.56
110
0.34
111
0.39
71
0.33
81
0.25
131
0.39
167
0.54
138
0.59
144
0.56
131
0.52
106
HGLStereotwo views0.32
67
0.32
106
0.25
95
0.27
78
0.27
98
0.28
83
0.17
74
0.39
55
0.23
65
0.40
47
0.56
167
0.33
39
0.19
53
0.24
121
0.30
58
0.34
102
0.44
92
0.39
126
0.41
64
0.28
79
0.39
71
0.32
76
0.18
98
0.25
104
0.40
79
0.38
82
0.35
40
0.33
44
FADNet-RVC-Resampletwo views0.40
102
0.31
97
0.32
127
0.36
118
0.29
112
0.33
100
0.27
116
0.53
141
0.32
129
0.57
179
0.37
88
0.53
109
0.34
133
0.30
148
0.41
125
0.31
79
0.41
69
0.42
148
0.55
105
0.43
151
0.39
71
0.46
139
0.25
131
0.43
176
0.44
96
0.42
96
0.37
51
0.53
110
iinet-ftwo views0.34
80
0.26
64
0.24
87
0.24
61
0.18
43
0.35
113
0.16
69
0.33
34
0.21
52
0.42
58
0.73
193
0.44
71
0.35
139
0.18
58
0.30
58
0.34
102
0.43
83
0.28
41
0.86
156
0.33
108
0.40
75
0.26
37
0.17
83
0.18
46
0.39
75
0.29
41
0.46
80
0.39
65
CIPLGtwo views0.29
45
0.26
64
0.17
35
0.22
49
0.17
32
0.24
60
0.14
50
0.50
107
0.17
23
0.46
89
0.37
88
0.45
76
0.22
72
0.25
129
0.30
58
0.30
64
0.43
83
0.29
49
0.39
47
0.28
79
0.40
75
0.28
48
0.13
44
0.18
46
0.31
44
0.25
22
0.32
29
0.29
28
ddtwo views0.38
94
0.40
145
0.21
63
0.82
198
0.25
82
0.53
169
0.24
108
0.46
78
0.19
32
0.47
97
0.24
38
0.66
158
0.21
63
0.20
82
0.38
110
0.34
102
0.57
173
0.30
59
0.75
141
0.28
79
0.40
75
0.31
65
0.17
83
0.24
94
0.44
96
0.32
51
0.51
112
0.40
67
IPLGR_Ctwo views0.29
45
0.26
64
0.17
35
0.22
49
0.17
32
0.24
60
0.14
50
0.50
107
0.17
23
0.46
89
0.37
88
0.45
76
0.24
83
0.25
129
0.30
58
0.30
64
0.43
83
0.30
59
0.39
47
0.28
79
0.40
75
0.28
48
0.13
44
0.17
35
0.31
44
0.26
25
0.32
29
0.30
33
IPLGRtwo views0.38
94
0.41
148
0.25
95
0.35
117
0.32
124
0.28
83
0.18
81
0.50
107
0.27
100
0.48
101
0.48
140
0.52
105
0.25
92
0.22
101
0.37
107
0.31
79
0.42
77
0.39
126
0.63
125
0.38
127
0.40
75
0.48
151
0.14
53
0.22
77
0.48
113
0.47
109
0.48
88
0.46
81
ACREtwo views0.29
45
0.26
64
0.17
35
0.22
49
0.17
32
0.24
60
0.14
50
0.50
107
0.17
23
0.46
89
0.37
88
0.45
76
0.23
79
0.25
129
0.30
58
0.30
64
0.43
83
0.29
49
0.39
47
0.29
86
0.40
75
0.27
41
0.13
44
0.18
46
0.30
40
0.26
25
0.32
29
0.29
28
RASNettwo views0.31
62
0.32
106
0.30
111
0.27
78
0.24
77
0.26
75
0.20
89
0.46
78
0.26
92
0.41
49
0.33
69
0.40
60
0.25
92
0.20
82
0.25
34
0.28
41
0.38
48
0.30
59
0.34
32
0.21
39
0.40
75
0.29
55
0.14
53
0.30
128
0.33
51
0.34
65
0.49
99
0.47
89
CC-Net-ROBtwo views0.71
183
0.91
213
0.59
194
1.38
219
0.85
210
1.25
218
0.86
208
0.69
188
0.45
165
0.71
208
0.47
138
1.95
208
0.34
133
0.62
213
0.49
154
0.33
93
0.52
152
0.48
168
1.06
180
0.43
151
0.40
75
0.27
41
0.85
222
0.41
171
0.65
170
0.64
156
0.56
131
0.93
178
iResNetv2_ROBtwo views0.37
92
0.30
89
0.23
81
0.34
111
0.29
112
0.38
122
0.22
96
0.46
78
0.25
80
0.46
89
0.56
167
0.56
123
0.41
161
0.22
101
0.30
58
0.29
52
0.40
57
0.34
81
0.66
131
0.31
98
0.40
75
0.32
76
0.23
124
0.30
128
0.44
96
0.36
75
0.50
106
0.46
81
Sa-1000two views0.32
67
0.29
85
0.17
35
0.20
42
0.20
54
0.23
55
0.10
21
0.49
99
0.28
109
0.55
161
0.26
52
0.46
84
0.17
40
0.20
82
0.31
68
0.31
79
0.45
100
0.33
76
0.50
91
0.22
44
0.41
84
0.43
124
0.14
53
0.20
64
0.42
89
0.41
95
0.51
112
0.40
67
test-3two views0.33
75
0.25
52
0.20
56
0.25
65
0.25
82
0.24
60
0.15
59
0.50
107
0.21
52
0.51
123
0.24
38
0.63
154
0.24
83
0.17
48
0.34
94
0.29
52
0.45
100
0.31
63
0.84
152
0.30
91
0.41
84
0.42
119
0.12
29
0.20
64
0.31
44
0.27
30
0.41
67
0.38
57
test_1two views0.33
75
0.25
52
0.20
56
0.25
65
0.25
82
0.24
60
0.15
59
0.50
107
0.21
52
0.51
123
0.24
38
0.64
156
0.24
83
0.16
41
0.34
94
0.29
52
0.45
100
0.31
63
0.85
154
0.30
91
0.41
84
0.42
119
0.12
29
0.20
64
0.31
44
0.27
30
0.41
67
0.38
57
CREStereo++_RVCtwo views0.32
67
0.25
52
0.18
45
0.23
59
0.25
82
0.22
50
0.15
59
0.45
70
0.26
92
0.48
101
0.28
58
0.48
90
0.44
164
0.18
58
0.26
41
0.30
64
0.47
115
0.25
26
0.38
43
0.23
49
0.41
84
0.30
58
0.13
44
0.24
94
0.40
79
0.32
51
0.51
112
0.52
106
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
raftrobusttwo views0.31
62
0.25
52
0.21
63
0.22
49
0.21
59
0.19
34
0.14
50
0.49
99
0.18
29
0.54
146
0.34
73
0.44
71
0.18
47
0.16
41
0.35
101
0.31
79
0.42
77
0.32
73
0.42
68
0.29
86
0.41
84
0.31
65
0.14
53
0.17
35
0.41
84
0.38
82
0.38
54
0.38
57
RALCasStereoNettwo views0.30
53
0.31
97
0.21
63
0.28
83
0.23
70
0.22
50
0.15
59
0.45
70
0.19
32
0.48
101
0.30
63
0.44
71
0.19
53
0.14
32
0.33
84
0.30
64
0.44
92
0.38
115
0.39
47
0.25
60
0.41
84
0.26
37
0.13
44
0.21
73
0.40
79
0.33
57
0.35
40
0.38
57
DeepPrunerFtwo views0.55
163
0.29
85
0.30
111
0.37
123
0.86
211
0.30
87
0.37
142
0.42
60
0.34
141
0.34
30
0.53
159
0.34
43
0.22
72
0.31
154
0.38
110
0.40
137
0.42
77
0.34
81
0.56
110
0.36
117
0.41
84
0.33
81
0.27
139
0.26
114
4.90
261
0.50
117
0.38
54
0.46
81
ADCP+two views0.49
150
0.35
119
0.36
143
0.33
103
0.26
91
0.39
127
0.38
145
0.48
94
0.98
216
0.42
58
0.61
179
0.85
174
0.26
96
0.30
148
0.33
84
0.32
88
0.41
69
0.35
93
0.62
122
0.27
73
0.41
84
0.37
97
0.24
128
0.22
77
0.41
84
1.72
237
0.43
76
1.18
188
CASnettwo views0.30
53
0.26
64
0.18
45
0.22
49
0.20
54
0.27
78
0.12
32
0.48
94
0.24
71
0.54
146
0.35
78
0.55
118
0.21
63
0.19
71
0.27
44
0.25
26
0.37
43
0.23
19
0.54
103
0.20
35
0.42
92
0.31
65
0.15
66
0.18
46
0.30
40
0.27
30
0.40
60
0.42
72
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LoS_RVCtwo views0.29
45
0.25
52
0.22
75
0.15
18
0.19
51
0.18
29
0.12
32
0.37
45
0.21
52
0.42
58
0.38
95
0.32
35
0.20
58
0.18
58
0.31
68
0.27
38
0.34
29
0.28
41
0.43
70
0.21
39
0.42
92
0.33
81
0.15
66
0.23
84
0.48
113
0.34
65
0.41
67
0.46
81
tt_lltwo views0.29
45
0.25
52
0.22
75
0.15
18
0.19
51
0.18
29
0.12
32
0.37
45
0.21
52
0.42
58
0.38
95
0.32
35
0.20
58
0.18
58
0.31
68
0.27
38
0.34
29
0.28
41
0.43
70
0.21
39
0.42
92
0.33
81
0.15
66
0.23
84
0.48
113
0.34
65
0.41
67
0.46
81
GMOStereotwo views0.30
53
0.23
41
0.16
27
0.19
33
0.18
43
0.21
44
0.13
41
0.46
78
0.25
80
0.56
169
0.24
38
0.43
66
0.26
96
0.16
41
0.27
44
0.28
41
0.40
57
0.29
49
0.44
73
0.23
49
0.42
92
0.45
132
0.12
29
0.16
24
0.42
89
0.38
82
0.48
88
0.31
36
error versiontwo views0.30
53
0.23
41
0.16
27
0.19
33
0.18
43
0.21
44
0.13
41
0.46
78
0.25
80
0.56
169
0.24
38
0.43
66
0.26
96
0.16
41
0.27
44
0.28
41
0.40
57
0.29
49
0.44
73
0.23
49
0.42
92
0.45
132
0.12
29
0.16
24
0.42
89
0.38
82
0.48
88
0.31
36
test-vtwo views0.30
53
0.23
41
0.16
27
0.19
33
0.18
43
0.21
44
0.13
41
0.46
78
0.25
80
0.56
169
0.24
38
0.43
66
0.26
96
0.16
41
0.27
44
0.28
41
0.40
57
0.29
49
0.44
73
0.23
49
0.42
92
0.45
132
0.12
29
0.16
24
0.42
89
0.38
82
0.48
88
0.31
36
AACVNettwo views0.41
115
0.37
127
0.33
130
0.41
140
0.45
162
0.42
137
0.28
119
0.48
94
0.32
129
0.50
113
0.51
151
0.47
88
0.24
83
0.26
136
0.41
125
0.36
113
0.47
115
0.42
148
0.52
96
0.42
144
0.42
92
0.39
104
0.26
135
0.32
144
0.47
103
0.50
117
0.50
106
0.62
132
test-2two views0.30
53
0.23
41
0.16
27
0.19
33
0.18
43
0.21
44
0.13
41
0.46
78
0.25
80
0.56
169
0.24
38
0.43
66
0.26
96
0.16
41
0.27
44
0.28
41
0.40
57
0.29
49
0.44
73
0.23
49
0.42
92
0.45
132
0.12
29
0.16
24
0.42
89
0.38
82
0.48
88
0.31
36
pcwnet_v2two views0.45
133
0.36
121
0.38
145
0.47
154
0.37
141
0.46
147
0.38
145
0.51
119
0.35
143
0.54
146
0.61
179
0.50
101
0.75
188
0.35
165
0.46
144
0.36
113
0.47
115
0.38
115
0.53
101
0.30
91
0.42
92
0.31
65
0.25
131
0.32
144
0.58
154
0.58
141
0.59
138
0.68
150
MLCVtwo views0.46
139
0.38
136
0.34
136
0.54
169
0.39
147
0.49
156
0.33
134
0.59
171
0.31
126
0.49
108
0.59
174
0.72
166
0.57
180
0.22
101
0.39
112
0.29
52
0.49
129
0.38
115
1.01
174
0.33
108
0.42
92
0.43
124
0.28
145
0.36
155
0.51
128
0.56
137
0.54
126
0.54
114
4D-IteraStereotwo views0.28
41
0.20
27
0.18
45
0.26
74
0.16
28
0.17
25
0.11
27
0.46
78
0.24
71
0.53
139
0.27
57
0.41
63
0.17
40
0.13
29
0.27
44
0.29
52
0.41
69
0.34
81
0.42
68
0.26
68
0.43
102
0.32
76
0.11
23
0.16
24
0.29
36
0.30
45
0.40
60
0.30
33
ICVPtwo views0.43
124
0.38
136
0.47
168
0.40
136
0.36
137
0.40
128
0.28
119
0.47
88
0.33
137
0.46
89
0.45
130
0.49
94
0.37
150
0.24
121
0.40
117
0.38
126
0.45
100
0.39
126
0.53
101
0.39
131
0.43
102
0.59
188
0.55
203
0.34
149
0.48
113
0.55
134
0.51
112
0.55
116
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
TANstereotwo views0.40
102
0.25
52
0.18
45
0.29
87
0.27
98
0.33
100
0.17
74
0.37
45
0.20
44
0.45
76
0.21
30
0.31
31
0.26
96
0.22
101
0.61
183
0.56
195
0.51
144
0.68
215
0.97
170
0.74
208
0.43
102
0.35
89
0.85
222
0.22
77
0.27
30
0.32
51
0.49
99
0.38
57
XX-TBDtwo views0.40
102
0.25
52
0.18
45
0.29
87
0.27
98
0.33
100
0.17
74
0.37
45
0.20
44
0.45
76
0.21
30
0.31
31
0.26
96
0.22
101
0.61
183
0.56
195
0.51
144
0.68
215
0.97
170
0.74
208
0.43
102
0.35
89
0.85
222
0.22
77
0.27
30
0.32
51
0.49
99
0.38
57
NCC-stereotwo views0.51
157
0.47
165
0.43
161
0.49
158
0.51
174
0.50
159
0.51
172
0.51
119
0.57
180
0.36
33
0.59
174
0.62
150
0.55
177
0.36
170
0.53
168
0.41
146
0.46
111
0.50
176
0.58
117
0.41
138
0.43
102
0.40
110
0.43
188
0.36
155
0.57
149
0.72
171
0.73
172
0.65
143
stereogantwo views0.49
150
0.47
165
0.46
166
0.52
164
0.54
184
0.56
174
0.48
166
0.52
133
0.45
165
0.39
44
0.49
142
0.70
165
0.49
172
0.34
163
0.49
154
0.40
137
0.45
100
0.40
134
0.63
125
0.41
138
0.43
102
0.39
104
0.38
168
0.37
161
0.47
103
0.50
117
0.77
177
0.60
129
Abc-Nettwo views0.51
157
0.47
165
0.43
161
0.49
158
0.51
174
0.50
159
0.51
172
0.51
119
0.57
180
0.36
33
0.59
174
0.62
150
0.55
177
0.36
170
0.53
168
0.41
146
0.46
111
0.50
176
0.58
117
0.41
138
0.43
102
0.40
110
0.43
188
0.36
155
0.57
149
0.72
171
0.73
172
0.65
143
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CFNet_RVCtwo views0.38
94
0.40
145
0.33
130
0.38
127
0.35
136
0.38
122
0.25
111
0.44
64
0.28
109
0.45
76
0.49
142
0.46
84
0.26
96
0.24
121
0.40
117
0.33
93
0.43
83
0.36
98
0.44
73
0.31
98
0.43
102
0.31
65
0.19
104
0.26
114
0.49
119
0.49
114
0.50
106
0.52
106
raft_robusttwo views0.34
80
0.27
69
0.19
54
0.29
87
0.22
66
0.22
50
0.16
69
0.52
133
0.28
109
0.64
198
0.25
50
0.48
90
0.26
96
0.18
58
0.32
79
0.33
93
0.44
92
0.34
81
0.52
96
0.28
79
0.44
110
0.47
147
0.12
29
0.21
73
0.44
96
0.44
101
0.49
99
0.46
81
test_3two views0.35
85
0.25
52
0.20
56
0.25
65
0.25
82
0.23
55
0.15
59
0.51
119
0.23
65
0.54
146
0.24
38
0.67
159
0.28
111
0.17
48
0.34
94
0.31
79
0.45
100
0.33
76
0.86
156
0.32
102
0.44
110
0.50
163
0.11
23
0.22
77
0.38
68
0.38
82
0.41
67
0.37
53
AnonymousMtwo views0.28
41
0.19
21
0.14
15
0.18
30
0.17
32
0.15
18
0.11
27
0.42
60
0.17
23
0.47
97
0.28
58
0.35
48
0.11
13
0.15
37
0.27
44
0.31
79
0.45
100
0.28
41
0.39
47
0.19
28
0.44
110
0.26
37
0.14
53
0.16
24
0.24
19
0.30
45
0.48
88
0.67
146
DLCB_ROBtwo views0.40
102
0.36
121
0.35
140
0.32
100
0.32
124
0.31
92
0.27
116
0.42
60
0.34
141
0.46
89
0.49
142
0.54
112
0.37
150
0.30
148
0.37
107
0.33
93
0.44
92
0.38
115
0.40
57
0.32
102
0.44
110
0.34
88
0.27
139
0.31
137
0.81
201
0.57
140
0.55
128
0.46
81
PDISCO_ROBtwo views0.34
80
0.31
97
0.32
127
0.28
83
0.24
77
0.30
87
0.21
91
0.36
40
0.24
71
0.27
19
0.35
78
0.32
35
0.24
83
0.18
58
0.36
105
0.40
137
0.40
57
0.51
180
0.36
38
0.31
98
0.44
110
0.40
110
0.17
83
0.25
104
0.41
84
0.43
100
0.62
147
0.46
81
panettwo views0.31
62
0.28
74
0.22
75
0.25
65
0.20
54
0.21
44
0.12
32
0.49
99
0.20
44
0.52
132
0.24
38
0.55
118
0.22
72
0.20
82
0.28
52
0.32
88
0.48
122
0.26
29
0.41
64
0.22
44
0.45
115
0.30
58
0.14
53
0.21
73
0.38
68
0.35
70
0.49
99
0.53
110
APVNettwo views0.42
119
0.37
127
0.30
111
0.36
118
0.39
147
0.47
152
0.36
141
0.51
119
0.32
129
0.36
33
0.52
157
0.41
63
0.24
83
0.30
148
0.45
141
0.48
175
0.55
168
0.48
168
0.63
125
0.45
162
0.45
115
0.35
89
0.26
135
0.36
155
0.47
103
0.35
70
0.60
143
0.45
79
UCFNet_RVCtwo views0.42
119
0.52
177
0.34
136
0.47
154
0.42
152
0.42
137
0.30
129
0.49
99
0.32
129
0.51
123
0.48
140
0.68
163
0.36
143
0.26
136
0.40
117
0.32
88
0.41
69
0.38
115
0.48
88
0.30
91
0.45
115
0.31
65
0.28
145
0.30
128
0.61
163
0.49
114
0.48
88
0.61
130
iResNettwo views0.59
171
0.41
148
0.43
161
0.52
164
0.48
166
0.66
188
0.40
153
0.65
180
0.43
159
0.50
113
0.55
164
1.10
187
1.23
211
0.24
121
0.57
177
0.40
137
0.53
157
0.45
161
1.70
200
0.45
162
0.45
115
0.43
124
0.33
156
0.52
190
0.55
144
0.60
148
0.67
157
0.67
146
LMCR-Stereopermissivemany views0.37
92
0.31
97
0.23
81
0.25
65
0.25
82
0.33
100
0.19
85
0.44
64
0.27
100
0.45
76
0.35
78
0.51
102
0.34
133
0.21
96
0.35
101
0.35
106
0.50
140
0.38
115
0.74
139
0.41
138
0.46
119
0.44
128
0.20
114
0.23
84
0.40
79
0.38
82
0.51
112
0.51
102
CREStereotwo views0.32
67
0.27
69
0.22
75
0.25
65
0.20
54
0.22
50
0.12
32
0.49
99
0.20
44
0.50
113
0.24
38
0.54
112
0.22
72
0.20
82
0.29
56
0.33
93
0.49
129
0.26
29
0.41
64
0.22
44
0.46
119
0.30
58
0.15
66
0.21
73
0.39
75
0.34
65
0.48
88
0.52
106
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.33
75
0.28
74
0.20
56
0.26
74
0.22
66
0.20
38
0.19
85
0.45
70
0.21
52
0.50
113
0.24
38
0.52
105
0.15
30
0.18
58
0.31
68
0.33
93
0.47
115
0.28
41
0.55
105
0.25
60
0.46
119
0.27
41
0.16
75
0.16
24
0.46
101
0.37
80
0.48
88
0.64
139
FADNettwo views0.46
139
0.38
136
0.31
121
0.42
144
0.32
124
0.40
128
0.46
160
0.59
171
0.35
143
0.56
169
0.53
159
0.59
144
0.39
158
0.28
142
0.50
158
0.38
126
0.40
57
0.39
126
0.94
165
0.43
151
0.46
119
0.41
115
0.29
151
0.31
137
0.55
144
0.62
152
0.48
88
0.63
137
BEATNet_4xtwo views0.35
85
0.29
85
0.24
87
0.27
78
0.26
91
0.26
75
0.22
96
0.45
70
0.28
109
0.57
179
0.33
69
0.49
94
0.28
111
0.19
71
0.35
101
0.33
93
0.40
57
0.40
134
0.39
47
0.25
60
0.46
119
0.47
147
0.21
116
0.25
104
0.36
61
0.34
65
0.51
112
0.48
95
SGM-Foresttwo views0.51
157
0.48
172
0.34
136
0.75
191
0.49
170
0.51
164
0.39
150
0.54
144
0.33
137
0.49
108
0.35
78
0.75
170
0.57
180
0.43
185
0.42
132
0.40
137
0.44
92
0.41
142
0.47
86
0.36
117
0.46
119
0.42
119
0.37
166
0.39
167
0.67
171
0.55
134
1.11
207
0.81
167
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
EAI-Stereotwo views0.43
124
0.30
89
0.21
63
0.36
118
0.30
117
0.44
144
0.39
150
0.57
160
0.28
109
0.51
123
0.34
73
0.58
136
0.18
47
0.19
71
0.48
152
0.47
170
0.49
129
0.36
98
0.97
170
0.46
167
0.47
125
0.46
139
0.14
53
0.23
84
0.55
144
0.44
101
0.65
155
0.71
152
RGCtwo views0.56
165
0.53
181
0.64
201
0.54
169
0.54
184
0.59
179
0.43
156
0.58
164
0.60
184
0.45
76
0.70
191
0.65
157
0.69
187
0.44
187
0.60
182
0.46
163
0.49
129
0.44
156
0.62
122
0.44
159
0.47
125
0.42
119
0.39
174
0.42
173
0.62
166
0.77
182
0.72
169
0.79
160
HSM-Net_RVCpermissivetwo views0.50
154
0.37
127
0.39
150
0.56
173
0.44
156
0.46
147
0.28
119
0.55
149
0.39
154
0.57
179
0.63
185
0.89
178
0.56
179
0.31
154
0.39
112
0.35
106
0.49
129
0.41
142
0.56
110
0.34
111
0.47
125
0.46
139
0.28
145
0.41
171
0.67
171
0.79
186
0.77
177
0.72
153
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
MyStereo04two views0.43
124
0.39
142
0.40
153
0.34
111
0.31
121
0.26
75
0.22
96
0.51
119
0.37
148
0.50
113
0.37
88
0.55
118
0.28
111
0.17
48
0.50
158
0.39
131
0.44
92
0.39
126
1.11
183
0.40
135
0.48
128
0.44
128
0.17
83
0.31
137
0.53
135
0.61
151
0.65
155
0.51
102
anonymitytwo views1.14
210
0.25
52
0.65
205
0.38
127
0.28
108
0.36
116
0.21
91
0.56
153
0.26
92
0.53
139
18.98
271
0.52
105
0.22
72
0.20
82
0.31
68
0.44
159
0.48
122
0.32
73
0.83
149
0.45
162
0.48
128
0.46
139
0.18
98
0.22
77
0.68
175
0.98
206
0.58
135
0.98
180
GANet-ADLtwo views0.47
144
0.42
151
0.33
130
0.43
146
0.42
152
0.48
155
0.35
138
0.51
119
0.33
137
0.54
146
0.50
148
0.63
154
0.34
133
0.35
165
0.47
148
0.39
131
0.53
157
0.38
115
0.79
144
0.51
182
0.48
128
0.41
115
0.30
154
0.30
128
0.52
131
0.59
144
0.63
151
0.72
153
XX-Stereotwo views8.90
260
0.24
46
0.17
35
0.40
136
0.21
59
0.44
144
0.17
74
0.55
149
0.23
65
0.52
132
0.45
130
0.58
136
0.16
33
0.20
82
0.40
117
0.47
170
0.49
129
0.37
109
0.63
125
0.38
127
0.48
128
0.38
103
0.14
53
0.20
64
229.91
277
0.56
137
0.60
143
0.99
181
SQANettwo views1.43
218
2.22
235
0.78
214
2.62
236
1.77
231
2.84
237
2.44
232
0.73
195
0.53
177
0.87
222
0.58
173
2.10
212
0.64
185
2.13
234
0.50
158
0.40
137
0.67
195
0.59
203
7.14
248
0.54
186
0.49
132
0.45
132
2.94
243
0.45
180
0.75
189
0.89
196
0.97
197
1.58
207
EGLCR-Stereotwo views0.32
67
0.28
74
0.18
45
0.24
61
0.25
82
0.33
100
0.11
27
0.48
94
0.20
44
0.49
108
0.19
23
0.49
94
0.15
30
0.17
48
0.24
28
0.28
41
0.45
100
0.31
63
0.45
78
0.25
60
0.49
132
0.41
115
0.14
53
0.18
46
0.34
52
0.31
49
0.74
174
0.57
125
iRaft-Stereo_20wtwo views0.51
157
0.32
106
0.83
216
0.81
197
0.32
124
0.47
152
0.31
131
0.55
149
0.28
109
0.54
146
0.46
135
0.59
144
0.14
24
0.22
101
0.41
125
0.39
131
0.49
129
0.33
76
0.88
158
0.43
151
0.49
132
0.39
104
0.15
66
0.18
46
0.72
186
0.88
192
1.07
206
1.22
193
UDGNettwo views0.49
150
0.45
159
0.30
111
1.05
211
0.79
205
0.91
206
0.70
198
0.47
88
0.30
122
0.45
76
0.46
135
0.45
76
0.16
33
1.01
229
0.30
58
0.30
64
0.45
100
0.39
126
0.50
91
0.32
102
0.49
132
0.36
95
0.57
205
0.23
84
0.54
138
0.42
96
0.43
76
0.47
89
GwcNet-ADLtwo views0.56
165
0.57
186
0.48
171
0.72
187
0.51
174
0.55
172
0.42
155
0.58
164
0.38
149
0.54
146
0.73
193
0.89
178
0.48
168
0.39
177
0.46
144
0.46
163
0.56
171
0.43
150
0.90
160
0.48
172
0.49
132
0.51
171
0.38
168
0.35
151
0.61
163
0.75
178
0.53
124
0.85
173
ADCReftwo views0.48
148
0.37
127
0.33
130
0.33
103
0.31
121
0.44
144
0.38
145
0.47
88
0.68
191
0.47
97
0.51
151
0.56
123
0.35
139
0.27
139
0.43
134
0.40
137
0.47
115
0.44
156
0.84
152
0.37
121
0.49
132
0.48
151
0.30
154
0.31
137
0.49
119
0.88
192
0.49
99
1.04
185
HSMtwo views0.40
102
0.37
127
0.30
111
0.39
132
0.36
137
0.33
100
0.28
119
0.56
153
0.29
117
0.50
113
0.51
151
0.49
94
0.37
150
0.24
121
0.39
112
0.34
102
0.52
152
0.36
98
0.50
91
0.35
115
0.49
132
0.35
89
0.19
104
0.29
124
0.48
113
0.54
132
0.54
126
0.55
116
AE-Stereotwo views0.38
94
0.32
106
0.23
81
0.34
111
0.25
82
0.29
85
0.16
69
0.49
99
0.24
71
0.55
161
0.22
34
0.67
159
0.23
79
0.19
71
0.33
84
0.35
106
0.52
152
0.41
142
0.59
120
0.37
121
0.50
139
0.50
163
0.14
53
0.30
128
0.51
128
0.46
106
0.55
128
0.48
95
MyStereotwo views0.45
133
0.40
145
0.41
154
0.36
118
0.32
124
0.27
78
0.23
104
0.52
133
0.38
149
0.51
123
0.40
106
0.55
118
0.34
133
0.18
58
0.52
166
0.38
126
0.44
92
0.39
126
1.19
186
0.42
144
0.50
139
0.48
151
0.19
104
0.31
137
0.60
159
0.65
158
0.70
164
0.49
98
GEStwo views0.40
102
0.37
127
0.25
95
0.31
93
0.30
117
0.41
135
0.26
114
0.46
78
0.28
109
0.49
108
0.40
106
0.43
66
0.26
96
0.30
148
0.45
141
0.40
137
0.53
157
0.43
150
0.97
170
0.42
144
0.50
139
0.41
115
0.23
124
0.30
128
0.38
68
0.35
70
0.47
84
0.49
98
SACVNettwo views0.46
139
0.42
151
0.38
145
0.44
147
0.41
151
0.40
128
0.43
156
0.52
133
0.47
169
0.52
132
0.45
130
0.45
76
0.25
92
0.32
159
0.44
139
0.40
137
0.50
140
0.45
161
0.63
125
0.48
172
0.51
142
0.43
124
0.29
151
0.34
149
0.64
169
0.58
141
0.62
147
0.61
130
TRStereotwo views0.46
139
0.42
151
0.77
212
0.38
127
0.24
77
0.79
196
0.37
142
0.50
107
0.23
65
0.51
123
0.33
69
0.67
159
0.14
24
0.19
71
0.34
94
0.41
146
0.48
122
0.35
93
0.55
105
0.36
117
0.51
142
0.46
139
0.13
44
0.19
60
0.57
149
0.62
152
1.22
216
0.79
160
s12784htwo views0.39
100
0.35
119
0.25
95
0.46
151
0.29
112
0.25
69
0.18
81
0.49
99
0.22
60
0.51
123
0.34
73
0.62
150
0.32
128
0.21
96
0.27
44
0.28
41
0.48
122
0.29
49
0.52
96
0.23
49
0.51
142
0.30
58
0.15
66
0.23
84
0.51
128
0.52
127
0.70
164
1.14
186
R-Stereo Traintwo views0.40
102
0.28
74
0.29
108
0.33
103
0.27
98
0.37
118
0.14
50
0.51
119
0.25
80
0.54
146
0.42
119
0.56
123
0.26
96
0.21
96
0.34
94
0.41
146
0.52
152
0.38
115
0.70
133
0.37
121
0.51
142
0.48
151
0.17
83
0.28
121
0.54
138
0.65
158
0.46
80
0.62
132
RAFT-Stereopermissivetwo views0.40
102
0.28
74
0.29
108
0.33
103
0.27
98
0.37
118
0.14
50
0.51
119
0.25
80
0.54
146
0.42
119
0.56
123
0.26
96
0.21
96
0.34
94
0.41
146
0.52
152
0.38
115
0.70
133
0.37
121
0.51
142
0.48
151
0.17
83
0.28
121
0.54
138
0.65
158
0.46
80
0.62
132
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSKI-zero shottwo views0.46
139
0.28
74
0.20
56
0.31
93
0.27
98
0.33
100
0.24
108
0.56
153
0.24
71
0.53
139
0.40
106
0.55
118
0.21
63
0.19
71
0.33
84
0.42
153
0.51
144
0.36
98
1.37
191
0.41
138
0.52
147
0.47
147
0.16
75
0.23
84
0.49
119
1.13
216
0.80
181
0.78
158
LoStwo views0.41
115
0.33
115
0.21
63
0.28
83
0.31
121
0.27
78
0.16
69
1.20
224
0.22
60
0.76
214
0.69
190
0.57
131
0.27
109
0.20
82
0.31
68
0.39
131
0.46
111
0.29
49
0.52
96
0.26
68
0.52
147
0.37
97
0.17
83
0.18
46
0.59
155
0.47
109
0.48
88
0.58
126
test-1two views0.45
133
0.24
46
0.22
75
0.28
83
0.29
112
0.50
159
0.29
124
0.58
164
0.32
129
0.55
161
0.41
110
0.58
136
0.30
120
0.20
82
0.39
112
0.39
131
0.50
140
0.40
134
1.04
176
0.38
127
0.52
147
0.63
198
0.17
83
0.32
144
0.60
159
0.69
169
0.58
135
0.89
175
TestStereotwo views0.35
85
0.33
115
0.28
105
0.33
103
0.23
70
0.34
111
0.22
96
0.54
144
0.24
71
0.64
198
0.28
58
0.53
109
0.21
63
0.18
58
0.30
58
0.25
26
0.44
92
0.27
36
0.58
117
0.27
73
0.52
147
0.32
76
0.18
98
0.26
114
0.41
84
0.33
57
0.50
106
0.43
75
Any-RAFTtwo views0.43
124
0.27
69
0.51
178
0.37
123
0.28
108
0.31
92
0.21
91
0.50
107
0.26
92
0.48
101
0.54
162
0.57
131
0.19
53
0.19
71
0.33
84
0.37
119
0.49
129
0.34
81
0.83
149
0.33
108
0.53
151
0.42
119
0.17
83
0.23
84
0.70
179
0.84
188
0.50
106
0.89
175
sAnonymous2two views0.40
102
0.28
74
0.24
87
0.25
65
0.23
70
0.32
96
0.22
96
0.56
153
0.30
122
0.41
49
0.38
95
0.39
55
0.29
116
0.18
58
0.46
144
0.50
181
0.53
157
0.49
173
0.80
146
0.42
144
0.53
151
0.56
182
0.19
104
0.25
104
0.50
125
0.52
127
0.51
112
0.56
121
CroCo_RVCtwo views0.40
102
0.28
74
0.24
87
0.25
65
0.23
70
0.32
96
0.22
96
0.56
153
0.30
122
0.41
49
0.38
95
0.39
55
0.29
116
0.18
58
0.46
144
0.50
181
0.53
157
0.49
173
0.80
146
0.42
144
0.53
151
0.56
182
0.19
104
0.25
104
0.50
125
0.52
127
0.51
112
0.56
121
XPNet_ROBtwo views0.55
163
0.57
186
0.42
158
0.41
140
0.44
156
0.49
156
0.43
156
0.40
56
0.47
169
0.48
101
0.57
170
1.88
207
0.36
143
0.31
154
0.52
166
0.43
155
0.65
189
0.43
150
0.60
121
0.39
131
0.53
151
0.66
203
0.34
159
0.38
163
0.49
119
0.53
131
0.96
196
0.64
139
PSMNet-ADLtwo views0.56
165
0.47
165
0.47
168
0.52
164
0.48
166
0.51
164
0.47
161
0.58
164
0.46
168
0.64
198
0.68
189
0.77
172
0.81
192
0.39
177
0.51
162
0.46
163
0.53
157
0.41
142
1.18
184
0.50
179
0.54
155
0.45
132
0.39
174
0.35
151
0.56
147
0.67
164
0.85
190
0.50
100
RTSCtwo views0.47
144
0.36
121
0.33
130
0.36
118
0.38
143
0.41
135
0.35
138
0.50
107
0.48
171
0.44
72
0.60
177
0.42
65
0.38
155
0.29
146
0.64
190
0.45
161
0.62
183
0.41
142
0.83
149
0.36
117
0.54
155
0.49
158
0.23
124
0.38
163
0.47
103
0.50
117
0.60
143
0.91
177
MSMDNettwo views0.42
119
0.32
106
0.21
63
0.27
78
0.26
91
0.37
118
0.23
104
0.51
119
0.25
80
0.52
132
0.42
119
0.54
112
0.21
63
0.20
82
0.39
112
0.52
190
0.51
144
0.38
115
1.02
175
0.59
193
0.54
155
0.53
176
0.17
83
0.23
84
0.53
135
0.46
106
0.59
138
0.63
137
MDST_ROBtwo views1.62
221
1.46
224
0.53
182
2.47
232
0.96
218
1.72
226
0.73
201
0.72
193
0.54
179
0.59
185
0.42
119
1.08
186
11.90
256
0.28
142
0.49
154
0.37
119
0.51
144
0.36
98
0.72
136
0.41
138
0.54
155
0.36
95
0.38
168
0.47
182
3.20
255
1.82
239
8.20
263
2.54
237
RAFT-Testtwo views0.43
124
0.31
97
0.21
63
0.37
123
0.26
91
0.35
113
0.22
96
0.53
141
0.24
71
0.53
139
0.46
135
0.54
112
0.22
72
0.20
82
0.37
107
0.51
186
0.51
144
0.37
109
1.04
176
0.48
172
0.55
159
0.50
163
0.16
75
0.23
84
0.56
147
0.51
124
0.62
147
0.65
143
GEStereo_RVCtwo views0.47
144
0.41
148
0.31
121
0.39
132
0.37
141
0.42
137
0.33
134
0.52
133
0.32
129
0.50
113
0.41
110
0.59
144
0.38
155
0.27
139
0.54
170
0.50
181
0.60
178
0.56
198
0.90
160
0.46
167
0.55
159
0.47
147
0.24
128
0.38
163
0.49
119
0.47
109
0.50
106
0.80
165
SGM-ForestMtwo views1.56
219
1.80
230
0.59
194
1.74
223
0.86
211
1.83
227
1.08
217
1.28
228
0.81
204
0.56
169
0.74
197
5.35
242
3.72
237
0.41
182
0.47
148
0.37
119
0.59
176
0.44
156
5.02
235
0.43
151
0.55
159
0.39
104
0.39
174
0.50
185
2.80
250
1.97
241
4.37
260
3.15
242
IGEV_Zeroshot_testtwo views0.50
154
0.33
115
0.81
215
0.76
192
0.36
137
0.38
122
0.47
161
0.58
164
0.27
100
0.53
139
0.55
164
0.60
148
0.18
47
0.22
101
0.34
94
0.47
170
0.50
140
0.34
81
0.92
162
0.43
151
0.56
162
0.50
163
0.15
66
0.24
94
0.80
198
0.68
165
0.69
159
0.77
156
dadtwo views0.61
174
0.45
159
0.30
111
1.01
210
0.46
164
0.63
182
1.26
222
1.15
222
0.27
100
0.79
218
0.32
66
0.76
171
0.53
176
0.21
96
0.42
132
0.36
113
0.66
191
0.34
81
1.27
189
0.31
98
0.56
162
0.30
58
0.22
117
0.36
155
0.59
155
0.39
91
1.70
231
0.97
179
DAStwo views0.61
174
0.42
151
0.30
111
0.62
177
0.48
166
0.54
170
0.48
166
0.59
171
0.67
189
0.45
76
0.73
193
1.19
191
0.62
182
0.25
129
0.54
170
0.46
163
0.71
202
0.51
180
0.96
167
0.66
203
0.56
162
0.63
198
0.41
183
0.62
203
0.71
183
0.72
171
0.82
183
0.79
160
SepStereotwo views0.61
174
0.42
151
0.30
111
0.62
177
0.48
166
0.54
170
0.48
166
0.59
171
0.67
189
0.45
76
0.73
193
1.19
191
0.62
182
0.25
129
0.54
170
0.46
163
0.71
202
0.51
180
0.96
167
0.66
203
0.56
162
0.63
198
0.41
183
0.62
203
0.71
183
0.72
171
0.82
183
0.79
160
cross-rafttwo views0.42
119
0.32
106
0.22
75
0.32
100
0.26
91
0.32
96
0.19
85
0.54
144
0.27
100
0.55
161
0.39
104
0.58
136
0.20
58
0.20
82
0.36
105
0.48
175
0.51
144
0.37
109
1.06
180
0.44
159
0.56
162
0.59
188
0.14
53
0.25
104
0.57
149
0.54
132
0.59
138
0.59
128
NCCL2two views0.49
150
0.47
165
0.48
171
0.40
136
0.38
143
0.38
122
0.33
134
0.55
149
0.44
162
0.58
182
0.47
138
0.53
109
0.36
143
0.28
142
0.57
177
0.47
170
0.49
129
0.45
161
0.57
115
0.44
159
0.56
162
0.54
179
0.34
159
0.45
180
0.70
179
0.72
171
0.61
146
0.81
167
CBMV_ROBtwo views0.94
199
0.44
157
0.50
176
0.88
202
0.71
199
0.65
186
0.52
177
0.70
189
0.38
149
0.55
161
0.45
130
6.22
252
2.33
229
0.51
197
0.50
158
0.43
155
0.61
181
0.46
165
1.38
193
0.94
224
0.56
162
0.46
139
0.41
183
0.48
183
0.81
201
1.01
210
1.28
217
1.19
189
SGM_RVCbinarytwo views1.34
214
1.03
219
0.59
194
1.32
218
0.94
216
1.23
217
0.85
206
0.94
210
0.78
202
0.61
190
0.75
200
2.55
218
1.51
216
0.36
170
0.49
154
0.37
119
0.56
171
0.43
150
4.91
234
0.45
162
0.56
162
0.37
97
0.37
166
0.56
194
1.41
227
1.19
220
3.13
255
8.03
260
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ACVNet-4btwo views1.66
223
2.40
236
1.10
230
2.76
238
2.09
238
3.09
240
3.08
245
1.03
216
0.99
218
1.10
237
0.61
179
2.97
227
1.00
204
2.77
244
0.73
202
0.66
215
1.26
232
0.73
220
4.74
232
1.07
231
0.57
170
0.49
158
3.77
246
0.67
209
1.06
216
0.96
202
1.18
214
1.85
219
CASStwo views0.48
148
0.37
127
0.33
130
0.45
148
0.38
143
0.47
152
0.33
134
0.60
176
0.38
149
0.62
193
0.50
148
0.56
123
0.38
155
0.22
101
0.43
134
0.37
119
0.64
187
0.39
126
0.94
165
0.39
131
0.57
170
0.51
171
0.27
139
0.26
114
0.63
167
0.56
137
0.68
158
0.81
167
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
DeepPruner_ROBtwo views0.43
124
0.36
121
0.37
144
0.38
127
0.39
147
0.37
118
0.26
114
0.45
70
0.36
146
0.50
113
0.53
159
0.47
88
0.40
159
0.23
116
0.56
176
0.38
126
0.48
122
0.44
156
0.51
94
0.35
115
0.57
170
0.45
132
0.27
139
0.32
144
0.47
103
0.68
165
0.52
122
0.45
79
FADNet_RVCtwo views0.59
171
0.48
172
0.39
150
0.65
181
0.45
162
0.40
128
0.35
138
0.61
177
0.42
158
0.62
193
0.60
177
0.94
181
0.78
191
0.38
174
0.79
208
0.38
126
0.60
178
0.55
196
1.68
198
0.51
182
0.58
173
0.72
212
0.28
145
0.42
173
0.50
125
0.68
165
0.51
112
0.69
151
ccs_robtwo views0.82
190
0.59
188
0.42
158
0.73
189
0.49
170
0.73
191
0.68
195
0.58
164
0.39
154
0.56
169
4.12
261
3.54
236
0.96
200
0.43
185
0.62
186
0.51
186
0.53
157
0.48
168
0.78
143
0.54
186
0.58
173
0.53
176
0.39
174
0.37
161
0.54
138
0.58
141
0.55
128
0.78
158
CSANtwo views0.70
182
0.70
202
0.60
199
0.68
183
0.61
193
0.58
178
0.48
166
0.77
202
0.73
196
0.79
218
0.57
170
1.34
201
1.03
205
0.35
165
0.58
180
0.45
161
0.57
173
0.53
189
0.74
139
0.60
196
0.58
173
0.51
171
0.44
190
0.61
200
0.77
192
1.10
214
0.88
193
1.19
189
otakutwo views1.67
224
2.58
242
0.90
223
2.93
240
2.07
235
3.14
242
2.73
236
0.88
208
0.84
208
1.00
227
0.66
188
2.38
215
0.95
199
2.39
236
0.67
193
0.52
190
0.79
211
0.62
207
8.04
252
0.90
222
0.59
176
0.53
176
3.56
244
0.62
203
0.95
209
0.96
202
1.19
215
1.74
212
SFCPSMtwo views0.82
190
0.59
188
0.46
166
0.60
176
0.53
182
0.60
180
0.51
172
0.66
182
0.62
185
0.55
161
0.81
210
1.44
202
2.03
225
0.37
173
0.55
175
0.48
175
0.55
168
0.48
168
4.41
229
0.83
216
0.59
176
0.58
187
0.45
191
0.38
163
0.70
179
0.74
177
0.69
159
0.99
181
FCDSN-DCtwo views0.52
161
0.52
177
0.51
178
0.53
167
0.50
172
0.50
159
0.52
177
0.56
153
0.36
146
0.61
190
0.36
84
0.48
90
0.34
133
0.47
191
0.63
188
0.57
200
0.65
189
0.62
207
0.54
103
0.48
172
0.59
176
0.50
163
0.38
168
0.62
203
0.53
135
0.55
134
0.51
112
0.54
114
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ADCLtwo views0.56
165
0.50
175
0.39
150
0.42
144
0.36
137
0.51
164
0.55
185
0.58
164
1.58
237
0.56
169
0.64
186
0.62
150
0.37
150
0.33
161
0.41
125
0.39
131
0.48
122
0.40
134
0.73
138
0.38
127
0.59
176
0.52
175
0.34
159
0.35
151
0.63
167
0.68
165
0.57
133
1.34
198
Ntrotwo views1.72
226
2.71
245
0.98
226
3.00
242
2.17
240
3.23
243
2.98
240
0.96
211
0.92
212
1.04
234
0.76
204
2.47
217
0.76
189
2.51
238
0.68
195
0.53
193
0.83
218
0.65
210
8.03
251
0.98
226
0.60
180
0.54
179
3.62
245
0.61
200
1.02
214
1.23
221
1.17
210
1.58
207
GLC_STEREOtwo views0.36
90
0.31
97
0.29
108
0.31
93
0.27
98
0.30
87
0.23
104
0.49
99
0.22
60
0.54
146
0.43
127
0.48
90
0.21
63
0.22
101
0.29
56
0.31
79
0.54
166
0.33
76
0.47
86
0.30
91
0.60
180
0.46
139
0.18
98
0.24
94
0.39
75
0.28
38
0.57
133
0.42
72
FBW_ROBtwo views0.91
197
0.96
216
0.70
209
1.45
221
0.89
214
1.09
214
0.86
208
0.66
182
0.53
177
0.56
169
0.61
179
1.19
191
0.77
190
0.79
220
0.63
188
0.43
155
0.70
200
0.52
187
4.11
228
0.43
151
0.60
180
0.46
139
0.95
225
0.94
230
0.75
189
0.85
190
0.85
190
1.31
196
LALA_ROBtwo views0.65
179
0.64
196
0.51
178
0.50
160
0.50
172
0.65
186
0.51
172
0.54
144
0.65
188
0.55
161
0.75
200
2.33
214
0.45
166
0.38
174
0.71
200
0.47
170
0.67
195
0.57
200
0.66
131
0.49
178
0.60
180
0.62
196
0.38
168
0.43
176
0.54
138
0.71
170
0.95
195
0.80
165
DLNR_Zeroshot_testpermissivetwo views15.27
266
56.75
277
0.73
211
77.82
277
0.28
108
0.40
128
71.42
277
0.57
160
0.22
60
0.55
161
0.36
84
0.58
136
0.18
47
4.39
266
79.54
277
81.74
277
15.51
268
11.63
265
5.39
237
0.34
111
0.61
184
0.49
158
0.15
66
0.29
124
0.59
155
0.50
117
0.69
159
0.64
139
ETE_ROBtwo views0.66
181
0.65
197
0.42
158
0.54
169
0.51
174
0.66
188
0.47
161
0.51
119
0.58
182
0.52
132
0.75
200
2.41
216
0.44
164
0.40
179
0.61
183
0.48
175
0.70
200
0.50
176
0.72
136
0.50
179
0.62
185
0.61
194
0.39
174
0.44
179
0.60
159
0.72
171
1.17
210
0.85
173
HHtwo views0.43
124
0.21
33
0.55
186
0.33
103
0.26
91
0.40
128
0.29
124
0.52
133
0.27
100
0.54
146
0.26
52
0.57
131
0.17
40
0.22
101
0.33
84
0.46
163
0.49
129
0.40
134
0.92
162
0.42
144
0.63
186
0.49
158
0.17
83
0.25
104
0.47
103
0.60
148
0.64
152
0.82
170
HanStereotwo views0.43
124
0.21
33
0.55
186
0.33
103
0.26
91
0.40
128
0.29
124
0.52
133
0.27
100
0.54
146
0.26
52
0.57
131
0.17
40
0.22
101
0.33
84
0.46
163
0.49
129
0.40
134
0.92
162
0.42
144
0.63
186
0.49
158
0.17
83
0.25
104
0.47
103
0.60
148
0.64
152
0.82
170
RTStwo views0.77
187
0.45
159
0.41
154
0.46
151
0.44
156
0.77
194
0.53
182
0.66
182
0.73
196
0.42
58
0.51
151
0.86
175
0.50
173
0.35
165
0.68
195
0.57
200
0.82
215
0.51
180
1.59
195
0.64
201
0.63
186
0.60
191
0.36
164
0.50
185
0.80
198
3.82
258
0.83
185
1.23
194
RTSAtwo views0.77
187
0.45
159
0.41
154
0.46
151
0.44
156
0.77
194
0.53
182
0.66
182
0.73
196
0.42
58
0.51
151
0.86
175
0.50
173
0.35
165
0.68
195
0.57
200
0.82
215
0.51
180
1.59
195
0.64
201
0.63
186
0.60
191
0.36
164
0.50
185
0.80
198
3.82
258
0.83
185
1.23
194
GANetREF_RVCpermissivetwo views0.61
174
0.56
184
0.58
191
0.56
173
0.52
180
0.55
172
0.52
177
0.85
205
0.63
186
0.78
216
0.44
129
1.00
184
0.63
184
0.34
163
0.62
186
0.44
159
0.53
157
0.51
180
0.85
154
0.51
182
0.63
186
0.48
151
0.48
193
0.59
197
0.71
183
0.65
158
0.81
182
0.79
160
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
FC-DCNNcopylefttwo views0.63
178
0.69
201
0.64
201
0.98
208
0.65
195
0.89
203
0.65
192
0.76
200
0.40
157
0.72
211
0.41
110
0.80
173
0.35
139
0.51
197
0.59
181
0.56
195
0.67
195
0.56
198
0.62
122
0.50
179
0.63
186
0.50
163
0.39
174
0.59
197
0.77
192
0.65
158
0.78
179
0.83
172
NOSS_ROBtwo views0.54
162
0.48
172
0.44
165
0.55
172
0.51
174
0.51
164
0.47
161
0.68
186
0.39
154
0.52
132
0.41
110
0.49
94
0.36
143
0.53
201
0.66
191
0.56
195
0.61
181
0.54
191
0.57
115
0.47
171
0.64
192
0.50
163
0.39
174
0.51
189
0.70
179
0.65
158
0.83
185
0.67
146
EKT-Stereotwo views0.47
144
0.38
136
0.27
102
0.50
160
0.33
130
0.49
156
0.51
172
0.51
119
0.23
65
0.50
113
0.41
110
0.56
123
0.24
83
0.22
101
0.43
134
0.51
186
0.54
166
0.52
187
0.89
159
0.40
135
0.65
193
0.56
182
0.17
83
0.25
104
0.72
186
0.63
155
0.64
152
0.56
121
HBP-ISPtwo views0.60
173
0.53
181
0.58
191
0.79
196
0.57
188
0.61
181
0.52
177
0.70
189
0.38
149
0.62
193
0.51
151
0.67
159
0.31
125
0.60
209
0.68
195
0.66
215
0.57
173
0.48
168
0.52
96
0.48
172
0.65
193
0.65
202
0.38
168
0.52
190
0.68
175
0.77
182
1.06
204
0.73
155
S-Stereotwo views0.99
200
0.65
197
0.59
194
0.94
205
0.92
215
1.08
213
1.25
221
0.74
196
0.82
205
0.66
204
2.61
255
2.64
220
0.91
196
0.56
204
0.94
223
0.72
221
0.68
198
0.83
230
1.50
194
0.83
216
0.65
193
0.69
208
1.07
228
0.81
221
0.67
171
0.77
182
0.78
179
1.55
206
CEStwo views0.33
75
0.19
21
0.19
54
0.19
33
0.21
59
0.20
38
0.09
13
0.85
205
0.18
29
0.42
58
0.55
164
0.49
94
0.16
33
0.20
82
0.31
68
0.37
119
0.47
115
0.28
41
0.41
64
0.24
58
0.66
196
0.35
89
0.17
83
0.18
46
0.42
89
0.33
57
0.42
74
0.50
100
SHDtwo views0.65
179
0.44
157
0.55
186
0.57
175
0.55
186
0.50
159
0.48
166
0.74
196
0.69
193
0.63
197
0.65
187
0.68
163
0.97
201
0.42
184
0.81
212
0.57
200
0.69
199
0.50
176
1.20
187
0.56
191
0.66
196
0.68
205
0.39
174
0.52
190
0.68
175
0.78
185
0.70
164
1.03
184
MFN_U_SF_DS_RVCtwo views0.84
192
0.70
202
0.52
181
0.96
207
0.67
198
0.87
202
0.76
203
1.02
215
0.93
213
0.78
216
0.62
184
1.32
200
0.98
202
0.64
215
0.78
207
0.52
190
0.51
144
0.45
161
1.73
202
0.46
167
0.67
198
0.70
209
0.61
209
0.56
194
1.11
219
1.24
223
0.99
201
1.46
202
LE_ROBtwo views11.92
265
1.06
220
1.26
236
4.81
261
43.47
275
6.01
265
35.61
273
7.74
267
6.23
263
0.58
182
3.83
260
32.58
272
46.83
273
0.27
139
0.44
139
0.32
88
0.53
157
0.43
150
23.28
265
0.75
211
0.67
198
0.51
171
0.56
204
8.03
267
23.19
268
17.00
268
20.55
269
35.43
272
CBMVpermissivetwo views0.71
183
0.52
177
0.47
168
0.62
177
0.52
180
0.56
174
0.41
154
0.70
189
0.63
186
0.61
190
0.39
104
1.30
199
0.47
167
0.46
190
0.72
201
0.62
208
0.62
183
0.54
191
0.79
144
0.48
172
0.67
198
0.50
163
0.40
182
0.71
212
0.79
195
0.75
178
1.53
226
2.47
233
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
sCroCo_RVCtwo views0.40
102
0.30
89
0.24
87
0.24
61
0.22
66
0.29
85
0.18
81
0.50
107
0.32
129
0.44
72
0.33
69
0.37
51
0.37
150
0.17
48
0.45
141
0.60
206
0.55
168
0.47
167
0.64
130
0.39
131
0.68
201
0.62
196
0.22
117
0.31
137
0.48
113
0.44
101
0.58
135
0.48
95
FAT-Stereotwo views0.88
196
0.59
188
0.88
220
0.89
203
1.07
223
0.84
201
0.66
193
0.82
203
0.58
182
0.67
206
1.67
246
2.16
213
0.93
198
0.54
202
0.86
218
0.62
208
0.66
191
0.71
218
1.29
190
0.80
214
0.68
201
0.57
185
0.57
205
0.68
210
0.67
171
0.84
188
0.83
185
1.54
205
XQCtwo views0.74
185
0.75
204
0.58
191
0.77
194
0.74
201
0.79
196
0.72
200
0.86
207
0.77
200
0.73
212
0.57
170
0.86
175
0.81
192
0.60
209
0.79
208
0.58
204
0.63
185
0.53
189
1.04
176
0.59
193
0.68
201
0.70
209
0.52
198
0.57
196
0.90
205
1.03
212
1.04
202
0.77
156
SANettwo views1.13
209
0.67
200
0.77
212
0.78
195
0.74
201
0.93
208
0.62
190
1.30
229
1.22
225
0.60
187
0.96
219
5.83
248
2.57
231
0.63
214
0.77
206
0.49
179
0.79
211
0.67
214
1.08
182
0.60
196
0.68
201
0.74
215
0.78
217
0.79
220
1.05
215
1.23
221
1.17
210
2.15
225
Anonymoustwo views0.45
133
0.34
118
0.31
121
0.30
92
0.30
117
0.33
100
0.20
89
0.52
133
0.32
129
0.39
44
0.36
84
0.45
76
0.36
143
0.17
48
0.48
152
0.59
205
0.59
176
0.51
180
1.26
188
0.43
151
0.70
205
0.55
181
0.22
117
0.27
120
0.52
131
0.50
117
0.62
147
0.55
116
MaskLacGwcNet_RVCtwo views5.03
254
0.51
176
0.68
208
0.72
187
0.57
188
0.64
185
0.77
205
0.61
177
0.48
171
0.53
139
1.02
223
115.67
277
1.14
206
0.84
222
0.57
177
0.49
179
0.71
202
0.66
211
2.72
215
0.55
189
0.72
206
0.68
205
0.41
183
0.42
173
0.75
189
0.81
187
0.72
169
1.51
204
edge stereotwo views1.12
207
0.82
210
1.07
229
1.15
212
1.06
222
1.25
218
1.10
218
1.12
219
0.83
206
0.65
203
1.43
237
3.44
234
1.41
213
0.68
217
0.74
203
0.69
219
0.81
214
0.62
207
2.86
217
0.74
208
0.73
207
0.75
216
0.74
215
0.66
208
0.95
209
0.88
192
1.16
209
2.01
221
STStereotwo views2.66
242
1.83
231
1.92
249
2.87
239
2.02
234
2.68
234
1.85
230
3.30
260
1.63
239
0.82
220
5.71
263
8.58
261
10.17
254
0.52
200
0.67
193
0.43
155
0.63
185
0.46
165
11.73
256
0.68
205
0.73
207
0.66
203
0.49
196
0.98
232
2.33
243
1.79
238
2.66
248
3.63
247
RainbowNettwo views1.68
225
2.49
237
1.41
238
2.98
241
2.30
242
3.12
241
2.99
242
1.00
213
0.77
200
1.29
245
0.74
197
2.63
219
1.68
219
2.76
243
1.03
227
0.77
224
1.07
227
0.76
222
2.86
217
1.15
233
0.74
209
0.59
188
3.90
247
0.77
215
1.10
218
1.16
217
1.31
221
2.07
223
DDUNettwo views1.05
201
1.89
232
0.53
182
2.36
230
2.10
239
2.19
229
2.32
231
0.54
144
0.68
191
0.48
101
0.80
207
1.20
195
0.24
83
2.51
238
0.69
199
0.55
194
0.83
218
0.49
173
1.68
198
0.57
192
0.75
210
0.64
201
1.31
234
0.39
167
0.57
149
0.59
144
0.69
159
0.67
146
UDGtwo views1.07
203
1.95
233
0.54
184
2.29
228
2.24
241
2.00
228
2.51
233
0.59
171
0.72
195
0.59
185
0.83
212
1.14
190
0.31
125
2.36
235
0.66
191
0.50
181
0.89
221
0.61
206
1.81
204
0.61
199
0.78
211
0.70
209
1.26
233
0.43
176
0.61
163
0.64
156
0.69
159
0.64
139
PWC_ROBbinarytwo views0.76
186
0.54
183
0.66
207
0.47
154
0.56
187
0.52
168
0.70
198
0.65
180
1.26
227
0.47
97
0.75
200
0.74
168
2.10
228
0.40
179
0.79
208
0.51
186
0.83
218
0.60
204
1.37
191
0.68
205
0.78
211
0.68
205
0.35
162
0.65
207
0.60
159
0.59
144
0.76
175
1.59
210
ADCMidtwo views0.80
189
0.59
188
0.57
190
0.53
167
0.59
190
0.75
192
0.76
203
0.93
209
1.21
224
0.54
146
0.80
207
0.99
182
0.98
202
0.44
187
0.84
216
0.60
206
0.74
206
0.55
196
1.72
201
0.55
189
0.79
213
0.81
220
0.60
208
0.50
185
0.79
195
0.90
197
0.71
167
1.76
215
ADCPNettwo views0.84
192
0.59
188
0.55
186
0.63
180
0.73
200
0.63
182
0.74
202
0.75
199
0.84
208
0.64
198
0.79
206
0.73
167
1.44
214
0.50
195
0.74
203
0.65
213
0.71
202
0.54
191
1.84
205
0.71
207
0.79
213
0.78
217
0.53
200
0.60
199
0.93
208
1.31
225
0.83
185
2.11
224
Anonymous3two views0.56
165
0.45
159
0.31
121
0.31
93
0.33
130
0.46
147
0.37
142
0.57
160
0.51
174
0.56
169
0.38
95
1.04
185
0.36
143
0.26
136
0.76
205
0.69
219
0.66
191
0.58
202
1.04
176
0.51
182
0.81
215
0.97
227
0.26
135
0.29
124
0.59
155
0.62
152
0.76
175
0.56
121
ACVNet_1two views1.85
229
2.91
250
1.43
240
3.48
249
2.62
251
3.35
248
3.34
247
1.17
223
0.93
213
1.03
231
0.87
213
2.83
225
1.40
212
2.82
247
0.83
214
0.56
195
1.32
237
0.81
227
6.24
241
1.02
228
0.83
216
0.72
212
4.04
250
0.78
218
1.22
223
0.99
209
0.97
197
1.37
200
MSC_U_SF_DS_RVCtwo views1.08
205
1.02
217
0.89
222
1.25
216
0.83
209
0.90
205
1.07
216
1.23
226
1.56
235
1.03
231
0.76
204
1.19
191
0.86
195
0.98
227
0.98
225
0.74
222
0.64
187
0.72
219
3.50
221
0.86
220
0.85
217
0.98
230
0.82
221
0.89
226
1.20
222
0.93
200
0.86
192
1.68
211
G-Nettwo views1.20
213
0.75
204
0.97
225
0.67
182
0.65
195
0.92
207
0.60
189
1.00
213
1.35
230
0.74
213
1.47
240
5.51
245
0.92
197
0.44
187
0.83
214
0.84
228
0.76
209
0.66
211
1.97
208
1.52
247
0.85
217
0.87
222
0.54
202
0.70
211
0.86
204
1.24
223
1.82
234
2.89
240
ACVNet_2two views2.32
240
2.71
245
1.69
246
3.41
248
2.53
249
3.05
239
3.01
243
1.38
234
1.11
219
1.11
238
0.96
219
2.71
222
1.91
223
2.55
242
0.95
224
0.76
223
1.77
247
0.76
222
16.37
262
1.21
237
0.87
219
0.72
212
3.93
249
1.11
240
1.70
233
1.17
218
1.50
224
1.83
218
MFN_U_SF_RVCtwo views1.10
206
0.86
211
0.65
205
0.98
208
0.79
205
1.12
215
1.03
215
1.10
218
0.83
206
1.09
236
1.61
245
1.55
204
1.22
210
0.86
224
1.16
240
0.66
215
0.60
178
0.60
204
4.87
233
0.76
212
0.88
220
0.90
225
0.53
200
0.82
222
0.98
211
0.92
198
0.98
199
1.32
197
MANEtwo views4.47
252
1.62
228
3.30
262
2.34
229
1.90
233
2.28
230
1.66
229
2.83
257
3.11
256
0.83
221
1.12
229
7.77
258
8.15
252
0.56
204
0.79
208
0.87
229
0.82
215
13.62
266
5.80
238
0.59
193
0.94
221
0.60
191
0.48
193
0.91
228
7.29
262
9.34
264
14.90
267
26.25
269
pmcnntwo views0.86
195
0.56
184
0.38
145
0.70
185
0.60
192
0.81
199
0.62
190
0.63
179
0.44
162
0.49
108
0.81
210
1.86
206
2.35
230
0.23
116
0.54
170
0.64
212
0.74
206
0.54
191
2.20
211
0.60
196
0.94
221
0.57
185
0.51
197
0.53
193
0.78
194
0.75
178
1.48
223
2.01
221
Deantwo views2.18
236
3.00
255
1.41
238
3.65
250
3.00
256
3.31
245
3.34
247
1.62
243
1.76
241
1.34
248
1.15
231
3.10
229
3.59
235
2.78
245
1.12
236
0.88
230
1.64
244
1.06
242
3.90
227
1.55
249
0.98
223
0.82
221
4.20
252
1.27
244
2.36
246
1.90
240
2.17
241
1.95
220
AnyNet_C32two views0.85
194
0.47
165
0.49
175
0.50
160
0.51
174
0.63
182
0.58
187
0.74
196
1.45
232
0.60
187
0.80
207
0.74
168
0.50
173
0.49
192
0.82
213
0.68
218
0.75
208
0.68
215
1.18
184
0.54
186
0.98
223
0.88
223
0.48
193
0.61
200
0.74
188
0.98
206
0.71
167
4.30
251
WAO-7two views1.75
227
1.50
227
1.58
242
2.10
226
1.51
228
1.41
221
1.46
226
1.80
248
2.17
249
1.51
252
3.52
258
3.39
233
4.26
240
1.05
231
1.44
250
1.11
242
1.19
231
0.94
233
3.26
219
1.24
239
0.99
225
1.06
237
0.61
209
1.41
249
1.44
228
1.56
233
1.47
222
2.35
229
AMNettwo views0.92
198
0.91
213
0.88
220
0.91
204
0.95
217
0.96
209
0.87
210
0.71
192
0.88
210
0.90
224
0.98
222
0.99
182
0.64
185
0.95
226
0.89
221
1.00
239
1.06
224
0.97
237
0.96
167
0.97
225
1.02
226
0.97
227
0.52
198
0.91
228
0.91
206
0.98
206
1.06
204
1.14
186
PVDtwo views1.07
203
0.87
212
0.87
219
0.94
205
0.87
213
1.00
211
0.85
206
1.55
241
1.56
235
0.60
187
0.93
217
1.21
196
1.66
218
0.79
220
0.88
219
0.77
224
1.06
224
0.78
225
1.74
203
0.84
218
1.05
227
1.08
240
0.65
211
0.76
214
1.19
221
1.45
231
1.30
219
1.77
216
PSMNet_ROBtwo views1.96
231
2.74
247
1.24
233
2.52
233
1.79
232
3.39
251
2.92
239
1.22
225
1.19
222
1.32
247
1.42
236
2.74
224
3.87
238
2.53
241
1.17
241
0.79
226
1.30
234
0.85
231
5.35
236
1.19
234
1.06
228
0.97
227
4.07
251
1.12
242
1.56
232
1.42
229
1.57
227
1.58
207
IMHtwo views2.38
241
2.57
241
1.64
245
3.03
245
2.50
248
3.36
249
3.51
251
1.45
238
1.91
245
1.03
231
1.08
225
3.49
235
8.04
251
3.63
253
1.13
239
0.90
233
1.63
242
0.99
238
4.48
230
1.36
243
1.08
229
0.96
226
4.57
255
1.11
240
2.03
237
1.61
234
1.79
232
3.48
246
IMH-64-1two views2.14
234
2.52
238
1.62
243
3.01
243
2.45
244
3.32
246
3.49
249
1.41
235
1.89
243
1.00
227
1.09
226
3.32
231
4.52
242
3.28
251
1.18
242
0.90
233
1.59
240
0.94
233
3.67
222
1.33
240
1.12
230
1.00
232
4.55
253
1.06
236
2.07
238
1.40
226
1.68
229
2.36
230
IMH-64two views2.14
234
2.52
238
1.62
243
3.01
243
2.45
244
3.32
246
3.49
249
1.41
235
1.89
243
1.00
227
1.09
226
3.32
231
4.52
242
3.28
251
1.18
242
0.90
233
1.59
240
0.94
233
3.67
222
1.33
240
1.12
230
1.00
232
4.55
253
1.06
236
2.07
238
1.40
226
1.68
229
2.36
230
ELAScopylefttwo views1.96
231
1.69
229
1.23
232
2.25
227
1.75
230
2.41
231
1.49
227
1.55
241
1.80
242
0.89
223
2.14
251
7.05
255
6.02
248
0.61
211
0.88
219
0.63
210
1.06
224
0.78
225
2.32
213
0.80
214
1.15
232
1.19
243
0.79
218
0.98
232
3.21
256
2.53
254
2.67
250
3.05
241
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
STTRV1_RVCtwo views0.66
199
0.50
176
0.82
198
0.61
193
0.81
199
0.69
197
0.76
200
0.76
199
0.71
208
0.74
197
1.29
198
1.60
217
0.78
219
0.99
226
0.50
181
1.15
229
0.57
200
1.10
232
1.18
233
0.79
218
0.87
224
0.83
203
0.95
201
1.11
207
2.15
225
MFMNet_retwo views1.17
212
1.06
220
0.95
224
1.17
213
0.98
219
1.44
223
1.14
219
1.07
217
1.32
229
1.00
227
1.12
229
2.07
211
1.16
207
0.84
222
1.04
228
1.01
240
1.30
234
1.05
240
2.06
209
1.00
227
1.19
234
0.98
230
0.96
226
0.97
231
0.98
211
0.92
198
1.30
219
1.42
201
ELAS_RVCcopylefttwo views1.92
230
1.47
225
1.24
233
2.08
225
1.53
229
3.37
250
1.51
228
1.46
239
1.11
219
0.91
225
2.26
252
6.93
253
6.00
247
0.61
211
0.85
217
0.63
210
1.07
227
0.81
227
2.14
210
0.85
219
1.19
234
1.19
243
0.81
220
1.04
235
3.02
252
2.05
243
2.69
251
2.88
239
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
LVEtwo views2.29
239
2.69
244
1.56
241
4.79
260
2.63
252
3.26
244
3.58
252
1.30
229
1.38
231
1.61
254
1.27
233
2.94
226
3.52
234
2.79
246
1.07
233
0.88
230
1.50
239
1.09
243
6.15
240
1.42
244
1.24
236
1.14
241
3.90
247
1.43
251
2.52
249
1.66
235
2.05
239
2.34
228
DPSNettwo views1.63
222
0.63
195
0.62
200
0.87
201
0.82
208
1.02
212
0.59
188
0.68
186
0.90
211
0.45
76
0.50
148
5.87
249
2.58
232
0.29
146
1.06
230
1.04
241
1.03
223
0.91
232
13.68
260
0.88
221
1.24
236
0.89
224
1.13
229
1.02
234
1.25
225
1.42
229
1.17
210
1.35
199
SAMSARAtwo views1.12
207
0.61
194
0.85
218
0.70
185
0.65
195
0.66
188
0.66
193
1.25
227
0.98
216
0.77
215
0.70
191
0.93
180
2.06
227
0.59
206
1.05
229
0.80
227
0.77
210
0.75
221
1.62
197
0.77
213
1.27
238
1.40
251
0.42
187
0.78
218
2.33
243
2.27
249
2.28
242
2.31
227
ADCStwo views1.05
201
0.75
204
0.64
201
0.73
189
0.75
203
0.80
198
0.68
195
0.98
212
1.58
237
0.62
193
0.89
214
1.13
189
1.68
219
0.59
206
1.06
230
1.18
246
1.01
222
0.82
229
1.89
206
0.93
223
1.30
239
1.26
247
0.59
207
0.77
215
0.99
213
2.08
244
1.04
202
1.74
212
WAO-8two views2.81
243
2.84
248
1.93
250
4.63
257
2.49
246
3.42
252
2.87
237
1.88
249
3.27
258
1.37
249
1.46
238
4.92
240
7.73
249
3.64
254
1.31
245
1.16
244
1.83
248
1.15
247
6.68
245
2.14
256
1.34
240
1.05
235
2.87
241
1.34
246
3.29
257
2.12
245
2.43
245
4.61
253
WAO-6two views1.99
233
2.09
234
1.24
233
2.53
234
2.08
237
2.68
234
2.63
235
1.44
237
1.93
246
1.37
249
1.15
231
3.11
230
4.32
241
2.51
238
1.45
251
1.18
246
1.76
246
1.09
243
2.63
214
1.34
242
1.34
240
1.26
247
2.43
239
1.33
245
2.19
241
1.97
241
1.94
238
2.72
238
TorneroNettwo views5.35
257
3.54
257
2.08
254
3.85
252
3.06
257
4.35
257
4.55
256
1.78
247
5.81
262
1.30
246
1.48
241
6.10
251
59.26
276
3.90
262
1.29
244
0.98
238
2.50
256
1.23
249
15.91
261
1.53
248
1.34
240
1.07
239
5.16
259
1.38
248
2.49
248
2.34
252
2.12
240
4.10
249
Venustwo views2.81
243
2.84
248
1.93
250
4.63
257
2.49
246
3.42
252
2.87
237
1.88
249
3.27
258
1.37
249
1.46
238
4.92
240
7.73
249
3.64
254
1.31
245
1.16
244
1.83
248
1.15
247
6.68
245
2.14
256
1.34
240
1.05
235
2.87
241
1.34
246
3.29
257
2.12
245
2.43
245
4.61
253
TorneroNet-64two views4.00
250
3.59
258
1.93
250
4.36
256
2.95
254
4.26
255
4.58
258
1.71
245
6.44
264
1.23
244
1.09
226
5.61
247
25.81
264
3.97
263
1.34
248
0.95
236
2.58
257
1.26
250
11.84
257
1.51
246
1.36
244
1.04
234
4.94
258
1.42
250
2.25
242
2.47
253
1.83
235
5.55
258
DispFullNettwo views2.28
238
2.67
243
3.43
263
2.54
235
2.31
243
2.65
233
2.56
234
1.35
233
1.31
228
2.15
260
0.96
219
8.62
262
2.71
233
2.49
237
1.12
236
1.67
257
2.75
258
1.39
251
6.61
244
2.05
255
1.38
245
1.06
237
1.21
230
0.77
215
0.92
207
0.88
192
1.50
224
2.53
236
SGM+DAISYtwo views1.58
220
1.14
223
1.05
228
1.38
219
1.25
225
1.44
223
1.32
223
1.30
229
1.12
221
1.11
238
1.28
234
2.72
223
2.00
224
1.04
230
1.09
234
1.13
243
1.27
233
1.05
240
7.90
250
1.19
234
1.40
246
1.27
249
1.25
232
1.08
238
1.24
224
1.08
213
1.86
236
1.77
216
MADNet+two views1.35
217
0.92
215
1.11
231
1.21
214
1.04
221
0.96
209
1.37
225
1.50
240
1.20
223
1.08
235
1.06
224
1.64
205
1.82
222
0.98
227
1.52
252
1.31
251
1.87
250
1.00
239
1.93
207
1.21
237
1.55
247
1.17
242
0.98
227
1.56
253
1.52
231
1.17
218
1.29
218
2.50
235
SPS-STEREOcopylefttwo views1.34
214
1.09
222
1.04
227
1.28
217
1.18
224
1.20
216
0.98
214
1.33
232
1.23
226
1.12
240
1.29
235
2.02
209
1.20
208
0.94
225
1.12
236
1.23
248
1.30
234
1.13
246
3.84
225
1.20
236
1.66
248
1.24
246
1.22
231
1.09
239
1.17
220
1.11
215
1.58
228
1.46
202
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
KSHMRtwo views5.04
255
3.41
256
2.38
256
4.77
259
3.49
260
4.30
256
4.29
254
2.24
254
1.95
247
1.89
256
1.87
248
3.78
237
56.60
275
4.26
264
1.69
255
1.43
253
2.22
252
1.60
254
9.78
253
1.73
251
1.68
249
1.48
253
6.29
264
1.57
254
2.43
247
2.17
248
2.30
243
4.47
252
notakertwo views3.58
246
3.59
258
2.75
259
6.07
262
3.32
259
4.63
259
4.56
257
2.01
252
2.21
250
1.90
257
1.51
242
7.09
256
15.50
262
3.77
259
1.72
257
1.50
254
2.35
254
1.70
256
10.97
255
2.01
254
1.69
250
1.56
254
4.87
257
1.70
256
1.51
230
1.68
236
1.89
237
2.48
234
AnyNet_C01two views1.16
211
0.79
208
0.64
201
0.76
192
0.81
207
0.76
193
0.90
213
1.12
219
1.53
234
0.71
208
0.94
218
2.04
210
1.68
219
0.64
215
1.10
235
1.41
252
1.40
238
1.43
252
2.29
212
1.03
229
1.70
251
1.29
250
0.80
219
0.82
222
1.08
217
0.97
205
0.98
199
1.74
212
BEATNet-Init1two views11.87
264
15.78
268
1.38
237
34.17
273
2.55
250
31.72
274
9.59
266
2.52
256
2.49
252
0.96
226
2.28
253
18.81
266
32.29
268
0.54
202
1.70
256
0.88
230
0.80
213
0.66
211
61.61
276
16.09
270
1.78
252
1.44
252
0.75
216
1.12
242
14.82
266
2.79
255
37.47
274
23.61
267
ktntwo views4.83
253
2.95
253
2.02
253
3.73
251
2.99
255
3.77
254
4.53
255
1.75
246
2.92
255
2.10
259
1.52
243
11.18
265
36.94
270
3.71
256
2.06
259
1.82
258
2.47
255
1.99
257
18.72
263
1.98
253
1.88
253
1.74
256
4.75
256
1.91
258
2.11
240
2.29
250
2.70
252
3.98
248
PWCKtwo views3.72
247
2.52
238
1.72
247
3.06
246
2.07
235
3.03
238
2.98
240
1.97
251
2.05
248
2.27
261
3.31
257
5.51
245
3.67
236
1.40
232
1.32
247
0.97
237
1.74
245
1.10
245
42.82
274
1.70
250
1.90
254
1.23
245
2.24
238
1.51
252
1.84
234
2.15
247
1.79
232
2.46
232
UNDER WATER-64two views3.96
249
4.37
261
2.51
258
7.01
264
4.82
264
5.45
263
5.56
260
3.42
262
2.88
254
1.94
258
1.97
249
7.85
259
8.75
253
4.47
267
1.68
254
1.29
250
3.73
261
1.68
255
6.02
239
2.22
258
1.91
255
1.82
257
7.96
268
1.98
259
2.95
251
4.40
261
2.80
253
5.47
256
UNDER WATERtwo views3.87
248
4.07
260
2.45
257
6.40
263
4.68
263
5.32
262
5.36
259
3.27
258
3.11
256
1.70
255
1.81
247
7.54
257
10.28
255
4.28
265
1.61
253
1.24
249
3.62
260
1.58
253
6.48
243
2.35
260
1.91
255
1.64
255
7.43
267
2.14
260
3.08
253
3.53
257
2.66
248
4.95
255
LSM0two views6.82
259
0.81
209
0.59
194
1.23
215
1.02
220
1.29
220
1.18
220
1.65
244
1.45
232
1.18
242
1.52
243
2.65
221
4.03
239
0.51
197
59.80
276
70.35
276
1.18
230
0.77
224
10.00
254
1.47
245
2.50
257
3.56
263
0.65
211
0.90
227
1.33
226
1.41
228
2.40
244
8.70
261
DGSMNettwo views1.34
214
0.76
207
0.84
217
0.84
200
0.77
204
0.89
203
0.87
210
0.82
203
0.69
193
1.13
241
5.02
262
1.26
197
0.85
194
0.72
218
1.06
230
1.62
256
1.63
242
0.95
236
3.26
219
1.05
230
2.68
258
2.86
261
0.72
214
0.88
225
0.79
195
0.96
202
0.90
194
1.21
191
JetBluetwo views3.47
245
2.94
252
2.19
255
4.01
255
3.28
258
4.39
258
3.86
253
2.36
255
2.38
251
1.19
243
0.90
216
7.02
254
1.50
215
3.19
250
1.37
249
1.50
254
2.33
253
2.09
258
3.87
226
1.73
251
2.93
259
2.27
258
1.98
236
1.67
255
2.33
243
4.93
262
2.98
254
22.60
266
SPstereotwo views2.24
237
1.49
226
1.89
248
1.52
222
1.44
227
1.58
225
1.36
224
2.01
252
1.65
240
1.52
253
2.53
254
2.99
228
5.33
246
1.61
233
1.87
258
2.90
261
2.09
251
2.24
259
2.84
216
2.23
259
2.95
260
2.64
259
1.71
235
1.81
257
1.98
236
2.32
251
2.62
247
3.27
244
HanzoNettwo views10.34
261
6.49
265
3.95
264
14.30
267
6.07
265
19.42
268
21.47
271
6.96
266
10.04
266
2.64
263
2.68
256
30.46
270
52.16
274
23.13
273
2.36
260
2.79
260
5.38
263
2.60
261
25.05
266
5.07
264
3.22
261
2.85
260
8.74
269
2.65
261
4.75
260
4.05
260
4.27
259
5.54
257
MeshStereopermissivetwo views1.81
228
1.02
217
0.72
210
1.89
224
1.26
226
1.43
222
0.87
210
1.14
221
0.79
203
0.66
204
0.89
214
8.39
260
5.02
245
0.40
179
0.89
221
0.65
213
0.66
191
0.54
191
4.56
231
0.61
199
3.32
262
0.80
219
0.65
211
0.75
213
1.97
235
1.46
232
3.34
257
4.12
250
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DPSimNet_ROBtwo views5.25
256
2.91
250
3.05
260
2.71
237
2.70
253
2.74
236
3.01
243
3.28
259
3.44
260
2.70
264
24.36
272
5.90
250
13.71
260
2.93
248
2.87
262
4.00
263
3.18
259
2.34
260
22.47
264
3.37
262
4.40
263
3.75
264
2.59
240
2.84
263
3.39
259
3.00
256
3.30
256
6.87
259
JetRedtwo views5.83
258
4.38
262
5.23
265
3.30
247
4.12
262
5.85
264
9.23
265
4.20
263
2.78
253
2.31
262
2.00
250
5.46
244
1.20
208
5.68
268
3.38
263
3.88
262
6.46
266
6.52
263
3.80
224
2.98
261
6.60
264
4.97
265
5.41
260
2.73
262
9.22
263
21.91
269
5.29
261
18.57
264
LRCNet_RVCtwo views19.16
269
27.96
270
9.75
267
30.25
272
27.88
273
31.68
273
26.10
272
20.49
274
8.68
265
28.66
274
28.73
273
30.64
271
23.65
263
32.48
274
8.43
265
1.88
259
23.05
271
16.90
269
40.24
271
17.44
271
6.93
265
3.35
262
35.23
273
25.28
272
1.49
229
1.01
210
5.96
262
3.25
243
MADNet++two views4.30
251
2.97
254
3.19
261
2.44
231
3.80
261
2.62
232
3.22
246
3.36
261
4.11
261
3.55
265
3.66
259
5.40
243
4.86
244
3.12
249
2.43
261
4.06
264
3.95
262
3.22
262
6.34
242
4.44
263
7.73
266
13.41
267
2.00
237
3.91
264
3.19
254
7.99
263
3.68
258
3.33
245
DGTPSM_ROBtwo views10.91
262
5.63
263
16.64
268
3.95
253
7.34
266
4.92
260
7.44
261
4.30
264
11.23
267
4.12
266
8.40
264
4.53
238
13.14
257
3.85
260
12.94
266
13.80
266
6.33
264
15.35
267
7.08
247
11.58
266
8.21
267
20.96
268
5.52
261
10.97
268
11.26
264
29.88
272
12.66
264
32.49
270
DPSMNet_ROBtwo views11.00
263
5.63
263
16.64
268
3.96
254
7.34
266
4.92
260
7.44
261
4.30
264
11.25
268
4.13
267
8.58
265
4.57
239
14.55
261
3.88
261
12.94
266
13.80
266
6.34
265
15.40
268
7.85
249
11.58
266
8.22
268
20.97
269
5.52
261
10.97
268
11.28
265
29.87
271
12.66
264
32.49
270
PMLtwo views26.01
270
16.47
269
5.54
266
20.38
271
13.16
270
20.84
269
9.63
267
9.23
268
69.83
277
17.73
273
139.43
277
91.26
276
98.96
277
9.19
272
8.28
264
7.65
265
13.69
267
6.52
263
31.86
270
6.30
265
10.00
269
7.86
266
5.54
263
5.57
265
24.82
270
10.77
265
31.09
271
10.74
262
DPSM_ROBtwo views17.13
267
15.19
266
21.09
270
8.59
265
8.29
268
12.91
266
8.41
263
9.74
269
14.29
269
8.00
268
8.92
266
10.02
263
13.15
258
3.71
256
17.12
268
17.90
268
17.95
269
19.75
270
13.14
258
14.59
268
24.07
270
27.10
270
6.34
265
14.03
270
30.70
272
38.45
273
35.86
272
43.05
273
DPSMtwo views17.13
267
15.19
266
21.09
270
8.59
265
8.29
268
12.91
266
8.41
263
9.74
269
14.29
269
8.00
268
8.92
266
10.02
263
13.15
258
3.71
256
17.12
268
17.90
268
17.95
269
19.75
270
13.14
258
14.59
268
24.07
270
27.10
270
6.34
265
14.03
270
30.70
272
38.45
273
35.86
272
43.05
273
HaxPigtwo views36.95
274
39.38
274
36.02
272
37.94
274
42.14
274
37.82
275
41.49
274
37.89
275
39.02
274
47.01
275
48.90
275
44.27
273
35.80
269
36.82
275
38.89
274
36.75
274
45.48
275
48.70
275
40.83
272
39.66
275
36.10
272
30.92
272
47.77
275
39.68
276
18.58
267
16.85
267
13.59
266
19.32
265
AVERAGE_ROBtwo views39.07
275
42.10
275
39.04
273
43.37
275
44.15
276
43.08
276
43.88
275
43.21
276
40.00
275
47.62
276
48.04
274
44.84
274
39.97
271
43.46
277
38.33
273
36.44
273
46.53
276
49.04
276
41.84
273
40.32
276
39.63
273
34.70
273
46.76
274
39.74
277
24.66
269
16.71
266
19.73
268
17.80
263
MEDIAN_ROBtwo views40.90
276
43.34
276
39.72
274
44.06
276
45.29
277
43.61
277
44.70
276
43.97
277
40.60
276
50.37
277
51.53
276
46.75
275
40.36
272
41.80
276
40.48
275
38.16
275
48.55
277
51.45
277
44.21
275
42.99
277
40.94
274
34.86
274
48.85
276
41.17
278
25.23
271
24.02
270
21.83
270
25.36
268
CasAABBNettwo views34.41
272
30.51
271
42.45
275
17.22
268
16.57
271
25.84
270
16.81
268
19.09
271
28.74
271
16.65
272
18.06
270
20.17
267
26.39
265
7.50
269
34.38
270
35.87
270
36.10
274
39.70
272
26.18
267
29.35
274
48.14
275
54.75
277
12.73
272
28.31
275
61.71
274
77.35
275
71.94
275
86.51
275
MyStereo03two views34.45
273
30.52
272
42.47
276
17.26
269
16.71
272
26.07
271
16.92
269
19.55
272
28.76
272
16.17
270
17.98
268
20.17
267
26.47
266
7.52
270
34.40
271
35.99
271
36.08
272
39.75
273
26.27
268
29.34
272
48.43
276
54.62
275
12.72
270
28.26
273
61.75
275
77.38
276
72.05
276
86.69
276
MyStereo02two views33.84
271
30.52
272
42.47
276
17.26
269
0.00
1
26.07
271
16.92
269
19.55
272
28.76
272
16.17
270
17.98
268
20.17
267
26.47
266
7.52
270
34.40
271
35.99
271
36.08
272
39.75
273
26.27
268
29.34
272
48.43
276
54.62
275
12.72
270
28.26
273
61.75
275
77.38
276
72.05
276
86.69
276
ASD4two views6.32
266