This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.10
1
0.12
36
0.21
36
0.02
14
0.02
8
0.01
11
0.00
1
0.02
12
0.02
10
0.00
1
0.00
1
0.15
11
0.01
3
0.00
1
0.69
2
0.74
12
0.14
19
0.06
17
0.09
6
0.03
3
0.06
1
0.13
2
0.00
1
0.03
16
0.02
8
0.00
1
0.10
13
0.00
1
Pointernettwo views0.13
2
0.04
4
0.01
2
0.00
1
0.00
1
0.07
94
0.18
131
0.00
1
0.01
3
0.00
1
0.07
87
0.10
9
0.01
3
0.01
23
0.89
6
0.57
4
0.12
13
0.02
3
0.09
6
0.06
9
0.11
5
0.83
11
0.00
1
0.02
6
0.01
3
0.00
1
0.04
2
0.18
79
StereoVisiontwo views0.13
2
0.11
30
0.03
12
0.04
29
0.04
20
0.00
1
0.03
42
0.04
32
0.03
18
0.03
62
0.00
1
0.19
22
0.02
8
0.02
44
1.02
9
0.79
16
0.13
18
0.02
3
0.30
20
0.04
5
0.21
12
0.19
3
0.00
1
0.06
25
0.04
27
0.00
1
0.12
15
0.00
1
MLG-Stereotwo views0.18
4
0.06
15
0.01
2
0.01
4
0.01
4
0.17
143
0.01
11
0.02
12
0.02
10
0.00
1
0.00
1
0.08
5
0.05
27
0.00
1
1.48
18
1.35
56
0.05
2
0.05
13
0.33
24
0.23
40
0.22
13
0.63
8
0.00
1
0.01
1
0.02
8
0.01
8
0.07
7
0.00
1
CroCo-Stereo Lap2two views0.18
4
0.11
30
0.04
16
0.05
35
0.06
28
0.00
1
0.01
11
0.03
22
0.05
33
0.24
96
0.00
1
0.16
13
0.06
40
0.01
23
1.29
11
1.05
26
0.06
5
0.04
8
0.06
3
0.05
7
0.40
31
0.86
13
0.00
1
0.04
19
0.04
27
0.01
8
0.05
4
0.00
1
MLG-Stereo_test1two views0.20
6
0.05
9
0.01
2
0.01
4
0.01
4
0.17
143
0.01
11
0.02
12
0.02
10
0.00
1
0.00
1
0.02
1
0.05
27
0.00
1
1.42
15
1.28
48
0.03
1
0.05
13
0.33
24
0.24
43
0.23
15
1.27
21
0.00
1
0.01
1
0.02
8
0.01
8
0.07
7
0.00
1
AASNettwo views0.20
6
0.45
109
0.24
42
0.09
60
0.09
42
0.00
1
0.08
85
0.05
37
0.05
33
0.26
97
0.00
1
0.18
14
0.04
20
0.01
23
1.13
10
0.68
10
0.12
13
0.04
8
0.09
6
0.16
29
0.29
22
0.77
10
0.01
17
0.07
30
0.00
1
0.02
24
0.49
42
0.03
41
TDLMtwo views0.20
6
0.10
28
0.21
36
0.08
56
0.23
90
0.02
39
0.04
54
0.19
61
0.04
26
0.02
59
0.10
91
0.67
114
0.05
27
0.10
115
0.43
1
0.28
1
0.35
63
0.20
53
0.02
1
0.01
1
0.12
6
1.22
19
0.05
67
0.01
1
0.00
1
0.02
24
0.41
39
0.41
102
MM-Stereo_test3two views0.21
9
0.04
4
0.02
6
0.00
1
0.01
4
0.02
39
0.00
1
0.01
2
0.01
3
0.00
1
0.00
1
0.14
10
0.03
13
0.05
82
0.99
8
0.77
14
0.16
24
0.17
45
0.16
13
0.26
50
0.06
1
2.10
42
0.18
132
0.02
6
0.01
3
0.06
46
0.47
41
0.06
54
CroCo-Stereocopylefttwo views0.21
9
0.09
26
0.03
12
0.05
35
0.07
36
0.00
1
0.00
1
0.04
32
0.05
33
0.00
1
0.00
1
0.09
8
0.07
41
0.00
1
1.51
19
1.11
30
0.17
28
0.08
22
0.76
41
0.05
7
0.40
31
0.85
12
0.00
1
0.04
19
0.04
27
0.01
8
0.08
10
0.00
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
delettwo views0.21
9
0.08
24
0.24
42
0.06
38
0.05
22
0.02
39
0.04
54
0.02
12
0.05
33
0.34
106
0.00
1
0.20
28
0.04
20
0.02
44
1.45
17
0.53
3
0.23
39
0.07
18
0.12
10
0.06
9
0.15
8
0.38
5
0.01
17
0.06
25
0.01
3
0.01
8
1.50
69
0.02
35
RSMtwo views0.22
12
0.06
15
0.35
69
0.02
14
0.03
15
0.12
109
0.01
11
0.01
2
0.02
10
0.00
1
0.00
1
0.18
14
0.05
27
0.00
1
0.73
4
0.58
5
0.18
29
0.04
8
0.18
14
0.51
101
0.24
17
2.12
43
0.09
103
0.08
34
0.02
8
0.18
69
0.16
18
0.00
1
ProNettwo views0.22
12
0.03
1
0.09
25
0.01
4
0.00
1
0.12
109
0.75
186
0.01
2
0.01
3
0.00
1
0.00
1
0.05
3
0.00
1
0.22
156
1.31
12
1.03
24
0.22
37
0.01
2
0.09
6
0.12
22
0.24
17
1.33
24
0.03
54
0.01
1
0.07
42
0.00
1
0.05
4
0.00
1
Utwo views0.23
14
0.13
37
0.03
12
0.06
38
0.07
36
0.00
1
0.01
11
0.05
37
0.04
26
0.00
1
0.00
1
0.25
42
0.07
41
0.00
1
1.58
20
1.23
39
0.05
2
0.13
31
0.52
32
0.08
15
0.50
39
1.03
15
0.01
17
0.10
42
0.08
45
0.02
24
0.06
6
0.03
41
RSM++two views0.23
14
0.06
15
0.35
69
0.02
14
0.02
8
0.11
106
0.00
1
0.01
2
0.02
10
0.00
1
0.00
1
0.19
22
0.08
46
0.00
1
0.88
5
0.61
7
0.18
29
0.04
8
0.13
11
0.57
121
0.23
15
2.20
46
0.14
118
0.09
37
0.03
21
0.01
8
0.23
25
0.00
1
AIO-test2two views0.25
16
0.09
26
0.02
6
0.01
4
0.09
42
0.04
69
0.01
11
0.01
2
0.00
1
0.00
1
0.00
1
0.08
5
0.04
20
0.00
1
1.71
24
1.44
65
0.15
21
0.04
8
0.03
2
0.33
62
0.10
3
2.30
50
0.06
75
0.16
71
0.05
33
0.01
8
0.10
13
0.00
1
MM-Stereo_test1two views0.26
17
0.06
15
0.08
23
0.00
1
0.01
4
0.02
39
0.00
1
0.01
2
0.00
1
0.00
1
0.00
1
0.18
14
0.03
13
0.15
134
1.33
13
1.35
56
0.18
29
0.17
45
0.19
15
0.37
71
0.10
3
2.34
52
0.19
137
0.06
25
0.04
27
0.08
52
0.12
15
0.00
1
RAFTtwo views0.28
18
0.04
4
0.31
53
0.02
14
0.00
1
0.12
109
0.12
110
0.93
109
0.01
3
0.69
130
0.00
1
0.18
14
0.00
1
0.01
23
2.07
37
1.23
39
0.23
39
0.00
1
0.06
3
0.21
38
0.15
8
0.60
6
0.00
1
0.06
25
0.03
21
0.01
8
0.34
34
0.00
1
RAStereotwo views0.29
19
0.18
47
0.05
19
0.06
38
0.11
47
0.00
1
0.02
26
0.03
22
0.04
26
0.94
147
0.00
1
0.26
44
0.02
8
0.01
23
1.70
23
1.19
38
0.09
7
0.13
31
0.30
20
0.03
3
0.80
52
1.45
27
0.00
1
0.14
61
0.05
33
0.01
8
0.20
20
0.02
35
AANet_RVCtwo views0.29
19
0.05
9
0.28
50
0.06
38
0.21
84
0.00
1
0.24
145
0.03
22
0.17
95
0.34
106
0.01
72
0.08
5
0.04
20
0.01
23
2.17
41
0.58
5
0.16
24
0.07
18
0.44
30
0.20
34
0.13
7
0.33
4
0.03
54
0.07
30
0.02
8
0.06
46
1.15
58
0.86
126
AIO-test1two views0.30
21
0.04
4
0.03
12
0.02
14
0.08
40
0.04
69
0.00
1
0.01
2
0.03
18
0.00
1
0.00
1
0.02
1
0.04
20
0.00
1
2.02
35
1.69
90
0.15
21
0.02
3
0.24
18
0.55
118
0.20
10
2.67
57
0.00
1
0.02
6
0.02
8
0.01
8
0.09
11
0.00
1
LG-Stereotwo views0.31
22
0.05
9
0.02
6
0.02
14
0.07
36
0.13
115
0.01
11
0.03
22
0.10
68
0.00
1
0.87
156
0.44
76
0.01
3
0.00
1
2.07
37
1.46
67
0.11
9
0.16
42
0.67
39
0.47
87
0.31
26
1.19
18
0.04
64
0.02
6
0.05
33
0.10
57
0.07
7
0.00
1
MM-Stereo_test2two views0.33
23
0.05
9
0.07
20
0.01
4
0.02
8
0.02
39
0.00
1
0.02
12
0.02
10
0.00
1
0.00
1
0.18
14
0.02
8
0.00
1
1.77
29
1.68
89
0.21
35
0.08
22
0.19
15
0.58
122
0.29
22
3.05
73
0.18
132
0.09
37
0.08
45
0.19
71
0.12
15
0.00
1
111111two views0.34
24
0.03
1
0.08
23
0.01
4
0.03
15
0.10
103
0.00
1
0.01
2
0.01
3
0.00
1
0.01
72
0.18
14
0.05
27
0.01
23
1.98
33
1.34
55
0.11
9
0.15
39
0.59
36
0.56
119
0.34
28
3.31
85
0.26
157
0.02
6
0.02
8
0.05
43
0.04
2
0.00
1
DEFOM-Stereotwo views0.34
24
0.19
48
0.23
41
0.01
4
0.06
28
0.12
109
0.01
11
0.03
22
0.03
18
0.00
1
0.00
1
0.20
28
0.03
13
0.00
1
2.15
40
1.48
70
0.10
8
0.13
31
0.33
24
0.11
19
0.45
35
0.93
14
0.00
1
0.02
6
0.07
42
0.03
31
2.36
91
0.06
54
AIO-Stereopermissivetwo views0.34
24
0.05
9
0.34
64
0.01
4
0.03
15
0.13
115
0.00
1
0.01
2
0.02
10
0.00
1
0.00
1
0.19
22
0.05
27
0.00
1
1.68
22
1.06
28
0.49
87
0.08
22
1.56
76
0.76
153
0.22
13
2.17
45
0.11
111
0.01
1
0.01
3
0.02
24
0.20
20
0.00
1
MMNettwo views0.34
24
0.21
49
0.07
20
0.05
35
0.06
28
0.00
1
0.12
110
0.03
22
0.04
26
0.22
94
0.00
1
0.36
56
0.02
8
0.05
82
2.17
41
0.69
11
0.33
59
0.15
39
0.34
27
0.07
11
0.34
28
0.60
6
0.06
75
0.10
42
0.03
21
0.05
43
2.93
105
0.02
35
MLG-Stereo_test2two views0.35
28
0.14
38
0.04
16
0.01
4
0.06
28
0.18
148
0.02
26
0.02
12
0.03
18
0.00
1
0.63
149
0.18
14
0.01
3
0.00
1
1.83
30
1.31
52
0.06
5
0.20
53
1.35
70
0.38
72
0.41
33
2.30
50
0.16
125
0.05
22
0.06
39
0.01
8
0.09
11
0.01
24
iRaftStereo_RVCtwo views0.35
28
0.21
49
0.33
59
0.22
79
0.15
56
0.02
39
0.02
26
0.05
37
0.08
55
0.00
1
0.00
1
0.28
46
0.11
63
0.03
58
1.35
14
0.98
21
0.35
63
0.07
18
0.49
31
0.17
31
1.05
70
2.96
64
0.00
1
0.05
22
0.09
48
0.01
8
0.23
25
0.04
45
MoCha-V2two views0.36
30
0.06
15
0.31
53
0.01
4
0.05
22
0.09
98
0.01
11
0.02
12
0.01
3
0.00
1
0.00
1
0.19
22
0.18
88
0.00
1
2.33
50
1.63
82
0.18
29
0.19
51
0.15
12
0.99
171
0.28
21
3.01
67
0.00
1
0.02
6
0.01
3
0.07
51
0.03
1
0.00
1
DMCAtwo views0.36
30
0.36
94
0.19
35
0.17
69
0.09
42
0.02
39
0.05
66
0.02
12
0.05
33
0.58
125
0.00
1
0.39
66
0.05
27
0.01
23
2.07
37
0.98
21
0.54
93
0.12
29
0.23
17
0.10
18
0.46
36
1.38
26
0.01
17
0.22
86
0.03
21
0.08
52
1.30
59
0.15
76
MaDis-Stereotwo views0.39
32
0.23
54
0.35
69
0.07
50
0.15
56
0.02
39
0.04
54
0.08
47
0.07
47
1.22
167
0.00
1
0.23
40
0.03
13
0.02
44
1.62
21
1.29
49
0.14
19
0.29
73
1.62
77
0.12
22
0.84
58
1.37
25
0.01
17
0.18
76
0.20
80
0.16
67
0.17
19
0.04
45
IGEV-Stereo++two views0.40
33
0.03
1
0.10
27
0.03
25
0.03
15
0.10
103
0.01
11
0.01
2
0.03
18
0.00
1
0.15
103
0.18
14
0.03
13
0.01
23
1.95
32
1.30
50
0.05
2
0.29
73
0.81
43
0.51
101
0.25
19
3.15
79
0.27
163
0.03
16
0.02
8
0.01
8
1.39
64
0.00
1
GIP-stereotwo views0.42
34
0.06
15
0.14
31
0.02
14
0.05
22
0.16
135
0.02
26
0.06
42
0.03
18
0.00
1
0.25
117
0.32
52
0.05
27
0.01
23
3.07
69
1.67
87
0.15
21
0.05
13
0.31
22
0.71
146
0.49
38
3.30
84
0.06
75
0.04
19
0.03
21
0.09
55
0.33
32
0.00
1
CVANet_RVCtwo views0.42
34
0.29
70
0.82
148
0.60
175
0.31
112
0.18
148
0.03
42
1.58
130
0.25
120
0.12
81
0.28
119
0.84
127
0.05
27
0.11
120
0.69
2
0.46
2
0.36
65
0.25
64
0.08
5
0.08
15
0.20
10
1.95
35
0.02
43
0.05
22
0.06
39
0.03
31
0.70
46
1.10
139
UniTT-Stereotwo views0.45
36
0.30
73
0.37
81
0.08
56
0.19
69
0.01
11
0.02
26
0.10
52
0.09
63
0.00
1
0.00
1
0.49
85
0.09
52
0.05
82
2.28
46
1.53
74
0.28
52
0.43
113
1.84
87
0.14
27
1.17
74
1.99
39
0.01
17
0.23
89
0.16
75
0.10
57
0.26
28
0.03
41
MLG-Stereo_test3two views0.48
37
0.06
15
0.33
59
0.12
66
0.16
59
0.17
143
0.02
26
0.07
43
0.04
26
1.13
158
0.00
1
0.23
40
0.08
46
0.01
23
1.98
33
1.62
80
0.11
9
0.19
51
1.38
71
0.29
55
0.76
48
3.35
86
0.02
43
0.10
42
0.06
39
0.03
31
0.74
48
0.01
24
Occ-Gtwo views0.48
37
0.11
30
0.24
42
0.04
29
0.11
47
0.16
135
0.04
54
0.04
32
0.02
10
0.00
1
0.25
117
0.15
11
0.02
8
0.00
1
3.08
71
1.56
76
0.11
9
0.34
84
1.04
53
0.48
93
0.85
59
3.04
72
0.23
147
0.07
30
0.04
27
0.02
24
0.83
51
0.01
24
RAFT + AFFtwo views0.48
37
0.05
9
0.01
2
0.22
79
0.03
15
0.04
69
0.14
118
0.03
22
0.03
18
0.00
1
0.00
1
0.32
52
0.03
13
0.07
97
4.66
139
0.97
20
0.56
100
0.09
25
2.34
98
0.04
5
0.69
44
1.96
36
0.02
43
0.22
86
0.15
72
0.12
61
0.24
27
0.01
24
GREAT-IGEVtwo views0.49
40
0.07
22
0.29
51
0.02
14
0.02
8
0.14
121
0.00
1
0.03
22
1.58
210
0.00
1
0.00
1
0.19
22
0.07
41
0.00
1
2.22
43
2.07
126
0.16
24
0.26
66
0.25
19
0.80
156
0.33
27
2.96
64
0.25
155
0.79
190
0.02
8
0.00
1
0.71
47
0.00
1
HCRNettwo views0.49
40
0.39
99
0.36
75
0.29
113
0.12
50
0.01
11
0.06
74
0.03
22
0.01
3
1.48
182
0.00
1
0.20
28
0.05
27
0.01
23
2.61
58
0.78
15
0.42
76
0.07
18
0.32
23
0.12
22
0.37
30
2.22
47
0.02
43
0.02
6
0.02
8
0.02
24
3.33
124
0.03
41
LG-Stereo_L1two views0.51
42
0.26
64
0.02
6
0.04
29
0.24
93
0.15
131
0.03
42
0.07
43
0.07
47
0.00
1
0.60
146
0.37
60
0.35
123
0.03
58
2.59
56
2.00
113
0.23
39
0.18
48
1.31
67
0.40
76
0.75
46
3.23
82
0.04
64
0.09
37
0.35
101
0.04
39
0.21
24
0.08
57
LG-G_1two views0.51
42
0.28
68
0.33
59
0.18
71
0.22
86
0.16
135
0.02
26
0.05
37
0.07
47
0.01
53
0.58
141
0.20
28
0.24
106
0.03
58
2.30
48
1.80
95
0.27
49
0.37
87
0.82
44
0.47
87
0.91
61
3.77
101
0.01
17
0.12
51
0.11
59
0.03
31
0.34
34
0.01
24
LG-Gtwo views0.51
42
0.28
68
0.33
59
0.18
71
0.22
86
0.16
135
0.02
26
0.05
37
0.07
47
0.01
53
0.58
141
0.20
28
0.24
106
0.03
58
2.30
48
1.80
95
0.27
49
0.37
87
0.82
44
0.47
87
0.91
61
3.77
101
0.01
17
0.12
51
0.11
59
0.03
31
0.34
34
0.01
24
DFGA-Nettwo views0.52
45
0.32
76
0.09
25
0.23
86
0.05
22
0.01
11
0.02
26
0.55
97
0.05
33
1.27
169
0.00
1
0.20
28
0.05
27
0.03
58
1.75
26
1.26
42
0.37
67
0.09
25
1.05
54
0.07
11
0.77
50
2.14
44
0.00
1
0.21
84
0.02
8
0.00
1
3.39
128
0.02
35
UPFNettwo views0.52
45
0.31
75
0.76
140
0.22
79
0.28
107
0.02
39
0.05
66
0.09
51
0.08
55
0.38
112
0.00
1
0.38
63
0.03
13
0.24
158
3.16
75
1.04
25
0.34
61
0.14
36
0.59
36
0.34
65
0.44
34
1.09
16
0.01
17
0.30
105
0.05
33
0.01
8
3.54
134
0.05
50
LGtest1two views0.53
47
0.07
22
0.34
64
0.03
25
0.14
53
0.16
135
0.03
42
0.08
47
0.14
82
0.04
65
0.84
155
0.21
37
0.15
73
0.00
1
2.36
52
2.07
126
0.21
35
0.46
120
0.87
49
0.41
77
0.76
48
4.21
118
0.05
67
0.12
51
0.12
62
0.04
39
0.27
29
0.01
24
LG-Stereo_L2two views0.54
48
0.34
88
0.02
6
0.04
29
0.24
93
0.18
148
0.03
42
0.07
43
0.07
47
0.00
1
0.59
145
0.43
75
0.35
123
0.04
76
2.83
64
2.03
116
0.26
47
0.18
48
1.09
55
0.38
72
0.82
57
3.54
92
0.04
64
0.09
37
0.34
99
0.06
46
0.31
30
0.08
57
AEACVtwo views0.55
49
0.71
156
0.34
64
0.04
29
0.05
22
0.10
103
0.02
26
0.02
12
0.03
18
0.00
1
0.00
1
0.20
28
0.13
68
0.05
82
2.71
61
2.52
148
0.12
13
0.64
143
1.33
68
0.95
169
0.81
54
3.06
74
0.32
177
0.09
37
0.02
8
0.20
74
0.41
39
0.00
1
plaintwo views0.56
50
0.39
99
0.44
94
0.17
69
0.41
147
0.01
11
0.01
11
0.74
103
0.08
55
0.01
53
0.00
1
0.74
119
0.14
71
0.04
76
2.91
66
1.93
106
0.25
44
0.44
116
1.02
52
0.16
29
1.65
103
2.50
55
0.01
17
0.41
131
0.21
84
0.06
46
0.36
37
0.10
62
anonymousdsptwo views0.56
50
0.10
28
0.36
75
0.24
90
0.07
36
0.09
98
0.01
11
0.04
32
0.05
33
0.00
1
2.27
188
0.22
38
0.20
92
0.00
1
2.28
46
1.41
63
0.28
52
0.17
45
0.52
32
0.67
144
0.56
40
3.56
93
0.31
174
0.07
30
0.02
8
0.01
8
1.65
72
0.01
24
GMStereopermissivetwo views0.56
50
0.94
180
0.07
20
0.25
94
0.06
28
0.01
11
0.02
26
0.15
59
0.07
47
0.00
1
0.00
1
0.41
70
0.01
3
0.01
23
2.04
36
1.15
34
0.34
61
0.18
48
2.72
119
0.11
19
1.52
91
2.04
40
0.00
1
0.08
34
0.20
80
0.03
31
2.65
98
0.04
45
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
SGD-Stereotwo views0.57
53
0.11
30
0.26
48
0.02
14
0.06
28
0.02
39
0.04
54
0.04
32
0.07
47
0.00
1
0.00
1
0.40
69
0.09
52
0.01
23
5.50
169
2.06
124
0.45
79
0.28
71
0.54
34
0.23
40
1.49
89
2.89
63
0.02
43
0.08
34
0.09
48
0.06
46
0.31
30
0.22
82
MIF-Stereo (partial)two views0.58
54
0.39
99
0.42
89
0.07
50
0.22
86
0.02
39
0.03
42
0.08
47
0.11
72
0.01
53
0.01
72
0.50
89
0.12
65
0.03
58
2.35
51
1.69
90
0.25
44
0.60
141
0.91
50
0.11
19
1.40
83
2.26
49
0.01
17
0.34
108
0.12
62
0.29
85
2.91
104
0.38
98
AIO_rvctwo views0.61
55
0.30
73
0.36
75
0.03
25
0.02
8
0.14
121
0.30
150
0.02
12
0.05
33
0.00
1
0.00
1
0.19
22
0.09
52
0.06
91
3.14
73
2.93
164
0.18
29
0.51
126
2.38
99
0.52
104
0.69
44
3.61
95
0.46
200
0.02
6
0.13
64
0.04
39
0.20
20
0.01
24
RYNettwo views0.61
55
0.04
4
0.00
1
0.02
14
0.04
20
0.00
1
0.01
11
0.03
22
0.04
26
0.07
69
0.00
1
0.07
4
0.12
65
0.00
1
4.57
133
0.66
9
0.12
13
0.99
192
0.37
28
0.02
2
0.25
19
0.10
1
0.05
67
0.03
16
0.08
45
7.32
234
1.40
65
0.12
72
IGEV-Stereo+two views0.62
57
1.03
191
0.04
16
0.11
63
0.14
53
0.14
121
0.03
42
0.10
52
0.11
72
0.02
59
2.00
183
0.32
52
0.30
117
0.02
44
1.86
31
1.97
110
0.16
24
0.31
79
1.71
81
0.60
127
1.02
67
3.85
108
0.29
167
0.06
25
0.03
21
0.21
75
0.20
20
0.00
1
GANettwo views0.63
58
0.72
158
0.73
136
0.46
161
0.40
145
1.37
211
0.41
164
0.45
88
0.06
43
0.21
90
2.81
209
2.16
171
0.28
114
0.47
204
0.89
6
0.62
8
0.74
119
0.38
92
0.38
29
0.07
11
0.30
24
1.98
38
0.14
118
0.13
59
0.20
80
0.03
31
0.52
43
0.22
82
TestStereotwo views0.64
59
0.64
145
0.54
117
0.22
79
0.11
47
0.01
11
0.03
42
1.87
144
0.23
115
0.30
101
0.00
1
0.37
60
0.08
46
0.01
23
1.75
26
0.93
19
0.45
79
0.23
63
2.92
126
0.12
22
1.51
90
1.70
28
0.05
67
0.11
49
0.21
84
0.46
103
2.24
89
0.13
74
AIO_testtwo views0.66
60
0.53
121
0.44
94
0.04
29
0.02
8
0.14
121
0.42
165
0.12
56
0.04
26
0.00
1
0.00
1
0.20
28
0.10
59
0.03
58
3.07
69
3.04
169
0.25
44
0.32
81
1.33
68
0.44
82
1.28
80
3.68
97
0.44
196
0.02
6
0.18
77
0.43
102
1.11
57
0.01
24
YMNettwo views0.67
61
0.38
98
0.02
6
0.20
74
0.25
102
0.33
173
2.67
229
0.36
77
0.06
43
1.09
155
0.00
1
0.41
70
2.95
229
0.01
23
2.43
54
2.05
122
0.61
107
0.46
120
0.54
34
0.25
47
0.30
24
1.29
22
0.00
1
0.10
42
0.37
103
0.05
43
0.62
44
0.38
98
UNettwo views0.67
61
0.32
76
0.47
109
0.27
107
0.23
90
0.03
62
0.15
121
0.55
97
0.14
82
1.13
158
0.00
1
0.61
105
0.17
86
0.15
134
2.26
44
1.51
73
0.50
88
0.22
58
1.51
75
0.25
47
0.75
46
1.79
31
0.18
132
0.60
163
0.07
42
0.32
94
3.43
131
0.61
118
MGS-Stereotwo views0.68
63
0.97
186
0.65
124
0.25
94
0.18
63
0.01
11
0.05
66
0.07
43
0.14
82
0.00
1
0.00
1
0.30
48
0.15
73
0.03
58
5.25
162
1.01
23
0.41
74
0.26
66
1.09
55
0.44
82
1.38
82
2.76
59
0.03
54
0.27
96
0.34
99
0.25
78
1.72
74
0.24
85
HITNettwo views0.68
63
0.16
42
0.11
29
0.07
50
0.10
46
0.01
11
0.03
42
1.72
134
0.79
172
0.11
75
0.00
1
0.77
124
0.28
114
0.12
127
2.69
59
1.17
35
0.45
79
0.14
36
0.72
40
0.25
47
1.61
101
2.80
61
0.01
17
0.17
72
0.04
27
0.15
64
3.40
129
0.41
102
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IERtwo views0.69
65
0.46
111
0.29
51
0.30
117
0.18
63
0.01
11
0.09
93
0.42
83
0.11
72
1.07
154
0.07
87
1.62
164
0.05
27
0.20
149
3.15
74
1.25
41
0.40
71
0.16
42
0.82
44
0.44
82
0.57
41
2.22
47
0.21
139
0.34
108
0.09
48
1.03
134
2.96
106
0.28
88
G2L-Stereotwo views0.70
66
0.35
92
0.24
42
0.37
142
0.64
170
0.02
39
0.07
79
0.17
60
0.08
55
0.51
122
0.10
91
0.28
46
0.49
152
0.45
201
3.38
88
1.05
26
0.27
49
0.20
53
1.46
73
0.28
53
1.54
92
1.85
32
0.07
92
0.12
51
0.28
96
0.78
124
3.56
135
0.38
98
DEFOM-Stereo_RVCtwo views0.70
66
0.11
30
0.32
57
0.06
38
0.20
78
0.09
98
0.02
26
0.13
58
0.23
115
0.03
62
0.04
80
0.48
83
0.15
73
0.01
23
3.26
83
2.49
145
0.31
58
0.44
116
1.92
89
0.48
93
1.70
108
4.79
149
0.16
125
0.12
51
0.09
48
0.16
67
0.90
53
0.07
56
HGLStereotwo views0.70
66
0.34
88
0.41
87
0.23
86
0.31
112
0.02
39
0.17
127
0.08
47
0.13
80
1.20
166
0.69
152
0.25
42
0.15
73
0.09
110
2.36
52
1.50
71
0.57
102
0.29
73
1.25
61
0.24
43
1.13
73
3.16
80
0.08
98
0.34
108
0.18
77
0.19
71
3.13
111
0.47
106
IGEV-BASED-STEREO-two views0.71
69
0.58
131
0.33
59
0.08
56
0.18
63
0.19
152
0.04
54
0.12
56
0.18
99
0.04
65
0.51
137
0.50
89
0.41
137
0.02
44
2.44
55
2.27
136
0.33
59
0.54
132
1.14
58
0.44
82
2.08
125
4.84
150
0.09
103
0.12
51
0.10
54
0.15
64
1.37
63
0.08
57
CFNettwo views0.72
70
0.50
119
0.71
132
0.48
164
0.45
154
0.06
92
0.27
149
0.58
99
0.09
63
0.65
129
0.04
80
0.84
127
0.10
59
0.05
82
2.80
63
0.75
13
0.60
106
0.09
25
0.84
48
0.41
77
1.10
72
1.22
19
0.03
54
0.13
59
0.58
120
1.14
137
3.44
132
1.47
148
RAFT_CTSACEtwo views0.74
71
0.81
168
0.44
94
0.25
94
0.08
40
0.15
131
0.03
42
1.99
149
0.06
43
0.00
1
0.11
93
0.47
82
0.46
147
0.01
23
2.74
62
1.26
42
0.29
57
0.16
42
0.77
42
0.13
26
0.79
51
4.54
137
0.01
17
0.15
65
0.25
89
0.01
8
3.88
157
0.04
45
test_5two views0.76
72
0.61
136
0.21
36
0.02
14
0.02
8
0.11
106
0.01
11
2.75
200
0.05
33
0.00
1
4.29
223
0.49
85
0.44
140
0.00
1
1.73
25
1.27
47
0.22
37
0.14
36
1.14
58
0.09
17
0.46
36
3.08
76
0.01
17
0.19
77
0.09
48
0.00
1
2.97
107
0.02
35
RAFT+CT+SAtwo views0.77
73
0.83
170
0.24
42
0.15
68
0.05
22
0.01
11
0.02
26
2.46
179
0.09
63
0.11
75
0.00
1
0.89
136
0.40
134
0.01
23
1.42
15
1.63
82
0.18
29
0.21
57
2.39
101
0.27
52
0.93
63
4.66
143
0.01
17
0.20
80
0.13
64
0.02
24
3.33
124
0.05
50
ADLNettwo views0.79
74
0.95
181
0.12
30
0.22
79
0.28
107
0.09
98
0.05
66
1.25
119
0.10
68
0.32
104
0.06
84
2.48
176
0.08
46
0.20
149
3.48
89
1.14
33
0.48
83
0.11
28
0.60
38
0.23
40
0.60
42
3.03
70
0.01
17
0.10
42
0.91
138
0.83
126
3.15
112
0.34
94
raft+_RVCtwo views0.80
75
0.41
104
0.45
106
0.34
130
0.24
93
0.03
62
0.08
85
2.24
160
0.09
63
0.07
69
0.00
1
0.42
73
0.08
46
0.02
44
3.49
90
3.16
176
0.48
83
0.12
29
2.60
114
0.82
157
0.94
64
3.69
98
0.03
54
0.20
80
0.35
101
0.14
63
0.69
45
0.35
96
ARAFTtwo views0.80
75
0.22
52
0.31
53
0.31
119
0.12
50
0.01
11
0.02
26
0.24
71
0.09
63
1.28
170
0.00
1
0.53
93
0.04
20
0.09
110
3.18
76
1.99
111
0.51
90
0.34
84
2.69
118
0.14
27
1.96
124
2.75
58
0.02
43
0.20
80
0.80
136
0.03
31
3.53
133
0.13
74
LL-Strereo2two views0.81
77
0.27
65
0.35
69
0.09
60
0.14
53
0.17
143
0.08
85
2.21
159
0.19
102
0.00
1
0.00
1
0.26
44
0.05
27
0.20
149
2.27
45
2.72
156
0.12
13
0.15
39
2.40
102
0.52
104
1.77
116
5.39
163
0.06
75
0.17
72
0.43
109
0.12
61
1.55
71
0.31
90
DMCA-RVCcopylefttwo views0.82
78
0.43
106
0.50
111
0.31
119
0.59
167
0.15
131
1.13
194
0.29
75
1.52
207
1.29
172
0.34
125
0.64
109
0.14
71
0.17
140
3.74
99
1.26
42
0.80
123
0.51
126
0.97
51
0.51
101
0.87
60
1.93
34
0.26
157
0.40
130
0.13
64
0.08
52
2.70
99
0.50
108
HUFtwo views0.83
79
0.15
39
0.62
121
0.03
25
0.12
50
0.16
135
0.17
127
0.32
76
0.05
33
0.00
1
0.00
1
0.22
38
0.26
110
0.00
1
4.05
117
4.06
224
0.48
83
0.57
137
3.07
134
0.65
140
1.72
114
3.80
104
0.38
183
0.88
199
0.14
71
0.04
39
0.38
38
0.01
24
Former-RAFT_DAM_RVCtwo views0.83
79
0.08
24
0.36
75
0.18
71
0.21
84
0.01
11
0.06
74
1.75
136
0.21
113
0.14
84
0.15
103
0.45
78
0.16
80
0.03
58
4.05
117
1.87
99
0.36
65
0.42
109
1.67
79
0.17
31
1.76
115
4.52
136
0.02
43
0.11
49
0.38
106
2.70
175
0.33
32
0.33
92
MIM_Stereotwo views0.83
79
0.15
39
0.44
94
0.34
130
0.24
93
0.12
109
0.08
85
2.02
150
0.08
55
0.00
1
0.24
115
0.31
51
0.10
59
0.03
58
3.34
84
2.91
163
0.24
42
0.67
150
2.62
115
0.89
163
1.44
87
3.49
89
0.06
75
0.26
93
0.20
80
0.24
77
1.72
74
0.18
79
DSFCAtwo views0.83
79
0.44
107
0.51
115
0.29
113
0.59
167
0.05
79
0.61
183
0.23
66
0.55
151
0.49
120
0.58
141
0.48
83
0.11
63
0.04
76
2.83
64
1.42
64
0.78
122
0.72
160
1.15
60
0.65
140
1.24
77
3.01
67
0.21
139
0.53
155
0.55
118
0.83
126
3.19
115
0.46
105
test_4two views0.84
83
0.11
30
0.61
120
0.30
117
0.20
78
0.08
95
0.30
150
0.10
52
0.10
68
0.03
62
0.61
147
0.79
125
0.16
80
0.18
143
3.62
94
3.39
189
0.24
42
0.43
113
1.98
90
0.30
57
1.21
76
3.26
83
0.09
103
0.21
84
0.23
87
0.33
95
3.56
135
0.25
87
RASNettwo views0.86
84
0.32
76
0.77
142
0.46
161
0.31
112
0.18
148
0.10
106
0.95
110
0.14
82
1.11
156
0.09
90
0.53
93
0.44
140
0.35
183
1.76
28
1.87
99
0.59
103
0.22
58
1.13
57
0.07
11
1.42
86
3.94
110
0.17
130
0.53
155
0.46
111
0.37
100
3.64
140
1.29
144
coex_refinementtwo views0.87
85
1.07
195
0.62
121
0.25
94
0.72
175
0.03
62
0.20
139
0.27
73
1.03
190
0.10
74
1.11
168
0.87
133
0.18
88
0.15
134
4.26
123
1.07
29
0.59
103
0.13
31
2.44
107
0.52
104
1.02
67
1.12
17
0.23
147
0.17
72
0.67
129
0.96
131
3.20
116
0.48
107
AFF-stereotwo views0.88
86
0.32
76
0.50
111
0.35
137
0.20
78
0.11
106
0.37
161
0.41
82
0.11
72
1.15
160
0.00
1
0.66
113
0.07
41
0.02
44
4.33
125
1.39
62
0.40
71
0.90
180
3.49
149
0.26
50
1.61
101
2.83
62
0.02
43
0.22
86
0.49
112
0.18
69
3.16
113
0.10
62
CAStwo views0.89
87
0.22
52
0.39
85
0.21
77
0.24
93
0.03
62
0.36
160
0.23
66
0.62
157
1.28
170
0.16
105
0.38
63
0.84
197
0.12
127
3.10
72
1.87
99
0.94
145
0.75
164
1.30
65
0.58
122
2.82
144
3.00
66
0.03
54
0.12
51
0.13
64
0.72
121
1.80
77
1.89
161
DISCOtwo views0.90
88
0.96
185
0.36
75
0.06
38
0.36
130
0.63
188
0.54
179
0.23
66
0.32
129
1.72
188
0.58
141
0.41
70
0.29
116
0.04
76
2.98
68
1.47
69
1.02
153
0.31
79
3.32
143
0.56
119
1.01
66
3.01
67
0.13
115
0.33
107
0.13
64
0.33
95
2.81
102
0.43
104
rafts_anoytwo views0.92
89
0.33
84
0.86
152
0.37
142
0.24
93
0.05
79
0.07
79
2.48
181
0.14
82
0.01
53
0.00
1
0.20
28
0.04
20
0.02
44
3.97
112
3.08
172
0.56
100
0.40
97
2.20
96
0.34
65
1.65
103
3.86
109
0.02
43
0.27
96
0.99
144
0.73
122
0.87
52
0.98
137
TestStereo1two views0.93
90
0.98
187
0.22
39
0.07
50
0.18
63
0.01
11
0.04
54
1.07
113
0.08
55
0.11
75
0.00
1
0.39
66
0.56
162
0.12
127
4.92
153
2.03
116
0.28
52
0.22
58
2.98
129
0.20
34
1.56
95
3.94
110
0.01
17
0.15
65
0.10
54
1.19
140
3.74
144
0.05
50
SA-5Ktwo views0.93
90
0.98
187
0.22
39
0.07
50
0.18
63
0.01
11
0.04
54
1.07
113
0.08
55
0.11
75
0.00
1
0.39
66
0.56
162
0.12
127
4.92
153
2.03
116
0.28
52
0.22
58
2.98
129
0.20
34
1.56
95
3.94
110
0.01
17
0.15
65
0.10
54
1.19
140
3.74
144
0.05
50
GLC_STEREOtwo views0.93
90
0.48
114
0.65
124
0.25
94
0.33
124
0.03
62
0.11
108
2.37
170
0.20
103
0.16
87
0.04
80
0.38
63
0.15
73
0.02
44
3.66
95
2.05
122
0.67
113
0.25
64
2.56
111
0.42
81
2.90
145
3.06
74
0.09
103
0.19
77
0.09
48
0.10
57
3.70
142
0.31
90
NVstereo2Dtwo views0.93
90
0.48
114
0.17
32
0.24
90
0.42
150
0.41
176
0.08
85
1.64
131
0.59
155
0.87
142
1.05
163
0.42
73
0.21
96
0.08
106
5.64
173
2.38
143
0.82
128
0.59
139
1.71
81
0.24
43
1.26
78
2.48
54
0.06
75
0.47
145
1.31
156
0.29
85
1.04
55
0.24
85
CASnettwo views0.96
94
0.54
123
0.54
117
0.24
90
0.36
130
0.05
79
0.26
148
0.52
94
0.18
99
0.06
68
0.06
84
0.70
116
0.36
127
0.01
23
4.36
126
1.50
71
0.66
112
0.40
97
2.56
111
0.34
65
3.82
176
4.34
123
0.03
54
0.35
115
1.67
175
0.11
60
1.72
74
0.23
84
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
S2M2two views0.98
95
0.15
39
1.98
213
0.27
107
0.17
60
0.00
1
0.04
54
0.24
71
0.31
126
2.13
202
0.00
1
0.45
78
0.15
73
0.01
23
4.10
119
2.25
134
0.54
93
0.47
122
1.29
64
0.24
43
2.31
129
2.52
56
0.05
67
0.15
65
0.17
76
2.66
174
3.69
141
0.15
76
TESTrafttwo views1.00
96
0.95
181
0.32
57
0.06
38
0.17
60
0.01
11
0.03
42
1.49
128
0.07
47
0.78
136
0.00
1
0.46
80
0.64
171
0.19
144
4.75
146
2.06
124
0.26
47
0.20
53
2.78
122
0.36
70
1.26
78
4.60
140
0.07
92
0.17
72
0.11
59
1.53
150
3.70
142
0.04
45
RALCasStereoNettwo views1.00
96
0.37
97
1.07
170
0.37
142
0.32
122
0.06
92
0.20
139
2.08
156
0.15
89
1.01
150
0.04
80
0.61
105
0.16
80
0.03
58
3.74
99
3.43
193
0.41
74
0.26
66
1.40
72
0.75
151
1.44
87
4.55
138
0.03
54
0.26
93
0.78
135
1.36
146
0.91
54
1.22
143
RAFT-Stereo + iAFFtwo views1.00
96
0.33
84
0.75
139
0.38
147
0.42
150
0.14
121
0.43
169
0.97
111
0.13
80
1.32
174
0.00
1
0.65
112
0.09
52
0.03
58
4.73
142
1.46
67
0.50
88
0.13
31
3.58
150
0.49
95
1.60
99
4.02
114
0.02
43
0.42
134
0.52
114
0.38
101
3.38
127
0.17
78
IPLGR_Ctwo views1.02
99
0.24
59
0.77
142
0.31
119
0.36
130
0.04
69
0.35
159
0.20
62
0.47
142
0.07
69
0.12
97
1.26
152
0.09
52
0.41
196
4.52
131
1.63
82
0.81
125
0.45
118
2.10
93
0.32
59
2.41
135
4.67
144
0.07
92
0.75
183
1.04
146
0.28
83
3.80
149
0.11
69
anonymousdsp2two views1.03
100
0.29
70
0.37
81
0.23
86
0.09
42
0.03
62
0.04
54
1.33
121
0.08
55
0.02
59
2.28
191
0.33
55
0.18
88
0.27
165
2.59
56
2.50
147
0.44
78
0.56
136
3.69
152
1.14
179
1.68
106
5.57
167
0.24
151
0.50
149
0.41
107
0.15
64
2.74
101
0.02
35
CIPLGtwo views1.04
101
0.23
54
0.82
148
0.32
124
0.36
130
0.04
69
0.34
157
0.21
63
0.50
145
0.07
69
0.11
93
1.24
149
0.08
46
0.42
198
4.82
151
1.65
85
0.85
133
0.39
96
2.02
91
0.32
59
2.35
131
4.69
145
0.05
67
0.75
183
1.10
148
0.35
98
3.79
148
0.12
72
ACREtwo views1.04
101
0.24
59
0.80
146
0.33
126
0.36
130
0.04
69
0.34
157
0.21
63
0.48
143
0.08
73
0.14
101
1.30
154
0.09
52
0.45
201
4.77
148
1.62
80
0.82
128
0.43
113
2.08
92
0.33
62
2.40
134
4.72
146
0.06
75
0.74
182
1.10
148
0.28
83
3.80
149
0.11
69
CFNet_pseudotwo views1.04
101
0.55
124
0.68
126
0.46
161
0.53
159
0.05
79
0.02
26
0.61
101
0.10
68
0.91
144
0.11
93
0.88
134
0.56
162
0.52
213
5.81
183
1.84
97
0.55
99
0.37
87
2.85
124
0.41
77
1.09
71
3.10
78
0.59
215
0.29
101
0.61
123
0.63
115
2.23
88
1.75
156
ddtwo views1.06
104
0.48
114
0.31
53
1.86
219
0.06
28
0.26
168
0.16
123
0.47
90
0.06
43
0.11
75
0.01
72
2.18
172
0.07
41
0.20
149
4.43
127
1.13
32
1.19
167
0.38
92
6.03
181
0.38
72
0.67
43
1.85
32
0.14
118
0.32
106
0.63
126
0.09
55
3.27
120
1.90
162
SAtwo views1.07
105
0.91
178
0.46
108
0.21
77
0.25
102
0.01
11
0.02
26
2.68
191
0.14
82
0.14
84
0.00
1
0.59
95
0.38
132
0.34
178
3.59
93
2.03
116
0.45
79
0.51
126
3.47
148
0.32
59
1.40
83
3.72
99
0.01
17
0.38
127
0.44
110
1.60
153
4.79
197
0.10
62
AACVNettwo views1.07
105
0.61
136
0.44
94
0.65
177
0.80
180
0.12
109
0.17
127
0.37
78
0.20
103
0.17
88
0.14
101
0.60
99
0.24
106
0.26
161
4.81
149
2.04
121
0.61
107
0.40
97
1.72
83
0.41
77
1.80
117
3.08
76
0.40
185
0.20
80
0.52
114
1.51
149
4.20
179
2.32
171
DLCB_ROBtwo views1.13
107
0.77
162
0.73
136
0.44
158
0.51
158
0.22
159
0.42
165
0.49
91
0.28
123
0.84
139
0.50
135
1.31
155
0.85
198
0.11
120
2.70
60
1.54
75
1.12
162
0.27
69
0.82
44
0.22
39
1.70
108
3.50
90
0.48
205
0.44
143
4.83
237
2.48
172
2.14
86
0.79
125
4D-IteraStereotwo views1.14
108
0.34
88
1.40
184
0.29
113
0.38
139
0.05
79
0.09
93
2.11
158
0.11
72
0.00
1
0.19
112
0.52
92
0.22
98
0.24
158
3.76
101
3.57
201
0.28
52
0.38
92
2.95
128
0.49
95
3.35
162
5.63
169
0.12
114
0.41
131
0.10
54
0.29
85
3.09
110
0.34
94
LMCR-Stereopermissivemany views1.14
108
0.56
125
0.72
133
0.31
119
0.31
112
0.14
121
0.06
74
1.38
123
0.28
123
0.33
105
0.12
97
0.86
131
0.20
92
0.26
161
3.99
114
2.00
113
1.20
168
0.37
87
6.02
180
1.76
206
2.41
135
3.82
105
0.07
92
0.55
159
0.52
114
0.51
109
1.50
69
0.67
121
CFNet_RVCtwo views1.14
108
0.65
146
0.92
156
0.35
137
0.40
145
0.14
121
0.13
114
0.11
55
0.18
99
0.86
141
1.15
169
0.67
114
0.17
86
0.08
106
6.26
199
1.31
52
0.70
115
0.40
97
1.62
77
0.29
55
1.93
121
3.03
70
0.06
75
0.43
140
0.95
141
1.90
162
3.91
159
2.07
166
trnettwo views1.17
111
0.32
76
0.93
159
0.22
79
0.19
69
0.01
11
0.08
85
2.54
182
0.38
131
0.63
127
0.99
162
0.76
122
0.58
165
0.06
91
3.83
105
3.16
176
0.91
141
0.55
134
2.21
97
0.76
153
2.97
148
3.47
88
0.06
75
0.29
101
1.28
155
1.05
135
2.55
96
0.92
132
raftrobusttwo views1.17
111
0.44
107
0.99
162
0.41
152
0.37
135
0.04
69
0.12
110
2.45
178
0.14
82
0.51
122
0.00
1
0.72
117
0.24
106
0.09
110
4.74
143
4.01
223
0.39
70
0.35
86
5.19
175
0.34
65
1.89
119
4.58
139
0.21
139
0.28
98
1.21
154
0.47
104
1.09
56
0.35
96
GMOStereotwo views1.19
113
0.17
43
0.68
126
0.34
130
0.31
112
0.13
115
0.31
152
2.36
164
0.15
89
0.00
1
0.17
107
0.60
99
0.45
143
0.02
44
3.83
105
3.83
214
0.54
93
0.70
154
2.41
103
0.64
134
1.71
110
6.50
193
0.01
17
0.34
108
1.38
162
0.25
78
4.07
168
0.10
62
error versiontwo views1.19
113
0.17
43
0.68
126
0.34
130
0.31
112
0.13
115
0.31
152
2.36
164
0.15
89
0.00
1
0.17
107
0.60
99
0.45
143
0.02
44
3.83
105
3.83
214
0.54
93
0.70
154
2.41
103
0.64
134
1.71
110
6.50
193
0.01
17
0.34
108
1.38
162
0.25
78
4.07
168
0.10
62
test-vtwo views1.19
113
0.17
43
0.68
126
0.34
130
0.31
112
0.13
115
0.31
152
2.36
164
0.15
89
0.00
1
0.17
107
0.60
99
0.45
143
0.02
44
3.83
105
3.83
214
0.54
93
0.70
154
2.41
103
0.64
134
1.71
110
6.50
193
0.01
17
0.34
108
1.38
162
0.25
78
4.07
168
0.10
62
test-2two views1.19
113
0.17
43
0.68
126
0.34
130
0.31
112
0.13
115
0.31
152
2.36
164
0.15
89
0.00
1
0.17
107
0.60
99
0.45
143
0.02
44
3.83
105
3.83
214
0.54
93
0.70
154
2.41
103
0.64
134
1.71
110
6.50
193
0.01
17
0.34
108
1.38
162
0.25
78
4.07
168
0.10
62
CREStereo++_RVCtwo views1.20
117
0.23
54
1.65
198
0.28
111
0.43
152
0.01
11
0.17
127
2.02
150
0.26
121
0.61
126
0.08
89
0.50
89
0.15
73
0.05
82
3.91
110
2.85
162
0.95
146
0.50
125
2.77
121
0.31
58
3.04
151
3.84
107
0.13
115
0.14
61
1.10
148
1.31
145
4.38
186
0.77
124
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views1.20
117
0.33
84
0.95
161
0.24
90
0.19
69
0.01
11
0.06
74
2.65
189
0.54
147
0.64
128
1.05
163
0.72
117
0.59
166
0.07
97
3.92
111
3.45
197
0.86
138
0.42
109
2.19
95
0.72
147
3.10
153
3.56
93
0.10
108
0.29
101
1.20
153
1.09
136
2.54
95
0.90
129
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
HSMtwo views1.20
117
0.35
92
1.10
173
0.59
174
0.56
165
0.05
79
0.09
93
2.87
206
0.31
126
0.13
82
0.53
138
0.76
122
0.13
68
0.05
82
5.24
161
1.26
42
0.85
133
0.30
76
3.45
147
0.50
99
2.38
133
3.35
86
0.10
108
0.55
159
0.74
131
0.86
129
4.16
177
1.08
138
RALAANettwo views1.21
120
0.40
102
0.56
119
0.37
142
0.31
112
0.20
155
0.15
121
1.87
144
0.20
103
0.51
122
0.01
72
0.49
85
0.26
110
0.07
97
3.97
112
2.32
138
0.48
83
0.73
162
3.41
144
1.09
175
3.06
152
5.24
161
0.02
43
0.50
149
0.74
131
1.14
137
4.11
176
0.54
116
NLCA_NET_v2_RVCtwo views1.21
120
0.81
168
0.50
111
0.22
79
0.48
157
0.03
62
1.73
212
1.18
117
2.43
232
2.04
199
0.11
93
0.74
119
0.09
52
0.55
214
6.88
210
1.12
31
0.38
68
0.30
76
1.67
79
0.28
53
0.80
52
1.75
30
0.15
123
0.25
91
0.13
64
3.23
180
2.70
99
2.04
165
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
iResNet_ROBtwo views1.22
122
0.71
156
0.44
94
0.45
160
0.34
126
0.04
69
0.16
123
3.05
213
0.12
79
1.32
174
0.00
1
0.93
137
0.34
121
0.05
82
4.57
133
1.86
98
0.81
125
0.48
123
6.00
179
0.34
65
1.95
122
1.30
23
0.31
174
0.91
201
0.33
98
0.95
130
3.93
161
1.14
141
PDISCO_ROBtwo views1.24
123
0.57
129
0.10
27
0.66
178
0.32
122
0.01
11
0.57
181
0.78
105
0.49
144
1.25
168
0.94
161
0.36
56
0.32
118
0.19
144
3.99
114
2.19
131
0.98
147
1.44
222
2.38
99
0.62
130
2.92
146
4.93
154
0.18
132
0.64
169
1.52
172
0.53
110
3.95
165
0.62
119
LoS_RVCtwo views1.27
124
1.54
213
0.85
150
0.06
38
0.55
161
0.01
11
0.13
114
0.23
66
0.73
165
1.70
186
0.22
113
0.64
109
0.69
177
0.11
120
3.79
103
3.07
170
0.75
120
1.99
244
3.69
152
0.64
134
4.98
200
4.94
155
0.22
145
0.10
42
0.37
103
0.50
107
0.82
49
0.93
133
tt_lltwo views1.27
124
1.54
213
0.85
150
0.06
38
0.55
161
0.01
11
0.13
114
0.23
66
0.73
165
1.70
186
0.22
113
0.64
109
0.69
177
0.11
120
3.79
103
3.07
170
0.75
120
1.99
244
3.69
152
0.64
134
4.98
200
4.94
155
0.22
145
0.10
42
0.37
103
0.50
107
0.82
49
0.93
133
psm_uptwo views1.28
126
0.67
150
1.09
172
0.41
152
0.89
186
0.04
69
0.31
152
2.38
171
1.16
196
0.77
133
0.00
1
1.36
156
0.10
59
0.44
199
4.59
136
1.35
56
0.83
130
0.45
118
4.14
160
0.47
87
1.60
99
2.76
59
0.01
17
0.73
180
1.16
151
1.54
151
3.84
152
1.40
145
CEStwo views1.32
127
0.24
59
0.36
75
0.14
67
0.22
86
0.05
79
0.19
136
5.29
257
0.76
169
0.42
117
0.61
147
0.86
131
0.85
198
0.26
161
4.28
124
3.41
192
1.21
170
1.06
198
1.85
88
1.16
184
4.19
184
3.75
100
0.15
123
0.12
51
0.23
87
0.34
97
1.47
68
2.15
169
IPLGtwo views1.33
128
0.40
102
0.76
140
0.29
113
0.28
107
0.01
11
0.09
93
2.25
161
0.31
126
0.40
115
0.28
119
0.37
60
0.74
184
0.31
176
5.67
178
1.89
102
1.26
176
0.95
187
2.86
125
0.47
87
1.18
75
6.06
182
0.06
75
0.66
173
0.63
126
3.73
192
3.86
156
0.11
69
AF-Nettwo views1.33
128
0.56
125
1.00
163
0.36
140
0.81
182
1.01
200
2.56
226
2.36
164
1.15
194
0.48
118
0.65
150
3.84
189
0.16
80
0.30
173
3.50
91
1.17
35
0.52
91
0.02
3
1.74
84
0.53
107
0.81
54
4.34
123
0.06
75
0.14
61
0.93
139
0.61
113
3.84
152
2.40
174
Nwc_Nettwo views1.33
128
0.56
125
1.00
163
0.36
140
0.81
182
1.01
200
2.56
226
2.36
164
1.15
194
0.48
118
0.65
150
3.84
189
0.16
80
0.30
173
3.50
91
1.17
35
0.52
91
0.02
3
1.74
84
0.53
107
0.81
54
4.34
123
0.06
75
0.14
61
0.93
139
0.61
113
3.84
152
2.40
174
STTStereotwo views1.36
131
0.86
172
0.78
145
0.40
151
0.33
124
0.08
95
1.20
198
0.43
85
1.52
207
1.38
180
0.24
115
2.01
169
0.27
112
0.38
186
9.23
235
1.30
50
0.40
71
0.33
82
1.27
63
0.20
34
1.56
95
1.97
37
0.16
125
0.15
65
0.10
54
1.81
160
3.62
139
4.69
189
raft_robusttwo views1.38
132
0.73
161
0.63
123
0.27
107
0.23
90
0.01
11
0.05
66
3.04
212
0.24
118
1.16
161
0.02
78
0.61
105
0.67
173
0.07
97
3.67
97
2.22
133
0.80
123
0.66
146
5.14
174
0.33
62
3.43
165
6.40
192
0.01
17
0.37
125
1.19
152
1.48
148
2.86
103
0.96
136
APVNettwo views1.38
132
1.06
193
0.27
49
0.33
126
0.37
135
0.28
171
0.50
175
0.39
80
0.42
136
0.93
145
0.42
132
0.85
129
0.19
91
0.15
134
4.81
149
3.10
175
1.87
205
0.94
185
4.74
171
0.89
163
2.23
128
5.90
174
0.05
67
1.23
215
0.19
79
0.48
105
3.80
149
0.91
130
iResNetv2_ROBtwo views1.40
134
0.83
170
0.41
87
1.30
204
0.37
135
0.05
79
0.14
118
3.17
219
0.20
103
1.97
197
0.28
119
2.49
177
0.40
134
0.06
91
3.78
102
1.57
77
1.08
160
0.22
58
6.10
182
0.67
144
3.61
170
2.04
40
0.26
157
0.83
196
0.62
125
0.54
111
4.07
168
0.71
122
castereo++two views1.41
135
0.49
117
0.42
89
0.06
38
0.24
93
0.24
164
0.12
110
0.43
85
0.43
137
0.20
89
0.16
105
1.25
150
0.42
138
0.06
91
4.22
121
3.67
208
1.03
154
0.55
134
2.93
127
0.66
142
4.66
197
6.57
198
0.31
174
0.25
91
1.42
167
1.63
155
3.77
147
1.84
159
UCFNet_RVCtwo views1.41
135
2.75
241
0.68
126
0.60
175
0.80
180
0.26
168
0.16
123
0.28
74
0.23
115
0.93
145
0.37
126
2.60
178
1.05
209
0.07
97
6.13
195
1.33
54
0.70
115
0.52
129
2.48
108
0.62
130
1.87
118
3.20
81
1.04
239
0.35
115
1.83
179
1.96
163
2.11
84
3.29
182
castereotwo views1.45
137
0.34
88
1.03
167
0.07
50
0.29
111
0.21
158
0.09
93
0.37
78
0.51
146
0.13
82
0.18
111
1.13
143
0.49
152
0.07
97
4.85
152
3.77
212
1.05
156
0.65
144
4.71
170
0.63
133
5.11
204
6.83
204
0.14
118
0.24
90
1.55
173
1.98
164
1.31
60
1.43
146
Sa-1000two views1.45
137
0.32
76
0.53
116
0.28
111
0.26
104
0.01
11
0.04
54
2.73
195
0.11
72
0.01
53
0.01
72
0.59
95
0.49
152
0.56
215
6.07
193
2.10
128
0.92
144
0.88
177
4.60
168
0.59
125
1.56
95
6.38
190
0.01
17
0.64
169
2.25
186
1.72
159
5.00
201
0.38
98
PMTNettwo views1.51
139
0.60
134
1.30
180
0.27
107
0.26
104
0.02
39
0.18
131
0.51
93
0.56
152
0.71
132
0.33
124
0.59
95
0.48
150
0.09
110
6.84
208
3.43
193
0.91
141
0.38
92
6.13
184
0.44
82
4.00
180
3.52
91
0.13
115
0.15
65
3.04
208
1.29
144
1.36
61
3.30
183
ICVPtwo views1.55
140
0.24
59
1.65
198
0.43
156
0.45
154
0.50
181
0.38
163
1.26
120
0.64
159
1.77
190
1.20
170
0.88
134
1.63
219
0.25
160
4.46
128
2.81
161
1.49
191
1.01
193
2.50
109
1.15
183
2.70
138
5.75
171
0.14
118
0.63
166
0.72
130
2.31
169
3.35
126
1.59
154
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RPtwo views1.55
140
1.14
200
2.48
229
0.89
188
1.23
197
0.43
177
2.08
220
1.86
143
1.63
214
0.29
100
2.10
184
2.43
175
0.13
68
0.49
209
5.11
157
1.26
42
0.83
130
0.05
13
1.74
84
0.49
95
1.04
69
4.92
152
0.16
125
0.76
185
0.49
112
1.14
137
4.64
195
1.98
164
sAnonymous2two views1.64
142
0.27
65
0.18
33
0.11
63
0.20
78
0.49
179
0.05
66
1.85
140
0.98
183
0.21
90
0.39
127
1.21
145
0.85
198
0.08
106
4.74
143
3.93
220
1.35
183
1.22
213
7.85
196
0.83
160
4.15
182
5.99
176
0.03
54
0.42
134
0.15
72
2.19
167
2.36
91
2.37
172
CroCo_RVCtwo views1.64
142
0.27
65
0.18
33
0.11
63
0.20
78
0.49
179
0.05
66
1.85
140
0.98
183
0.21
90
0.39
127
1.21
145
0.85
198
0.08
106
4.74
143
3.93
220
1.35
183
1.22
213
7.85
196
0.83
160
4.15
182
5.99
176
0.03
54
0.42
134
0.15
72
2.19
167
2.36
91
2.37
172
BEATNet_4xtwo views1.65
144
0.58
131
0.35
69
0.20
74
0.38
139
0.15
131
0.46
172
1.78
139
1.70
219
0.40
115
0.50
135
1.13
143
0.62
170
0.65
218
6.09
194
3.02
168
2.14
212
1.81
235
1.48
74
0.79
155
5.22
206
7.76
230
0.08
98
1.07
210
0.32
97
0.48
105
3.92
160
1.49
149
iinet-ftwo views1.66
145
1.28
206
0.38
83
0.81
186
0.15
56
0.24
164
0.13
114
0.42
83
0.21
113
1.91
194
3.98
219
0.30
48
0.27
112
0.07
97
6.30
201
2.65
155
0.43
77
0.30
76
8.10
202
1.14
179
2.10
127
6.32
188
0.26
157
0.52
154
1.42
167
0.21
75
4.26
181
0.60
117
EGLCR-Stereotwo views1.68
146
0.23
54
2.17
220
0.08
56
0.28
107
0.09
98
0.09
93
0.50
92
1.17
197
0.11
75
2.55
201
0.62
108
0.67
173
0.03
58
4.24
122
3.69
211
1.12
162
1.22
213
4.58
167
0.59
125
4.19
184
7.51
223
0.24
151
0.68
176
1.05
147
0.64
116
6.73
233
0.33
92
DN-CSS_ROBtwo views1.68
146
0.57
129
1.42
185
0.83
187
0.73
176
0.05
79
0.22
144
2.83
204
0.40
134
1.50
183
3.57
216
1.02
140
0.43
139
0.09
110
4.11
120
1.61
79
1.34
182
0.84
172
8.83
207
0.39
75
4.42
192
3.67
96
0.09
103
1.02
206
0.13
64
0.55
112
3.24
119
1.52
150
AE-Stereotwo views1.73
148
0.32
76
2.11
218
0.34
130
0.37
135
0.05
79
0.43
169
0.44
87
0.32
129
0.04
65
0.00
1
3.48
187
0.44
140
0.07
97
4.68
141
3.77
212
1.11
161
0.92
182
4.18
161
1.16
184
3.77
175
7.03
208
0.18
132
1.06
209
3.29
216
2.09
165
4.84
198
0.18
79
TANstereotwo views1.73
148
1.38
209
0.72
133
0.26
99
0.35
128
0.62
186
0.07
79
0.52
94
0.46
139
0.27
98
1.08
165
0.36
56
0.20
92
1.04
236
3.37
86
2.99
166
0.99
148
1.69
231
9.06
210
3.49
249
3.58
168
4.48
134
3.34
267
0.28
98
0.05
33
0.67
117
5.35
210
0.09
60
XX-TBDtwo views1.73
148
1.38
209
0.72
133
0.26
99
0.35
128
0.62
186
0.07
79
0.52
94
0.46
139
0.27
98
1.08
165
0.36
56
0.20
92
1.04
236
3.37
86
2.99
166
0.99
148
1.69
231
9.06
210
3.49
249
3.58
168
4.48
134
3.34
267
0.28
98
0.05
33
0.67
117
5.35
210
0.09
60
GEStwo views1.73
148
0.33
84
0.48
110
0.58
173
0.43
152
0.28
171
0.51
176
2.03
154
0.90
180
1.18
164
0.55
139
0.49
85
0.23
105
0.02
44
8.51
228
2.72
156
1.06
158
0.76
165
9.71
220
1.71
203
3.36
163
4.34
123
0.23
147
0.83
196
0.42
108
0.35
98
2.56
97
2.21
170
GCAP-BATtwo views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
test_for_modeltwo views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
testlalala2two views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
testlalalatwo views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
testlalala_basetwo views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
GCAP-Stereotwo views1.76
152
0.61
136
0.44
94
0.26
99
0.19
69
0.02
39
0.09
93
2.40
172
0.20
103
0.00
1
0.00
1
4.42
198
0.22
98
0.40
188
3.21
77
3.62
202
13.36
280
0.40
97
3.28
137
0.53
107
5.75
216
4.47
128
0.29
167
0.35
115
0.25
89
0.31
88
1.84
78
0.53
110
MIPNettwo views1.76
152
0.72
158
0.87
153
0.32
124
0.55
161
0.01
11
0.08
85
1.77
138
0.38
131
2.09
200
0.92
159
0.44
76
0.76
186
0.27
165
5.64
173
2.03
116
1.52
193
0.93
184
3.87
156
1.34
192
1.41
85
6.39
191
0.07
92
1.05
208
2.65
196
7.16
230
3.90
158
0.29
89
SACVNettwo views1.77
159
0.88
174
1.11
174
0.67
179
1.41
210
0.84
193
0.94
188
2.65
189
0.54
147
1.31
173
0.02
78
0.95
138
0.40
134
0.39
187
6.01
192
2.36
141
1.71
199
0.42
109
4.84
172
0.82
157
3.03
150
6.05
181
0.11
111
0.73
180
1.33
159
1.66
157
4.02
166
2.55
176
PS-NSSStwo views1.79
160
3.17
248
0.42
89
3.20
235
0.92
190
2.08
224
1.19
197
0.39
80
0.16
94
0.38
112
0.00
1
11.59
243
1.18
211
0.50
210
5.15
158
0.89
17
0.71
117
0.28
71
4.31
164
0.17
31
0.97
65
0.64
9
2.37
257
0.19
77
1.58
174
0.76
123
3.28
121
1.77
157
FCDSN-DCtwo views1.87
161
0.93
179
2.12
219
1.84
217
1.62
214
1.35
210
1.17
195
0.74
103
0.46
139
1.19
165
0.30
122
2.02
170
0.48
150
0.28
170
5.91
185
2.18
130
2.34
217
2.10
249
1.30
65
0.47
87
2.99
149
5.42
164
0.57
210
3.93
254
2.22
185
3.45
183
1.45
67
1.56
152
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet-RVC-Resampletwo views1.87
161
0.69
152
1.01
165
0.50
168
0.67
171
0.19
152
1.39
206
1.43
125
0.87
178
0.94
147
0.92
159
5.52
216
0.52
157
1.00
233
7.45
215
1.91
105
1.44
187
1.98
243
3.91
157
1.13
178
1.92
120
4.61
142
0.23
147
1.54
224
0.58
120
3.08
178
2.12
85
3.05
177
test-3two views1.89
163
1.05
192
1.54
192
0.41
152
0.38
139
0.14
121
0.19
136
2.73
195
0.17
95
0.35
110
0.42
132
4.22
194
0.35
123
0.03
58
5.92
186
3.44
195
0.64
110
0.66
146
9.08
213
0.54
117
3.27
158
8.02
239
0.08
98
0.82
194
0.74
131
1.01
132
3.94
163
0.87
127
test_1two views1.89
163
1.07
195
1.54
192
0.41
152
0.38
139
0.14
121
0.19
136
2.73
195
0.17
95
0.31
103
0.40
130
4.23
196
0.35
123
0.03
58
5.96
189
3.44
195
0.64
110
0.65
144
9.10
214
0.53
107
3.29
159
8.03
240
0.08
98
0.82
194
0.74
131
1.01
132
3.94
163
0.89
128
sCroCo_RVCtwo views1.89
163
0.25
63
0.34
64
0.06
38
0.20
78
0.16
135
0.04
54
0.81
106
1.73
220
1.94
196
0.44
134
1.12
142
0.88
203
0.12
127
4.48
129
5.29
245
2.26
215
1.77
234
5.32
177
2.13
222
5.92
224
7.47
220
0.10
108
0.37
125
0.60
122
1.61
154
4.41
188
1.14
141
test_3two views1.92
166
1.16
202
1.42
185
0.44
158
0.39
144
0.14
121
0.20
139
2.79
202
0.17
95
0.38
112
0.41
131
4.32
197
0.36
127
0.03
58
6.25
197
3.34
185
0.68
114
0.67
150
9.18
215
0.53
107
3.20
155
7.85
234
0.06
75
0.80
192
0.95
141
1.27
143
3.85
155
0.94
135
DeepPruner_ROBtwo views1.92
166
0.41
104
0.92
156
0.51
169
0.67
171
0.53
184
2.45
224
1.72
134
0.84
176
1.37
179
2.27
188
0.75
121
0.55
160
0.12
127
8.56
229
2.33
139
1.28
177
1.20
210
2.67
117
0.58
122
6.00
226
4.19
117
0.75
232
0.44
143
0.66
128
6.01
219
3.18
114
0.91
130
AnonymousMtwo views1.93
168
0.21
49
0.42
89
0.06
38
0.06
28
0.26
168
0.01
11
2.70
193
0.56
152
0.36
111
2.56
202
0.59
95
0.53
158
0.50
210
2.91
66
3.30
183
1.21
170
1.06
198
2.18
94
1.68
200
3.82
176
5.56
166
0.40
185
0.50
149
0.21
84
1.57
152
6.55
230
12.23
244
LoStwo views1.97
169
0.23
54
0.39
85
0.23
86
0.18
63
0.02
39
0.09
93
15.67
285
0.89
179
3.41
241
0.87
156
0.98
139
0.83
196
0.20
149
3.66
95
3.84
218
1.36
185
0.90
180
3.25
136
0.74
149
5.14
205
4.30
122
0.24
151
0.41
131
2.64
195
0.80
125
1.36
61
0.50
108
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
pcwnet_v2two views1.99
170
0.65
146
0.87
153
0.77
184
1.17
195
0.72
189
0.24
145
1.75
136
0.66
161
3.33
233
1.75
182
1.49
160
1.91
222
1.68
255
6.75
206
2.30
137
1.12
162
0.69
153
4.33
165
0.50
99
2.08
125
4.26
120
1.07
241
0.77
188
1.43
169
2.18
166
4.16
177
5.20
196
IPLGRtwo views2.02
171
0.67
150
0.81
147
0.38
147
0.47
156
0.01
11
0.08
85
1.39
124
0.28
123
2.32
204
2.30
194
0.46
80
0.79
190
0.20
149
6.88
210
1.99
111
1.44
187
1.35
219
5.56
178
1.85
209
2.94
147
6.20
186
0.06
75
1.13
212
3.39
219
6.80
226
3.93
161
0.75
123
FADNet-RVCtwo views2.02
171
0.32
76
0.74
138
0.33
126
1.23
197
0.05
79
3.02
236
0.60
100
0.24
118
1.02
151
0.31
123
6.30
223
0.33
119
0.34
178
10.06
242
2.10
128
0.84
132
0.81
170
6.91
189
1.97
212
2.36
132
3.78
103
0.20
138
0.61
164
1.94
182
1.65
156
3.28
121
3.13
179
PA-Nettwo views2.07
173
0.95
181
1.62
197
0.31
119
2.13
230
0.17
143
0.70
185
0.21
63
1.90
223
0.84
139
1.44
173
0.30
48
0.21
96
0.84
227
7.47
216
1.66
86
0.38
68
0.37
87
1.25
61
0.74
149
1.66
105
4.96
157
0.64
219
0.51
152
1.03
145
11.53
261
2.31
90
9.73
234
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views2.13
174
1.68
219
1.46
189
1.00
193
1.37
204
0.89
196
2.88
233
2.59
186
2.86
238
0.34
106
2.72
206
2.40
173
1.41
217
0.27
165
5.18
159
1.38
60
0.85
133
0.98
188
2.99
131
1.01
172
1.54
92
4.72
146
0.43
193
0.53
155
2.61
193
4.44
202
4.09
173
4.93
192
Abc-Nettwo views2.13
174
1.68
219
1.46
189
1.00
193
1.37
204
0.89
196
2.88
233
2.59
186
2.86
238
0.34
106
2.72
206
2.40
173
1.41
217
0.27
165
5.18
159
1.38
60
0.85
133
0.98
188
2.99
131
1.01
172
1.54
92
4.72
146
0.43
193
0.53
155
2.61
193
4.44
202
4.09
173
4.93
192
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
stereogantwo views2.15
176
2.03
226
1.44
188
1.52
209
2.14
231
1.79
221
1.07
193
1.88
146
1.10
192
1.33
176
1.43
172
5.96
220
0.51
156
0.34
178
5.92
186
1.93
106
1.03
154
0.41
108
4.12
159
0.95
169
1.69
107
6.00
178
0.26
157
0.81
193
0.61
123
1.42
147
6.77
234
3.73
185
FINETtwo views2.25
177
0.61
136
1.06
169
0.48
164
0.55
161
0.75
192
0.98
190
1.18
117
1.87
222
0.30
101
3.46
215
1.25
150
2.35
225
0.80
226
14.13
269
2.94
165
1.14
165
0.42
109
2.74
120
1.28
188
2.71
139
4.08
115
0.43
193
1.24
216
3.04
208
5.74
216
1.70
73
3.42
184
FADNettwo views2.26
178
0.45
109
0.77
142
0.54
172
1.08
193
0.02
39
3.28
239
0.88
107
0.38
131
0.80
137
0.57
140
2.60
178
0.50
155
0.67
220
9.91
241
1.94
108
0.91
141
1.08
200
9.92
223
1.76
206
2.78
140
4.21
118
0.11
111
0.47
145
2.92
205
3.57
185
3.57
137
5.35
198
s12784htwo views2.36
179
2.32
235
2.69
233
1.64
210
0.77
179
0.08
95
0.06
74
2.09
157
0.54
147
1.17
162
0.13
100
1.69
166
0.67
173
0.04
76
3.36
85
3.26
181
1.00
152
0.40
97
3.79
155
0.49
95
5.47
213
4.44
127
0.16
125
0.38
127
3.34
218
5.45
214
7.07
237
11.25
240
R-Stereo Traintwo views2.40
180
1.12
198
1.98
213
1.00
193
0.24
93
0.05
79
0.07
79
2.02
150
1.01
187
1.35
177
2.47
198
1.55
161
0.47
148
0.19
144
5.66
176
4.74
230
1.71
199
1.04
195
7.24
191
1.14
179
5.08
202
7.81
231
0.06
75
0.42
134
2.90
203
4.55
205
3.22
117
5.57
199
RAFT-Stereopermissivetwo views2.40
180
1.12
198
1.98
213
1.00
193
0.24
93
0.05
79
0.07
79
2.02
150
1.01
187
1.35
177
2.47
198
1.55
161
0.47
148
0.19
144
5.66
176
4.74
230
1.71
199
1.04
195
7.24
191
1.14
179
5.08
202
7.81
231
0.06
75
0.42
134
2.90
203
4.55
205
3.22
117
5.57
199
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MyStereo04two views2.45
182
0.72
158
1.28
177
0.73
183
0.84
185
0.04
69
0.16
123
2.58
185
0.98
183
3.09
226
0.72
153
1.71
167
0.16
80
0.07
97
5.25
162
3.37
187
0.81
125
1.04
195
10.31
228
2.51
233
5.56
214
5.11
158
1.16
244
0.94
204
3.03
207
8.41
240
4.87
199
0.64
120
NCCL2two views2.48
183
2.35
236
1.52
191
1.33
206
1.96
226
0.23
160
1.25
202
1.33
121
1.30
199
1.63
185
2.57
203
1.38
157
0.55
160
0.40
188
7.49
218
2.59
152
1.77
204
0.67
150
2.58
113
0.83
160
3.36
163
6.56
197
1.66
251
1.53
223
4.71
236
4.33
199
4.24
180
6.90
215
GEStereo_RVCtwo views2.49
184
0.90
176
1.02
166
1.03
198
0.74
177
1.57
216
1.21
199
2.68
191
0.58
154
0.77
133
0.39
127
2.62
181
0.36
127
0.11
120
4.94
155
4.65
229
2.05
208
2.17
250
9.07
212
2.10
221
3.74
174
9.71
271
0.55
207
1.49
220
0.81
137
0.84
128
4.45
189
6.73
214
MSMDNettwo views2.61
185
0.70
155
1.72
204
0.38
147
0.62
169
0.23
160
0.18
131
3.09
215
0.67
162
1.02
151
2.22
187
1.22
148
2.43
227
0.35
183
5.26
164
6.79
272
1.36
185
0.58
138
10.46
230
3.11
245
6.34
234
7.92
235
0.41
189
0.76
185
2.48
191
3.98
197
3.04
108
3.06
178
GANet-ADLtwo views2.63
186
0.65
146
2.25
222
1.16
200
1.13
194
1.61
217
0.77
187
1.97
148
1.02
189
3.19
231
3.22
210
1.48
158
0.33
119
0.03
58
6.00
191
4.08
225
2.52
222
0.78
168
7.88
198
2.05
216
3.56
167
6.68
201
0.27
163
0.86
198
1.51
171
6.92
228
5.25
207
3.84
186
cross-rafttwo views2.64
187
0.79
165
1.76
205
0.43
156
0.89
186
0.23
160
0.18
131
3.08
214
0.70
163
0.77
133
2.13
185
1.21
145
0.69
177
0.41
196
5.43
167
5.90
252
1.22
175
0.59
139
10.82
233
1.85
209
6.50
235
8.26
245
0.45
198
0.63
166
2.66
197
4.41
201
4.46
190
4.88
191
GANetREF_RVCpermissivetwo views2.72
188
1.88
223
1.03
167
2.10
224
1.40
208
1.09
203
0.21
142
4.74
248
1.62
213
3.74
248
0.06
84
10.56
240
0.82
195
0.10
115
4.53
132
1.59
78
1.29
178
0.98
188
6.76
187
0.75
151
3.12
154
2.45
53
0.21
139
1.71
226
4.31
228
3.74
193
7.02
236
5.71
202
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
UDGNettwo views2.73
189
1.17
203
0.42
89
10.90
268
5.53
257
8.65
264
3.60
244
1.70
133
0.27
122
0.22
94
0.12
97
0.80
126
0.12
65
9.72
285
4.00
116
1.35
56
0.73
118
0.54
132
3.02
133
0.60
127
2.78
140
6.16
185
3.41
269
0.29
101
1.70
176
1.69
158
3.06
109
1.10
139
MLCVtwo views2.73
189
0.66
149
0.90
155
2.64
231
1.41
210
1.10
204
1.01
191
3.58
232
0.61
156
3.69
247
4.23
222
5.51
215
3.78
235
0.11
120
5.65
175
2.01
115
1.68
197
0.87
175
10.28
227
1.26
186
3.32
161
5.13
160
0.34
178
2.60
241
2.68
200
3.08
178
4.10
175
1.55
151
RGCtwo views2.76
191
2.10
231
5.00
254
1.68
211
1.94
223
1.93
222
1.23
200
2.03
154
1.49
206
0.88
143
4.67
227
2.77
182
2.63
228
0.70
222
5.76
182
1.89
102
1.20
168
0.48
123
4.42
166
1.33
191
2.66
137
6.08
183
0.21
139
1.11
211
2.55
192
5.20
210
5.35
210
7.17
217
Reg-Stereo(zero)two views2.80
192
0.36
94
3.11
236
0.48
164
1.28
199
0.20
155
0.51
176
3.74
235
0.75
167
3.00
223
8.88
268
2.97
184
0.80
191
1.33
245
4.64
137
3.67
208
2.18
213
0.52
129
7.33
193
1.68
200
4.34
188
7.15
209
0.64
219
0.36
123
1.32
157
3.29
181
6.08
221
5.10
194
HItwo views2.80
192
0.36
94
3.11
236
0.48
164
1.28
199
0.20
155
0.51
176
3.74
235
0.75
167
3.00
223
8.88
268
2.97
184
0.80
191
1.33
245
4.64
137
3.67
208
2.18
213
0.52
129
7.33
193
1.68
200
4.34
188
7.15
209
0.64
219
0.36
123
1.32
157
3.29
181
6.08
221
5.10
194
LG-Stereo_Zeroshottwo views2.83
194
1.26
205
0.34
64
1.44
207
2.86
241
4.15
243
1.24
201
2.76
201
0.98
183
6.41
278
3.42
213
7.88
229
0.71
180
0.04
76
3.70
98
3.23
180
0.59
103
0.66
146
5.00
173
1.09
175
3.83
178
6.59
199
0.08
98
0.26
93
0.53
117
1.83
161
4.26
181
11.30
241
Any-RAFTtwo views2.91
195
0.59
133
3.81
244
0.35
137
0.57
166
0.02
39
0.11
108
2.92
207
0.63
158
0.50
121
3.78
217
3.92
192
0.36
127
0.16
139
6.57
205
3.98
222
0.87
140
0.87
175
8.59
204
0.61
129
5.45
212
6.20
186
0.42
192
0.49
147
5.12
242
9.91
251
3.30
123
8.42
224
CASStwo views2.93
196
1.06
193
2.39
225
2.21
227
1.17
195
0.52
183
2.81
231
2.79
202
1.05
191
1.80
192
3.40
212
1.68
165
0.59
166
0.05
82
4.51
130
3.20
179
5.58
256
1.31
218
9.56
218
1.64
199
7.26
248
7.98
237
0.05
67
0.66
173
3.62
224
2.70
175
4.35
183
5.22
197
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
DeepPrunerFtwo views2.93
196
1.75
221
0.35
69
3.49
239
9.49
273
1.73
220
4.02
246
0.70
102
3.19
240
0.69
130
1.51
175
0.60
99
0.34
121
0.14
133
7.97
223
3.53
199
1.21
170
0.76
165
4.64
169
0.73
148
2.31
129
4.11
116
0.65
222
0.58
161
15.77
279
3.70
191
3.75
146
1.43
146
RAFT-Testtwo views3.05
198
0.69
152
1.82
208
1.09
199
0.81
182
0.25
166
0.43
169
3.13
217
0.76
169
1.06
153
6.42
245
1.03
141
0.91
205
0.35
183
5.61
172
6.66
270
1.32
181
0.61
142
10.76
232
1.74
205
6.54
239
7.48
221
0.56
208
0.59
162
2.76
202
10.02
252
4.56
192
4.35
188
PWCDC_ROBbinarytwo views3.09
199
0.52
120
0.24
42
0.38
147
0.92
190
0.25
166
0.37
161
1.16
116
8.67
271
0.14
84
2.36
196
0.85
129
32.24
291
0.72
224
6.25
197
3.40
191
2.00
207
0.94
185
2.65
116
1.03
174
3.63
171
9.35
268
0.27
163
0.68
176
0.55
118
0.69
119
1.44
66
1.79
158
RTSCtwo views3.11
200
0.95
181
1.93
211
0.51
169
0.89
186
1.05
202
2.90
235
1.64
131
1.98
225
2.28
203
2.71
205
1.60
163
1.14
210
1.24
241
11.23
251
4.78
233
4.92
254
2.00
246
8.11
203
1.61
198
4.78
198
6.97
207
0.34
178
1.52
221
1.35
160
1.21
142
4.60
194
9.80
235
EKT-Stereotwo views3.12
201
0.79
165
2.25
222
0.51
169
0.38
139
0.57
185
1.87
216
3.36
224
1.32
200
2.03
198
5.99
239
1.48
158
0.75
185
0.44
199
7.79
220
6.14
257
1.47
190
3.22
264
8.95
209
2.82
243
6.93
247
8.34
252
0.17
130
0.49
147
4.41
230
4.95
207
5.40
213
1.57
153
SGM-Foresttwo views3.19
202
2.07
228
0.45
106
6.33
252
2.00
227
2.67
231
0.10
106
1.46
126
0.76
169
2.49
207
0.91
158
6.65
227
6.47
241
0.48
206
6.84
208
3.08
172
0.85
133
0.33
82
3.65
151
0.62
130
2.81
143
5.69
170
0.84
235
1.18
213
3.88
225
3.84
195
11.86
264
7.73
221
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCReftwo views3.22
203
2.76
242
1.07
170
0.70
182
2.26
235
2.09
225
2.76
230
1.00
112
5.91
260
1.91
194
1.10
167
1.28
153
0.78
188
1.43
249
8.09
224
3.52
198
1.51
192
1.18
208
8.68
205
2.26
225
3.23
156
6.00
178
1.89
253
1.20
214
3.12
213
7.80
237
3.41
130
10.10
236
HSM-Net_RVCpermissivetwo views3.23
204
1.35
208
1.70
202
2.82
233
2.07
229
0.73
190
0.46
172
3.48
229
1.14
193
3.44
242
5.99
239
8.07
231
3.38
232
0.27
165
5.71
181
2.35
140
1.54
194
0.27
69
3.44
146
1.35
193
4.35
190
6.00
178
0.70
227
3.05
246
4.68
235
6.45
222
6.23
225
6.18
209
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
test-1two views3.29
205
0.29
70
1.96
212
0.33
126
0.26
104
0.23
160
0.42
165
3.11
216
0.84
176
3.35
237
3.99
220
5.66
218
0.78
188
0.19
144
6.33
202
6.00
254
1.70
198
1.62
228
10.71
231
1.73
204
5.37
210
9.64
270
0.07
92
0.76
185
3.30
217
6.12
221
5.48
214
8.68
228
XPNet_ROBtwo views3.41
206
2.62
238
1.58
196
0.80
185
1.56
212
1.24
209
0.96
189
0.89
108
1.54
209
1.17
162
3.26
211
26.85
269
0.38
132
0.40
188
6.47
203
2.54
150
3.57
234
0.89
178
3.41
144
1.26
186
3.53
166
7.67
227
0.87
236
0.64
169
0.96
143
2.39
170
9.98
256
4.70
190
Anonymous3two views3.42
207
0.60
134
0.93
159
0.09
60
1.35
203
0.50
181
0.03
42
3.46
228
1.28
198
1.11
156
0.80
154
10.89
241
1.36
216
0.45
201
8.96
232
6.97
275
3.85
236
3.08
262
11.46
235
2.32
229
7.35
250
12.18
288
0.38
183
0.51
152
1.75
177
3.57
185
5.30
208
1.85
160
GwcNet-ADLtwo views3.44
208
3.11
247
3.40
241
3.24
236
2.51
236
0.88
195
0.42
165
2.96
208
0.71
164
3.80
252
7.12
252
7.96
230
1.21
212
0.20
149
4.76
147
4.86
237
2.42
220
0.72
160
8.04
201
2.75
242
3.31
160
5.54
165
0.28
166
1.76
228
2.68
200
5.24
211
4.37
184
8.53
226
NaN_ROBtwo views3.44
208
1.18
204
1.20
176
0.92
190
3.15
243
0.73
190
1.61
210
3.36
224
2.57
235
0.98
149
1.25
171
21.11
261
0.77
187
1.26
243
5.06
156
1.79
94
1.06
158
0.76
165
2.52
110
1.44
194
1.95
122
3.82
105
0.52
206
1.30
217
4.05
226
10.09
254
4.78
196
13.66
250
EAI-Stereotwo views3.47
210
1.08
197
3.31
240
1.01
197
2.20
233
0.86
194
2.15
221
3.02
211
2.01
226
0.21
90
6.99
250
3.36
186
0.71
180
0.17
140
8.65
230
6.60
268
1.21
170
1.15
206
10.39
229
1.82
208
4.60
194
8.03
240
0.69
225
1.76
228
2.14
184
5.97
218
7.35
241
6.22
210
NOSS_ROBtwo views3.47
210
3.88
256
0.50
111
2.22
228
1.85
220
2.58
230
0.05
66
2.70
193
1.59
211
3.61
244
1.69
180
2.61
180
3.90
237
1.01
234
9.33
236
5.76
250
3.02
229
1.87
240
2.83
123
1.09
175
5.42
211
6.93
205
0.46
200
3.37
250
3.09
212
10.15
255
8.01
248
4.05
187
HHtwo views3.49
212
0.47
112
5.11
257
0.68
180
0.69
173
0.93
198
1.38
203
3.19
220
0.82
173
2.81
213
2.29
192
5.39
212
0.81
193
0.34
178
5.69
179
7.67
284
0.99
148
1.08
200
9.91
221
2.70
240
7.76
253
8.27
247
0.57
210
0.93
202
3.44
220
8.42
242
5.63
218
6.30
211
HanStereotwo views3.49
212
0.47
112
5.11
257
0.68
180
0.69
173
0.93
198
1.38
203
3.19
220
0.82
173
2.81
213
2.29
192
5.39
212
0.81
193
0.34
178
5.69
179
7.67
284
0.99
148
1.08
200
9.91
221
2.70
240
7.76
253
8.27
247
0.57
210
0.93
202
3.44
220
8.42
242
5.63
218
6.30
211
MSKI-zero shottwo views3.55
214
0.69
152
1.78
207
0.20
74
0.41
147
0.19
152
0.14
118
3.13
217
0.94
182
0.80
137
6.42
245
3.89
191
0.60
169
0.03
58
5.84
184
6.80
273
1.44
187
1.01
193
11.77
237
2.28
226
6.56
241
8.63
254
0.24
151
0.71
178
4.66
234
11.34
259
7.75
244
7.55
219
PSMNet-ADLtwo views3.55
214
0.87
173
1.70
202
1.71
213
2.00
227
1.21
206
0.69
184
2.55
184
1.91
224
4.36
263
7.71
259
4.22
194
7.85
247
0.10
115
7.75
219
5.27
243
2.09
211
0.89
178
11.92
239
2.07
217
4.52
193
6.13
184
0.70
227
0.67
175
2.07
183
4.52
204
8.78
251
1.62
155
gcap-zeroshottwo views3.56
216
0.56
125
4.08
246
1.72
214
0.53
159
1.55
215
1.78
214
3.23
222
0.64
159
2.75
212
6.71
247
6.50
225
0.68
176
0.48
206
6.48
204
6.49
265
1.21
170
1.11
203
16.59
248
2.54
234
5.24
207
8.27
247
1.30
247
0.79
190
3.27
215
5.01
208
4.56
192
1.94
163
model_zeroshottwo views3.58
217
0.49
117
2.22
221
1.96
220
0.99
192
0.34
174
0.18
131
2.98
209
0.43
137
2.44
206
5.28
230
4.75
205
0.54
159
0.17
140
8.97
233
6.14
257
1.71
199
1.15
206
15.06
245
1.29
189
5.77
222
7.73
229
0.26
157
0.43
140
5.63
246
5.85
217
5.24
205
8.66
227
ADCP+two views3.65
218
2.02
225
2.68
232
1.32
205
1.94
223
1.22
207
4.40
249
1.11
115
9.44
274
1.76
189
5.45
232
9.05
234
0.37
131
0.98
232
6.99
212
2.36
141
0.61
107
0.92
182
6.14
185
0.94
168
2.80
142
5.58
168
0.36
182
0.63
166
3.00
206
12.42
264
3.57
137
10.51
237
TRStereotwo views3.75
219
3.07
245
7.59
273
0.37
142
0.17
60
7.92
259
0.24
145
2.99
210
0.91
181
2.72
211
1.68
179
5.88
219
0.65
172
0.15
134
5.57
171
5.35
247
0.86
138
0.80
169
7.01
190
1.31
190
4.10
181
7.50
222
0.34
178
0.43
140
2.67
199
12.33
263
12.84
266
5.90
204
XX-Stereotwo views3.82
220
0.53
121
2.00
216
1.20
201
0.31
112
0.38
175
0.57
181
1.46
126
0.40
134
2.50
208
7.33
255
5.11
209
1.04
208
0.11
120
7.05
213
6.53
266
1.29
178
0.81
170
7.44
195
0.89
163
4.26
186
5.80
172
0.45
198
0.39
129
27.22
292
3.57
185
5.16
204
9.43
230
HBP-ISPtwo views4.03
221
3.61
251
4.65
250
4.90
248
2.67
237
3.96
242
0.21
142
4.13
242
1.33
201
3.40
239
4.53
225
5.06
207
0.59
166
1.99
260
8.66
231
8.18
286
1.95
206
1.49
224
3.09
135
1.55
196
5.74
215
9.32
267
0.67
224
2.28
236
3.06
210
5.01
208
10.99
260
5.93
207
IGEV_Zeroshot_testtwo views4.05
222
0.80
167
8.10
277
6.86
255
0.41
147
2.27
228
1.89
217
3.90
239
1.41
204
2.09
200
8.67
266
4.78
206
1.00
207
0.23
157
5.53
170
6.82
274
1.05
156
0.73
162
9.30
217
1.98
214
7.38
251
8.89
259
0.47
202
0.72
179
5.72
248
5.34
213
5.93
220
7.12
216
anonymitytwo views4.07
223
0.78
163
6.15
267
1.49
208
0.74
177
0.48
178
0.49
174
3.72
234
1.65
215
2.70
209
20.70
302
3.99
193
0.88
203
0.28
170
5.31
165
6.26
261
1.14
165
0.71
158
7.91
199
1.58
197
4.27
187
8.17
244
0.41
189
0.61
164
4.86
239
9.60
250
5.48
214
9.41
229
ADCLtwo views4.20
224
3.62
252
2.45
227
1.72
214
1.80
217
3.15
235
4.53
252
2.29
162
13.19
281
2.81
213
4.88
229
2.96
183
0.72
182
1.36
248
7.16
214
2.76
159
2.35
218
2.20
251
6.83
188
2.31
228
6.19
230
6.77
203
1.40
248
1.47
219
6.63
255
6.49
223
4.40
187
11.08
239
dadtwo views4.27
225
0.90
176
0.38
83
10.18
267
1.67
215
1.51
214
12.20
275
12.33
276
0.11
72
3.40
239
0.00
1
1.94
168
3.49
233
0.26
161
6.16
196
1.44
65
1.74
203
0.71
158
14.06
244
0.66
142
3.23
156
4.00
113
0.21
139
1.02
206
6.09
251
0.19
71
17.62
278
9.71
233
FC-DCNNcopylefttwo views4.43
226
4.58
259
5.93
264
9.82
266
4.79
254
8.76
265
4.48
251
4.47
244
1.65
215
2.91
221
2.13
185
6.53
226
2.41
226
0.30
173
4.57
133
2.52
148
2.76
228
1.21
211
3.98
158
0.89
163
3.66
172
4.91
151
0.73
231
4.23
258
8.24
258
6.03
220
7.69
242
9.53
232
iResNettwo views4.46
227
0.88
174
0.92
156
2.61
230
2.85
239
4.95
246
1.38
203
4.97
251
1.33
201
3.66
246
3.45
214
12.37
244
16.29
269
0.06
91
9.09
234
3.33
184
2.53
223
1.85
238
16.79
250
2.68
239
4.65
196
4.29
121
0.25
155
4.69
262
1.88
181
4.19
198
5.32
209
3.22
181
FADNet_RVCtwo views4.48
228
2.12
232
1.42
185
3.57
241
3.69
245
1.20
205
2.37
223
2.30
163
1.42
205
1.77
190
4.48
224
9.79
237
6.84
245
1.84
259
12.73
261
3.36
186
3.55
233
4.20
271
17.52
251
3.76
253
5.93
225
8.26
245
0.72
229
1.64
225
1.78
178
3.63
189
5.12
202
5.99
208
LALA_ROBtwo views4.53
229
4.80
261
1.68
200
1.27
203
2.16
232
2.28
229
1.42
207
1.88
146
2.60
236
2.71
210
5.56
233
33.12
274
0.72
182
0.88
229
10.88
249
2.59
152
3.47
232
1.83
237
4.21
162
2.04
215
4.39
191
7.30
214
0.41
189
1.52
221
2.35
189
3.60
188
8.94
252
7.68
220
DAStwo views4.65
230
0.98
187
1.28
177
1.99
222
1.39
206
1.39
212
1.58
208
3.52
230
4.17
251
3.33
233
6.18
242
12.75
246
6.50
242
0.10
115
8.31
225
4.81
235
4.46
246
2.26
252
10.21
224
5.35
265
6.51
237
7.66
225
0.57
210
4.84
264
4.63
232
7.17
231
7.79
245
5.90
204
SepStereotwo views4.65
230
0.98
187
1.28
177
1.99
222
1.39
206
1.39
212
1.58
208
3.52
230
4.17
251
3.33
233
6.18
242
12.75
246
6.50
242
0.10
115
8.31
225
4.81
235
4.46
246
2.26
252
10.21
224
5.35
265
6.51
237
7.66
225
0.57
210
4.84
264
4.63
232
7.17
231
7.79
245
5.90
204
iRaft-Stereo_20wtwo views4.82
232
1.53
212
8.41
279
7.63
257
1.90
221
3.40
238
1.71
211
3.40
226
2.25
229
3.58
243
9.41
274
3.70
188
1.31
213
0.48
206
5.41
166
5.85
251
1.31
180
0.85
173
9.58
219
1.92
211
5.27
208
7.69
228
0.65
222
0.77
188
4.40
229
14.15
272
11.18
261
12.46
246
FC-DCNN v2copylefttwo views4.85
233
4.85
262
6.16
268
11.18
269
5.04
255
9.41
266
4.33
247
5.45
258
2.13
228
2.92
222
2.41
197
6.96
228
3.28
230
0.29
172
4.66
139
2.49
145
2.73
225
1.13
205
4.30
163
0.89
163
3.66
172
4.92
152
0.72
229
4.22
257
9.66
268
6.86
227
9.29
253
10.92
238
AIO-Stereo-zeroshotpermissivetwo views4.98
234
1.32
207
8.08
276
2.22
228
1.40
208
5.53
247
2.05
218
3.43
227
3.32
242
3.75
249
12.29
281
5.33
211
1.84
220
0.33
177
5.97
190
7.09
277
1.62
195
1.81
235
10.22
226
2.59
236
6.85
244
8.81
256
0.47
202
2.00
233
5.18
243
13.24
269
6.40
228
11.37
242
ccs_robtwo views4.98
234
1.51
211
2.53
230
2.16
225
0.89
186
3.24
236
1.79
215
4.91
250
1.34
203
4.26
260
15.64
292
28.82
270
10.34
256
0.50
210
6.81
207
5.55
248
2.39
219
1.57
226
6.45
186
2.16
223
6.28
233
6.95
206
0.40
185
2.33
237
1.38
162
2.46
171
4.37
184
7.31
218
SHDtwo views5.09
236
1.15
201
3.12
238
1.80
216
1.94
223
1.71
219
2.82
232
5.09
254
4.76
257
2.82
216
5.39
231
5.07
208
9.79
255
0.87
228
11.37
253
6.33
264
4.71
250
2.67
259
13.97
243
3.50
251
7.31
249
8.29
251
0.44
196
3.88
253
5.02
241
7.49
235
4.03
167
12.20
243
ETE_ROBtwo views5.10
237
4.12
257
1.76
205
1.25
202
2.22
234
2.82
232
2.07
219
1.56
129
4.21
253
1.88
193
5.58
235
37.59
282
0.86
202
1.44
250
10.38
245
2.80
160
4.20
244
0.98
188
5.24
176
1.97
212
4.87
199
7.58
224
0.77
234
1.38
218
2.34
188
3.79
194
15.93
275
8.21
223
CSANtwo views5.32
238
2.66
239
1.69
201
3.30
237
3.85
247
2.05
223
2.31
222
5.00
253
4.86
258
3.78
251
2.69
204
17.88
258
11.82
260
1.17
240
10.17
243
1.96
109
2.51
221
1.35
219
6.12
183
2.50
232
3.97
179
4.60
140
0.56
208
2.97
245
6.49
253
16.18
278
7.96
247
13.30
249
ITSA-stereotwo views5.42
239
2.29
234
1.89
210
8.97
263
3.88
248
1.23
208
2.54
225
4.47
244
3.35
246
4.35
262
7.59
256
10.18
238
12.92
263
3.00
264
7.80
221
5.16
240
3.85
236
1.88
241
8.77
206
2.09
220
6.00
226
7.39
215
1.42
249
3.60
251
4.84
238
7.18
233
5.13
203
14.47
253
DCVSM-stereotwo views5.54
240
0.78
163
3.12
238
3.47
238
1.28
199
7.98
260
1.05
192
4.59
247
2.29
230
5.25
272
7.93
263
23.24
264
12.85
262
0.71
223
9.52
239
4.20
226
2.06
210
1.36
221
16.58
247
3.56
252
5.30
209
5.91
175
2.46
258
3.65
252
2.66
197
6.64
224
5.48
214
5.70
201
CC-Net-ROBtwo views5.62
241
8.62
273
1.87
209
23.08
279
6.72
266
15.74
275
8.55
269
0.45
88
0.82
173
1.55
184
0.00
1
24.53
265
3.35
231
3.39
269
5.49
168
0.89
17
2.73
225
1.76
233
12.04
240
0.82
157
1.32
81
1.73
29
9.22
282
0.42
134
3.22
214
2.53
173
2.45
94
8.44
225
DDVStwo views5.69
242
1.54
213
2.40
226
1.70
212
2.85
239
2.20
226
1.17
195
5.90
261
4.00
250
4.08
255
18.83
298
25.64
267
8.12
250
1.56
252
8.35
227
7.04
276
2.73
225
2.05
247
11.37
234
4.73
258
6.54
239
8.98
262
0.34
178
1.71
226
1.84
180
3.53
184
6.53
229
7.90
222
XQCtwo views5.77
243
3.33
249
2.00
216
3.49
239
4.00
249
3.75
241
3.56
241
6.60
264
3.33
243
2.89
219
5.57
234
6.45
224
8.10
249
1.78
257
12.28
257
5.97
253
4.03
242
1.85
238
11.48
236
3.98
255
6.63
242
9.37
269
0.62
216
2.51
239
9.28
265
15.19
275
11.40
263
6.32
213
SFCPSMtwo views5.84
244
2.89
243
1.36
183
1.97
221
1.59
213
1.65
218
0.56
180
2.54
182
4.75
256
3.16
228
7.74
260
15.48
253
23.57
277
1.24
241
11.21
250
4.79
234
2.53
223
1.55
225
22.65
267
7.42
272
4.60
194
6.67
200
0.69
225
2.33
237
4.62
231
4.35
200
6.18
224
9.49
231
RTStwo views6.13
245
1.54
213
1.31
181
0.94
191
1.83
218
4.15
243
5.45
254
2.74
198
3.33
243
2.85
217
1.61
177
8.52
232
1.31
213
1.13
238
14.79
278
6.12
255
7.56
266
2.52
255
18.82
254
3.48
247
6.23
231
8.15
242
1.11
242
1.90
231
8.24
258
21.58
291
6.64
231
21.79
269
RTSAtwo views6.13
245
1.54
213
1.31
181
0.94
191
1.83
218
4.15
243
5.45
254
2.74
198
3.33
243
2.85
217
1.61
177
8.52
232
1.31
213
1.13
238
14.79
278
6.12
255
7.56
266
2.52
255
18.82
254
3.48
247
6.23
231
8.15
242
1.11
242
1.90
231
8.24
258
21.58
291
6.64
231
21.79
269
CBMVpermissivetwo views6.33
247
3.75
253
1.57
195
3.96
242
3.58
244
2.97
233
1.75
213
3.89
238
2.67
237
4.14
256
2.72
206
14.42
250
3.85
236
0.73
225
10.81
248
6.26
261
4.67
249
2.29
254
9.29
216
1.51
195
8.03
257
7.42
218
0.63
217
6.58
278
6.79
256
7.57
236
20.00
281
28.98
285
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
AnyNet_C32two views6.34
248
2.03
226
2.98
235
1.85
218
2.88
242
3.58
239
6.75
261
4.57
246
12.25
278
3.05
225
7.04
251
4.71
204
1.88
221
2.57
263
14.38
275
6.24
260
6.31
261
4.36
274
12.98
242
3.18
246
11.94
283
11.62
285
1.98
254
4.21
256
6.60
254
10.55
256
6.27
226
14.36
252
AIO-Stereo-zeroshot1permissivetwo views6.35
249
1.86
222
7.76
274
2.86
234
2.71
238
7.05
255
3.15
237
3.93
240
4.88
259
4.54
264
11.42
278
5.15
210
2.03
223
0.06
91
10.49
247
8.30
287
2.05
208
1.28
217
37.56
286
2.22
224
6.07
228
9.22
264
0.40
185
0.89
200
4.29
227
12.82
267
6.10
223
12.31
245
AMNettwo views6.93
250
3.82
255
2.53
230
4.00
243
5.78
259
6.99
254
3.24
238
2.46
179
2.51
234
3.39
238
6.36
244
9.40
236
2.06
224
7.30
280
5.92
186
9.99
293
13.66
286
7.81
290
8.03
200
7.76
276
11.45
280
8.81
256
2.81
260
4.73
263
5.75
249
7.80
237
13.20
267
19.55
264
CBMV_ROBtwo views7.04
251
2.92
244
2.91
234
8.40
261
6.54
265
5.80
249
3.57
242
5.09
254
2.49
233
3.84
254
4.70
228
21.33
262
14.76
267
0.47
204
10.48
246
3.84
218
3.13
230
1.58
227
12.20
241
8.81
278
6.17
229
5.80
172
0.47
202
3.14
248
9.16
264
15.50
277
13.69
269
13.29
248
ADCMidtwo views7.46
252
4.47
258
5.08
255
2.16
225
4.40
252
5.87
250
8.05
265
9.24
268
12.39
279
3.16
228
7.69
258
10.20
239
10.41
257
3.13
266
12.60
260
5.58
249
5.05
255
2.83
261
19.52
258
4.27
256
8.70
264
10.59
281
5.48
276
2.86
243
5.69
247
10.08
253
5.48
214
16.37
256
ADCPNettwo views7.46
252
2.07
228
4.11
247
2.81
232
6.39
262
3.36
237
8.24
266
5.53
259
7.83
268
3.76
250
7.86
261
5.53
217
14.04
265
3.15
267
13.54
266
6.64
269
4.80
251
2.06
248
18.97
257
5.05
263
8.54
262
10.30
279
2.99
262
2.59
240
9.61
267
17.77
280
7.74
243
16.22
255
PWC_ROBbinarytwo views7.58
254
2.00
224
5.48
260
0.90
189
1.32
202
2.25
227
5.46
256
2.83
204
16.84
289
3.83
253
8.10
264
5.42
214
39.62
298
1.01
234
9.69
240
5.15
239
6.62
262
4.25
272
16.71
249
4.76
260
8.56
263
10.40
280
0.63
217
4.96
267
3.07
211
3.69
190
7.15
240
24.07
276
FAT-Stereotwo views7.68
255
2.26
233
8.90
281
7.33
256
12.67
280
6.25
252
3.58
243
7.41
265
3.60
248
5.82
274
12.39
282
18.45
259
9.06
252
1.35
247
12.36
258
6.54
267
3.93
238
4.03
270
15.97
246
6.36
268
7.78
255
9.24
265
0.76
233
5.29
272
3.49
222
6.98
229
8.20
249
17.22
259
MFN_U_SF_DS_RVCtwo views7.94
256
3.78
254
1.17
175
9.35
264
4.27
251
8.06
261
8.52
268
11.24
274
8.55
270
4.88
270
4.04
221
17.24
256
9.50
254
6.06
279
14.53
277
3.53
199
2.28
216
1.12
204
19.59
260
2.56
235
8.24
260
9.72
272
3.14
265
2.11
234
11.98
273
14.76
273
10.14
257
14.15
251
ACV-stereotwo views8.68
257
5.35
265
4.89
252
8.31
260
1.79
216
11.62
270
4.37
248
3.80
237
6.01
261
5.33
273
7.17
253
6.07
222
26.41
280
1.30
244
11.88
254
10.16
295
6.25
260
2.60
257
51.34
301
14.45
290
9.06
269
8.91
260
1.00
237
2.60
241
2.32
187
8.54
245
7.07
237
5.71
202
pmcnntwo views8.69
258
3.07
245
2.45
227
6.53
254
5.75
258
7.18
256
4.96
253
4.79
249
2.03
227
4.24
259
12.14
280
19.36
260
21.49
275
0.91
230
9.48
237
6.75
271
6.67
263
4.39
275
22.61
266
5.09
264
10.91
279
7.84
233
4.51
273
5.07
269
6.90
257
5.26
212
17.73
279
26.48
282
FBW_ROBtwo views8.77
259
9.60
274
5.96
265
20.47
278
9.29
272
12.71
271
9.20
270
4.97
251
1.59
211
3.30
232
6.98
249
15.27
251
3.59
234
7.76
282
10.34
244
1.71
92
3.43
231
0.86
174
34.07
281
2.29
227
6.89
245
6.34
189
9.32
283
8.81
287
5.75
249
8.41
240
5.24
205
22.62
271
MaskLacGwcNet_RVCtwo views8.85
260
1.66
218
6.09
266
4.62
247
3.79
246
3.05
234
6.94
262
3.69
233
3.58
247
4.74
268
10.17
276
65.85
311
12.11
261
7.99
283
7.88
222
5.27
243
4.63
248
5.31
276
18.89
256
2.67
238
8.70
264
10.19
277
1.05
240
4.09
255
5.01
240
9.52
249
6.30
227
15.16
254
S-Stereotwo views9.64
261
2.07
228
4.59
248
8.70
262
8.72
270
12.93
273
19.52
282
5.25
256
6.14
263
6.12
277
20.39
301
29.19
271
7.43
246
0.64
217
14.26
272
7.63
283
4.01
241
5.81
281
18.32
252
6.45
270
7.46
252
9.84
273
12.36
287
7.40
281
3.61
223
6.74
225
7.10
239
17.56
260
ADCStwo views10.79
262
5.73
266
4.98
253
4.16
245
6.39
262
6.60
253
6.53
259
10.15
272
15.87
287
4.18
258
7.59
256
13.56
249
18.31
270
4.53
275
14.24
271
11.99
300
10.80
274
7.09
289
25.37
272
9.28
281
16.45
299
16.31
304
2.97
261
7.03
280
10.05
271
20.56
287
11.21
262
19.51
263
STTRV1_RVCtwo views10.96
263
2.66
239
1.55
194
5.84
249
1.90
221
6.01
251
3.60
244
4.11
241
3.93
249
4.64
266
6.71
247
16.96
255
21.63
276
1.68
255
20.69
299
5.04
238
18.60
293
1.18
208
52.69
304
12.74
288
19.16
303
9.31
266
4.76
275
5.05
268
9.07
263
12.15
262
12.79
265
31.40
288
MFN_U_SF_RVCtwo views11.03
264
6.12
269
3.70
243
9.72
265
5.50
256
12.91
272
11.38
273
12.61
278
7.46
267
12.18
294
14.75
288
23.19
263
14.11
266
9.33
284
18.32
289
5.16
240
4.41
245
3.43
266
39.06
289
6.67
271
10.28
275
11.18
283
1.45
250
6.88
279
9.80
269
8.50
244
9.76
254
19.96
266
SGM_RVCbinarytwo views11.04
265
10.51
277
3.94
245
16.88
273
9.65
275
15.55
274
8.47
267
9.54
269
6.09
262
4.15
257
7.87
262
25.06
266
19.78
274
0.97
231
9.49
238
2.25
134
3.81
235
1.26
216
21.86
263
2.34
230
6.63
242
5.12
159
2.33
256
4.85
266
18.97
283
16.47
279
33.79
296
30.47
286
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
G-Nettwo views11.11
266
4.89
264
9.62
283
4.05
244
4.71
253
7.69
258
2.56
226
10.07
271
15.27
285
5.01
271
15.52
291
47.57
297
9.25
253
0.66
219
11.93
255
8.70
289
5.83
257
4.33
273
24.55
271
15.55
292
8.38
261
9.97
275
3.01
263
5.25
271
6.16
252
13.40
270
22.59
283
23.59
275
SANettwo views11.19
267
4.59
260
6.27
270
5.98
250
6.03
260
9.51
267
3.52
240
15.63
283
13.49
282
2.90
220
8.65
265
59.91
306
26.52
281
3.01
265
14.30
273
3.26
181
7.32
265
3.86
269
11.91
238
3.94
254
6.50
235
7.39
215
2.61
259
7.75
284
12.68
274
17.80
281
13.93
270
22.99
272
MDST_ROBtwo views11.38
268
16.72
284
3.53
242
29.03
283
10.09
276
21.13
281
6.30
258
6.03
262
2.39
231
3.16
228
5.82
238
11.55
242
29.02
285
0.67
220
15.26
283
3.18
178
1.65
196
0.66
146
8.85
208
2.07
217
5.87
223
6.71
202
2.26
255
3.08
247
28.29
294
22.14
293
37.48
301
24.36
277
MSC_U_SF_DS_RVCtwo views11.75
269
10.45
276
6.25
269
17.50
274
6.77
267
8.15
262
11.44
274
18.23
290
23.22
300
11.11
289
4.62
226
15.32
252
6.08
240
10.68
287
16.27
285
6.19
259
3.94
239
5.52
277
39.73
290
7.74
275
9.53
274
12.33
289
7.02
278
7.63
283
14.72
278
12.91
268
6.89
235
16.97
258
edge stereotwo views11.93
270
6.96
271
11.28
284
14.49
270
12.53
279
16.91
276
13.06
277
12.62
279
7.43
266
6.06
276
15.07
289
38.54
284
18.86
271
1.55
251
12.90
262
7.43
280
6.14
258
3.10
263
25.46
273
4.74
259
8.16
258
10.22
278
4.20
271
4.35
259
9.83
270
8.13
239
13.68
268
28.51
284
DGSMNettwo views12.26
271
4.87
263
8.31
278
6.01
251
6.04
261
7.30
257
6.59
260
7.90
266
4.51
255
11.38
291
32.66
311
17.48
257
8.74
251
4.36
274
14.01
268
14.50
304
17.26
290
9.25
293
41.69
292
11.54
287
21.38
308
24.41
311
4.74
274
7.56
282
5.44
244
11.45
260
8.55
250
13.11
247
DDUNettwo views13.01
272
20.50
287
4.63
249
37.04
289
24.81
288
34.87
292
32.65
290
1.85
140
1.66
217
1.47
181
3.83
218
13.22
248
4.08
238
83.62
302
6.26
199
2.41
144
8.99
271
3.82
267
18.78
253
4.54
257
7.88
256
7.25
211
16.92
292
0.99
205
1.50
170
0.70
120
4.90
200
2.09
167
PVDtwo views13.07
273
5.77
267
8.84
280
7.67
258
7.35
268
10.40
268
7.28
263
21.12
296
19.70
296
3.65
245
8.76
267
16.32
254
27.90
283
3.25
268
14.97
281
8.92
291
11.32
275
6.23
285
25.56
274
7.56
273
12.68
286
14.11
298
1.29
246
6.16
275
16.97
280
25.32
298
18.21
280
35.51
294
AnyNet_C01two views13.13
274
6.35
270
5.48
260
6.38
253
6.46
264
5.73
248
10.15
271
12.79
281
16.56
288
5.83
275
9.31
272
26.51
268
19.60
272
5.31
278
17.84
287
13.62
302
17.55
291
15.56
306
35.24
282
11.09
285
19.28
304
17.31
306
7.05
279
7.85
285
13.46
276
10.79
257
9.89
255
21.58
268
UDGtwo views13.28
275
21.47
288
5.08
255
37.13
290
29.51
291
32.00
288
40.03
293
2.62
188
1.78
221
2.40
205
5.74
237
12.64
245
4.23
239
74.90
299
7.47
216
2.61
154
9.44
272
3.24
265
19.57
259
5.01
262
8.74
267
7.28
212
12.84
288
1.84
230
1.35
160
2.91
177
4.53
191
2.12
168
SGM-ForestMtwo views13.51
276
15.62
282
5.25
259
19.43
276
9.27
271
19.59
280
12.46
276
12.78
280
8.97
273
3.34
236
9.27
271
36.07
281
25.37
279
2.03
261
16.48
286
3.39
189
4.90
253
1.21
211
22.28
264
2.96
244
6.90
246
5.25
162
1.83
252
4.68
261
27.51
293
25.27
297
34.85
299
27.72
283
MeshStereopermissivetwo views13.92
277
10.29
275
5.80
263
24.32
282
15.33
281
17.65
278
7.76
264
12.34
277
7.38
265
4.65
267
9.09
270
38.22
283
30.61
288
0.62
216
14.44
276
7.42
279
4.05
243
2.65
258
19.82
261
2.63
237
14.32
293
9.90
274
1.27
245
6.42
276
22.75
289
19.43
284
33.41
294
33.14
290
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DPSNettwo views15.27
278
3.38
250
2.28
224
7.89
259
8.28
269
10.58
269
4.44
250
5.86
260
8.70
272
4.26
260
6.00
241
72.12
316
28.20
284
4.69
276
15.14
282
10.42
296
11.48
277
8.27
291
58.42
313
9.38
282
12.12
285
11.31
284
17.29
293
11.11
292
20.16
286
20.85
290
14.99
273
24.68
279
MFMNet_retwo views16.81
279
13.74
279
7.85
275
23.81
281
9.51
274
34.14
291
18.04
279
12.31
275
19.02
294
10.33
288
12.96
283
38.69
285
15.16
268
1.61
254
18.46
290
10.89
298
28.67
307
12.10
298
31.52
277
10.43
284
18.75
302
11.05
282
8.52
281
9.85
288
9.47
266
5.57
215
24.17
284
37.24
296
SQANettwo views19.01
280
32.39
294
7.05
271
58.51
295
34.20
292
58.54
297
40.35
294
4.32
243
1.69
218
4.85
269
1.45
174
32.05
273
6.71
244
57.82
295
11.24
252
1.77
93
6.68
264
1.66
229
31.16
276
2.08
219
8.23
259
7.99
238
54.11
301
2.11
234
5.60
245
10.88
258
10.17
258
19.67
265
SAMSARAtwo views20.09
281
2.60
237
5.52
262
4.28
246
4.10
250
3.59
240
5.57
257
15.80
286
10.05
276
4.59
265
5.59
236
9.22
235
24.85
278
3.88
270
16.25
284
8.47
288
6.17
259
3.82
267
22.29
265
5.87
267
19.35
305
26.82
318
1.02
238
5.45
273
80.31
324
91.77
324
78.09
324
77.23
324
MADNet+two views20.34
282
8.33
272
14.90
293
18.17
275
11.98
278
8.55
263
19.20
280
28.96
307
17.96
292
12.55
295
11.63
279
34.32
278
30.36
287
10.57
286
26.85
306
16.66
306
27.39
305
10.40
297
40.88
291
18.27
297
19.91
306
15.53
302
9.97
286
19.40
303
35.72
302
22.38
294
21.31
282
37.09
295
ELAS_RVCcopylefttwo views20.43
283
19.80
286
14.61
292
33.93
286
22.90
285
33.71
290
20.10
284
15.64
284
12.18
277
8.45
283
19.69
300
54.25
304
33.97
292
4.07
271
13.47
265
5.30
246
11.89
278
6.49
287
21.52
262
8.87
279
14.06
290
14.69
300
9.63
285
11.88
293
32.34
298
25.79
299
41.56
307
40.71
302
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
STStereotwo views20.61
284
24.96
290
17.24
295
39.82
291
27.48
290
32.58
289
22.87
286
19.77
293
17.77
291
8.05
282
19.67
299
46.38
292
37.96
297
2.15
262
18.66
292
4.75
232
4.82
252
1.95
242
33.25
279
6.38
269
9.07
270
8.67
255
3.28
266
10.68
290
31.80
297
27.62
303
40.75
303
38.09
298
ELAScopylefttwo views20.62
285
22.76
289
14.59
291
35.29
288
24.88
289
31.90
287
20.66
285
17.34
289
17.05
290
7.97
281
18.32
296
48.39
298
31.67
289
4.13
272
14.30
273
5.24
242
11.47
276
6.10
284
23.02
269
7.62
274
13.14
287
14.53
299
9.46
284
10.75
291
34.52
300
27.84
304
41.52
306
42.31
305
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SPS-STEREOcopylefttwo views20.98
286
14.87
281
11.99
286
19.90
277
20.87
283
18.85
279
10.39
272
16.04
287
19.39
295
19.65
304
21.64
304
33.32
275
37.38
296
7.51
281
19.34
295
17.18
308
26.65
303
16.12
308
32.93
278
23.87
304
31.45
316
25.37
315
13.83
290
14.33
300
17.76
282
19.97
285
29.60
290
26.21
280
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
MANEtwo views21.44
287
17.36
285
16.07
294
34.52
287
24.54
287
25.94
284
19.26
281
20.13
295
18.43
293
6.42
279
15.25
290
40.88
287
36.30
295
4.35
273
18.72
293
10.55
297
8.23
268
29.63
317
23.68
270
4.94
261
11.81
282
8.91
260
3.02
264
10.18
289
36.19
305
32.24
308
51.66
315
49.72
309
otakutwo views22.42
288
43.20
298
9.38
282
63.06
301
42.07
298
64.13
306
51.05
295
6.07
263
4.42
254
10.13
287
1.74
181
33.95
276
10.96
258
66.92
297
12.03
256
1.89
102
8.57
269
1.66
229
38.00
287
7.96
277
8.85
268
8.28
250
54.71
302
2.95
244
9.04
262
9.25
247
14.25
272
20.70
267
SGM+DAISYtwo views22.46
289
16.23
283
12.74
287
23.16
280
22.67
284
25.12
283
20.00
283
18.50
291
14.48
284
18.58
303
22.04
305
30.49
272
41.59
299
13.05
289
22.51
303
16.54
305
26.00
302
12.93
300
35.92
283
22.37
302
28.02
314
25.12
314
21.26
294
13.77
298
20.04
285
18.46
283
33.94
297
30.81
287
DLNR_Zeroshot_testpermissivetwo views23.08
290
78.93
325
7.15
272
99.97
325
0.34
126
0.16
135
98.90
325
3.23
222
0.54
147
3.12
227
2.31
195
6.01
221
0.92
206
21.35
291
96.48
326
100.00
329
25.46
300
22.19
311
22.79
268
2.43
231
9.32
272
9.14
263
0.06
75
0.65
172
2.36
190
3.89
196
2.16
87
3.20
180
LSM0two views23.31
291
6.07
268
4.80
251
15.07
272
10.87
277
17.08
277
14.50
278
23.84
299
15.74
286
14.73
298
18.40
297
35.77
280
35.06
294
1.58
253
76.98
322
85.81
322
14.68
287
5.68
279
56.53
311
17.15
296
23.95
311
21.89
309
4.26
272
8.21
286
17.36
281
20.39
286
29.27
289
33.71
292
LE_ROBtwo views23.34
292
10.93
278
12.86
288
32.65
284
38.35
295
31.72
286
33.97
291
23.50
298
21.06
298
7.08
280
17.87
295
51.83
301
51.55
314
1.81
258
14.20
270
3.08
172
3.94
239
1.47
223
30.65
275
8.98
280
9.43
273
7.39
215
6.89
277
25.95
308
35.31
301
39.95
316
53.69
317
54.00
312
Ntrotwo views23.84
293
41.67
296
11.59
285
63.69
303
43.73
299
62.95
304
57.60
298
8.47
267
6.35
264
11.89
293
2.51
200
35.10
279
7.96
248
75.67
300
12.59
259
1.67
87
9.55
273
2.68
260
39.05
288
9.79
283
8.70
264
8.40
253
55.40
303
3.24
249
11.18
272
15.16
274
14.07
271
23.09
274
BEATNet-Init1two views25.27
294
27.76
291
13.76
289
44.57
293
24.32
286
38.91
293
25.10
287
19.51
292
20.03
297
9.35
284
16.15
293
47.35
296
48.89
309
4.71
277
23.55
304
11.00
299
8.78
270
5.84
282
49.88
300
20.70
298
15.01
294
14.94
301
7.37
280
12.57
296
35.78
303
26.22
300
60.85
321
49.36
308
DispFullNettwo views27.09
295
40.76
295
20.37
300
53.27
294
39.67
296
45.72
295
56.25
297
14.00
282
12.78
280
14.18
296
10.07
275
43.95
291
34.00
293
86.26
303
13.33
264
13.62
302
31.37
311
16.57
309
52.58
303
15.02
291
15.98
296
12.66
292
15.43
291
6.52
277
8.73
261
8.65
246
16.24
276
33.48
291
ACVNet-4btwo views27.62
296
43.15
297
14.04
290
69.86
312
48.10
302
70.20
314
77.34
313
10.63
273
9.55
275
15.00
299
1.55
176
59.33
305
11.37
259
93.44
310
12.94
263
2.57
151
15.66
288
5.69
280
33.68
280
14.13
289
9.17
271
7.28
212
59.49
307
4.60
260
12.85
275
9.43
248
15.52
274
19.12
262
WAO-7two views28.15
297
31.17
293
25.54
304
33.41
285
34.99
293
22.62
282
28.62
289
47.75
316
47.89
314
29.08
309
39.82
315
41.47
288
41.79
300
12.75
288
36.14
313
18.16
309
17.03
289
8.88
292
47.38
296
21.69
301
11.73
281
12.95
295
3.79
270
33.81
314
23.20
290
26.44
301
24.41
285
37.61
297
ACVNet_1two views28.17
298
43.81
299
17.24
295
67.32
307
49.50
304
66.04
311
82.98
318
16.42
288
8.08
269
11.43
292
7.19
254
34.00
277
27.09
282
93.81
311
14.92
280
2.21
132
17.82
292
6.77
288
36.07
284
11.39
286
10.56
278
7.42
218
59.65
308
6.11
274
20.40
287
15.24
276
10.18
259
16.93
257
RainbowNettwo views28.72
299
46.67
300
19.30
299
69.82
311
47.14
300
68.90
313
70.63
308
10.00
270
3.26
241
17.63
301
2.27
188
46.57
293
29.74
286
91.67
307
17.86
288
3.37
187
12.50
279
5.59
278
44.74
295
17.11
295
10.33
276
8.87
258
58.90
306
5.15
270
14.30
277
12.58
265
17.44
277
23.01
273
PSMNet_ROBtwo views32.72
300
49.56
306
17.71
298
65.01
305
47.98
301
61.81
301
62.32
299
19.85
294
21.78
299
27.64
308
25.28
306
42.80
289
43.52
303
83.58
301
21.88
302
4.36
227
19.43
294
6.46
286
43.95
294
16.36
293
13.14
287
11.66
286
58.31
305
14.57
301
31.67
296
24.32
296
29.94
292
18.64
261
JetBluetwo views33.16
301
30.03
292
36.86
316
39.95
292
35.04
294
44.19
294
36.23
292
30.47
310
47.01
313
15.01
300
10.48
277
79.96
322
19.64
273
25.82
292
18.89
294
17.14
307
40.11
317
25.93
315
36.94
285
25.94
307
32.23
317
26.39
316
31.84
295
27.47
310
31.63
295
33.13
310
48.81
313
48.30
307
ACVNet_2two views33.32
302
48.24
302
22.45
302
67.72
310
50.69
309
65.88
309
85.41
321
28.48
305
14.03
283
14.63
297
9.36
273
52.16
302
31.94
290
91.62
306
13.62
267
2.72
156
21.29
295
5.84
282
51.78
302
16.52
294
10.41
277
7.93
236
58.06
304
13.93
299
36.96
307
18.42
282
25.58
286
33.95
293
IMH-64-1two views35.05
303
48.99
303
25.77
306
61.80
297
50.28
307
62.71
302
68.79
302
27.80
302
35.88
303
10.10
285
14.48
286
46.82
294
41.96
301
94.04
312
19.93
296
7.49
281
22.67
296
9.35
294
48.46
297
21.14
299
14.12
291
12.56
290
59.91
310
12.21
294
41.64
308
20.57
288
27.79
287
39.03
299
IMH-64two views35.05
303
48.99
303
25.77
306
61.80
297
50.28
307
62.71
302
68.79
302
27.80
302
35.88
303
10.10
285
14.48
286
46.82
294
41.96
301
94.04
312
19.93
296
7.49
281
22.67
296
9.35
294
48.46
297
21.14
299
14.12
291
12.56
290
59.91
310
12.21
294
41.64
308
20.57
288
27.79
287
39.03
299
IMHtwo views36.38
305
50.15
307
26.16
308
62.16
300
50.12
306
63.98
305
68.96
304
28.54
306
38.29
306
11.29
290
14.14
284
50.26
299
54.45
317
94.09
314
20.59
298
7.40
278
23.63
298
10.28
296
49.17
299
22.78
303
13.74
289
11.88
287
59.95
312
13.42
297
41.71
310
23.99
295
29.69
291
41.45
303
WAO-6two views37.66
306
47.81
301
21.43
301
60.52
296
52.73
310
58.92
298
64.84
300
27.98
304
43.38
307
33.02
312
17.53
294
43.36
290
50.95
311
89.65
304
33.50
309
18.63
312
24.84
299
13.57
302
42.17
293
25.77
306
21.16
307
19.52
307
35.00
296
18.52
302
43.20
311
29.62
305
37.17
300
41.96
304
PWCKtwo views39.46
307
63.60
315
25.26
303
73.87
318
41.94
297
61.54
300
51.88
296
54.42
317
37.36
305
26.43
307
38.00
312
62.72
310
47.31
305
27.64
293
24.07
305
10.09
294
32.07
312
12.97
301
84.14
324
29.01
311
25.42
312
16.79
305
48.17
300
30.69
313
35.86
304
32.01
307
32.05
293
40.21
301
TorneroNet-64two views40.02
308
51.18
308
25.58
305
64.09
304
48.50
303
64.50
307
69.74
305
27.58
301
44.28
310
21.06
305
14.38
285
70.42
315
57.53
318
94.84
316
27.09
307
8.83
290
28.00
306
16.10
307
54.90
309
26.42
308
15.26
295
13.34
296
61.86
313
22.65
304
33.51
299
30.60
306
34.09
298
54.24
313
LVEtwo views40.69
309
49.32
305
32.19
311
74.37
319
65.31
315
65.52
308
78.53
314
29.09
308
24.11
301
37.95
314
38.44
313
39.09
286
50.88
310
95.16
322
18.50
291
6.31
263
25.93
301
13.65
303
54.80
308
26.51
309
16.26
297
15.81
303
69.49
319
26.57
309
44.82
312
33.95
312
41.51
305
24.49
278
TorneroNettwo views40.95
310
54.80
310
28.35
309
67.47
309
50.00
305
66.00
310
71.75
309
26.53
300
45.69
311
24.20
306
21.34
303
68.12
312
53.25
316
94.92
318
27.93
308
9.57
292
26.82
304
16.87
310
54.27
307
24.50
305
16.26
297
13.93
297
62.31
314
23.32
306
36.59
306
27.14
302
43.07
308
50.69
310
Deantwo views44.25
311
52.28
309
33.23
312
77.10
320
64.97
314
79.61
323
83.94
320
43.21
312
43.41
308
35.28
313
25.28
306
61.70
308
57.88
319
95.07
321
21.16
301
4.55
228
29.50
308
12.92
299
64.62
317
29.22
312
11.94
283
10.07
276
59.70
309
23.01
305
50.00
316
39.42
315
53.45
316
32.13
289
WAO-8two views45.52
312
56.99
312
36.84
314
70.78
314
61.58
311
72.65
317
72.88
310
44.15
313
50.34
315
32.51
310
26.24
308
68.22
313
50.98
312
91.91
308
34.40
310
19.25
313
31.26
309
14.25
304
53.00
305
37.84
316
18.64
300
12.91
293
45.23
297
27.94
311
54.23
319
39.08
313
48.02
311
56.81
316
Venustwo views45.52
312
56.99
312
36.84
314
70.77
313
61.58
311
72.65
317
72.88
310
44.15
313
50.34
315
32.51
310
26.24
308
68.22
313
50.98
312
91.91
308
34.40
310
19.25
313
31.26
309
14.25
304
53.00
305
37.84
316
18.64
300
12.91
293
45.23
297
27.94
311
54.23
319
39.08
313
48.02
311
56.81
316
notakertwo views50.99
314
64.58
317
35.58
313
71.22
315
67.03
316
71.52
316
79.74
316
46.10
315
64.92
319
43.57
317
60.04
319
61.27
307
52.88
315
94.30
315
52.11
318
32.30
316
36.01
315
25.62
314
66.68
319
41.75
318
26.51
313
26.69
317
69.04
318
40.16
317
27.04
291
32.57
309
39.45
302
47.99
306
UNDER WATERtwo views53.46
315
66.50
318
44.48
317
77.89
321
68.28
317
75.27
320
86.28
323
62.01
320
51.94
317
41.57
315
48.61
316
74.76
319
58.64
320
94.91
317
40.27
315
19.59
315
35.94
314
25.36
313
57.83
312
30.24
313
22.42
310
21.82
308
69.76
320
49.60
321
53.54
318
52.17
318
44.57
309
69.15
322
ktntwo views53.49
316
64.55
316
32.09
310
67.37
308
73.02
322
67.18
312
79.08
315
39.47
311
71.03
321
45.61
319
66.57
321
53.73
303
46.66
304
95.58
323
51.51
317
35.27
317
42.24
319
32.53
318
61.67
315
36.66
315
34.35
319
37.51
320
63.57
315
39.21
315
45.92
313
42.82
317
58.10
319
61.01
318
UNDER WATER-64two views54.23
317
63.34
314
46.02
319
79.36
322
71.42
320
76.64
321
88.13
324
66.12
321
46.96
312
52.07
320
60.69
320
73.21
317
59.22
321
94.98
320
35.82
312
18.58
311
36.56
316
27.05
316
54.96
310
27.40
310
22.29
309
24.45
312
75.67
323
44.51
318
51.17
317
56.84
320
41.43
304
69.34
323
KSHMRtwo views57.18
318
74.32
323
54.88
321
81.85
323
71.02
319
78.52
322
83.49
319
67.32
323
55.52
318
57.05
321
55.43
318
62.46
309
47.47
307
94.95
319
62.89
320
43.86
319
41.02
318
36.71
319
65.14
318
47.71
319
30.88
315
22.80
310
66.24
317
55.80
323
49.31
315
33.72
311
50.52
314
52.93
311
DPSimNet_ROBtwo views59.87
319
56.83
311
60.12
322
63.44
302
74.40
323
61.08
299
66.03
301
29.26
309
91.88
325
80.83
323
53.70
317
74.56
318
48.76
308
90.67
305
61.12
319
47.44
320
55.65
321
43.29
320
68.79
320
60.06
322
52.83
322
61.42
322
45.69
299
46.03
319
46.40
314
63.34
321
56.49
318
56.41
314
LRCNet_RVCtwo views60.98
320
74.62
324
47.06
320
94.31
324
95.29
325
91.20
325
85.70
322
54.57
318
35.63
302
98.62
325
74.21
323
91.97
326
68.08
323
96.82
325
39.31
314
18.45
310
70.27
323
52.85
322
94.58
325
64.63
323
32.99
318
24.53
313
94.81
325
53.78
322
19.71
284
12.68
266
33.49
295
26.36
281
HanzoNettwo views61.45
321
69.33
319
44.96
318
71.45
316
72.16
321
72.71
319
79.94
317
60.19
319
75.71
322
45.02
318
73.92
322
75.04
320
64.67
322
96.72
324
48.25
316
40.02
318
53.74
320
47.73
321
76.16
321
51.62
320
46.98
321
46.48
321
73.13
321
39.85
316
55.14
321
52.31
319
60.69
320
65.16
321
JetRedtwo views63.04
322
70.59
320
68.87
323
66.96
306
63.46
313
70.43
315
74.93
312
66.45
322
66.78
320
41.63
316
39.08
314
81.30
323
13.47
264
63.11
296
65.97
321
66.70
321
65.90
322
75.66
325
63.14
316
54.09
321
78.41
323
73.67
323
73.25
322
49.49
320
56.43
322
64.32
322
66.29
322
61.81
319
MADNet++two views76.55
323
72.12
321
82.72
325
61.81
299
81.28
324
58.20
296
69.82
306
68.60
324
78.83
323
85.65
324
92.58
325
79.76
321
85.27
324
36.74
294
81.31
324
89.87
324
87.51
325
69.64
323
82.22
323
90.64
325
91.37
325
93.20
326
65.06
316
90.12
325
59.87
323
75.77
323
74.46
323
62.48
320
ASD4two views81.93
324
73.21
322
76.95
324
73.65
317
68.72
318
82.82
324
70.01
307
72.46
325
81.37
324
64.41
322
77.66
324
50.65
300
95.44
325
68.75
298
77.39
323
87.32
323
86.80
324
89.75
326
81.77
322
89.98
324
88.86
324
88.63
325
80.66
324
86.12
324
99.17
329
99.85
328
99.79
328
99.90
328
PMLtwo views96.12
325
100.00
329
83.16
326
100.00
326
100.00
327
100.00
329
99.20
328
100.00
330
99.01
327
100.00
328
96.16
326
99.92
330
100.00
330
98.52
326
94.60
325
91.70
325
91.21
326
74.14
324
100.00
330
98.06
327
92.87
326
86.59
324
97.59
326
98.11
327
94.46
328
99.98
329
100.00
329
99.92
329
MEDIAN_ROBtwo views97.62
326
99.11
326
98.47
327
100.00
326
99.99
326
100.00
329
100.00
329
99.48
328
98.33
326
100.00
328
99.95
329
98.03
327
96.13
326
99.95
327
99.43
327
98.46
326
98.58
327
98.67
327
99.88
328
97.97
326
93.64
327
96.55
328
100.00
328
97.27
326
87.22
325
92.69
325
89.89
325
95.94
326
AVERAGE_ROBtwo views98.96
327
100.00
329
99.80
329
100.00
326
100.00
327
100.00
329
100.00
329
100.00
330
100.00
329
100.00
328
100.00
331
100.00
331
100.00
330
100.00
328
99.80
329
99.85
328
100.00
331
100.00
331
100.00
330
100.00
331
98.20
329
99.54
329
100.00
328
100.00
329
93.40
327
93.83
326
94.40
327
93.22
325
HaxPigtwo views99.00
328
100.00
329
98.99
328
100.00
326
100.00
327
99.99
328
100.00
329
99.99
329
99.89
328
100.00
328
99.98
330
100.00
331
99.94
329
100.00
328
99.61
328
99.46
327
99.97
330
99.58
328
99.99
329
99.99
328
97.37
328
96.43
327
99.99
327
99.98
328
89.52
326
99.53
327
94.23
326
98.48
327
DGTPSM_ROBtwo views99.53
329
99.77
327
100.00
330
100.00
326
100.00
327
100.00
329
100.00
329
99.19
326
100.00
329
99.32
326
99.66
328
91.63
324
99.15
327
100.00
328
99.94
330
100.00
329
99.82
328
99.99
329
99.51
326
99.99
328
99.77
330
99.66
330
100.00
328
100.00
329
100.00
330
100.00
330
100.00
329
100.00
330
DPSMNet_ROBtwo views99.54
330
99.78
328
100.00
330
100.00
326
100.00
327
100.00
329
100.00
329
99.19
326
100.00
329
99.32
326
99.65
327
91.68
325
99.16
328
100.00
328
99.94
330
100.00
329
99.83
329
99.99
329
99.59
327
99.99
328
99.77
330
99.66
330
100.00
328
100.00
329
100.00
330
100.00
330
100.00
329
100.00
330
DPSM_ROBtwo views99.91
331
100.00
329
100.00
330
100.00
326
100.00
327
98.90
326
98.96
326
100.00
330
100.00
329
100.00
328
100.00
331
99.76
328
100.00
330
100.00
328
100.00
332
100.00
329
100.00
331
100.00
331
100.00
330
100.00
331
100.00
332
100.00
332
100.00
328
100.00
329
100.00
330
100.00
330
100.00
329
100.00
330
DPSMtwo views99.91
331
100.00
329
100.00
330
100.00
326
100.00
327
98.90
326
98.96
326
100.00
330
100.00
329
100.00
328
100.00
331
99.76
328
100.00
330
100.00
328
100.00
332
100.00
329
100.00
331
100.00
331
100.00
330
100.00
331
100.00
332
100.00
332
100.00
328
100.00
329
100.00
330
100.00
330
100.00
329
100.00
330
CasAABBNettwo views100.00
333
100.00
329
100.00
330
100.00
326
100.00
327
100.00
329
100.00
329
100.00
330
100.00
329
100.00
328
100.00
331
100.00
331
100.00
330
100.00
328
100.00
332
100.00
329
100.00
331
100.00
331
100.00
330
100.00
331
100.00
332
100.00
332
100.00
328
100.00
329
100.00
330
100.00
330
100.00
329
100.00
330
FADEtwo views14.85
280
17.50
297
14.80
271
17.47
282
30.08
285
27.73
288
21.58
297
43.85
309
17.74
302
27.42
310
47.38
306
13.14
290
21.07
300
12.04
301
34.32
313
23.23
312
59.34
314
35.12
314
37.77
320
35.26
319
13.16
289
25.00
307
20.45
288
13.86
271
47.51
310
56.53
315