This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort by
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
20
0.09
10
0.17
18
0.06
1
0.05
4
0.16
3
0.18
4
0.22
9
0.19
14
0.22
14
0.12
5
0.23
12
0.11
1
0.06
3
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
CoSvtwo views0.13
5
0.17
21
0.08
4
0.08
8
0.07
7
0.17
35
0.07
20
0.15
16
0.10
14
0.13
12
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
7
0.21
7
0.12
2
0.22
14
0.12
5
0.20
6
0.11
1
0.06
3
0.07
4
0.22
23
0.15
10
0.19
5
0.11
1
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
27
0.13
9
0.06
2
0.11
6
0.09
10
0.10
2
0.07
7
0.06
9
0.16
3
0.16
2
0.19
2
0.11
1
0.18
3
0.09
1
0.17
1
0.11
1
0.08
13
0.07
4
0.14
2
0.12
2
0.24
15
0.12
5
ProNettwo views0.14
11
0.13
11
0.14
28
0.11
17
0.07
7
0.14
24
0.12
47
0.13
9
0.06
2
0.08
2
0.24
55
0.09
1
0.06
1
0.07
13
0.22
18
0.21
10
0.22
9
0.18
10
0.19
6
0.14
12
0.20
6
0.11
1
0.12
36
0.11
23
0.16
8
0.13
5
0.17
4
0.12
5
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
15
0.07
5
0.16
11
0.06
1
0.05
4
0.17
5
0.18
4
0.22
9
0.19
14
0.19
6
0.12
5
0.21
9
0.12
5
0.06
3
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
9
0.12
23
0.11
6
0.14
17
0.16
11
0.07
7
0.06
9
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
1
0.13
6
0.06
3
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
16
0.11
16
0.16
20
0.07
5
0.15
9
0.06
1
0.07
13
0.17
5
0.18
4
0.23
15
0.17
9
0.22
14
0.14
12
0.20
6
0.14
7
0.08
13
0.08
7
0.16
8
0.13
5
0.25
17
0.15
12
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
18
0.04
1
0.17
23
0.13
27
0.15
15
0.16
25
0.19
23
0.08
13
0.09
25
0.18
9
0.22
13
0.19
2
0.16
6
0.15
1
0.14
12
0.17
1
0.14
7
0.08
13
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
14
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
22
0.26
22
0.20
4
0.18
10
0.20
9
0.11
2
0.24
17
0.15
9
0.05
1
0.06
1
0.22
23
0.20
21
0.23
12
0.15
12
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
GREAT-IGEVtwo views0.15
14
0.15
16
0.11
18
0.08
8
0.06
4
0.08
7
0.05
6
0.16
21
0.10
14
0.12
9
0.13
15
0.25
29
0.09
18
0.08
20
0.22
18
0.25
18
0.24
19
0.16
6
0.23
18
0.13
9
0.18
4
0.16
10
0.09
22
0.10
17
0.15
4
0.16
11
0.31
28
0.13
9
CroCo-Stereo Lap2two views0.14
11
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
5
0.06
2
0.22
34
0.07
5
0.16
11
0.07
7
0.04
1
0.20
13
0.26
22
0.22
9
0.19
14
0.26
24
0.11
2
0.28
26
0.16
10
0.06
3
0.08
7
0.22
23
0.23
34
0.20
7
0.16
17
MLG-Stereo_test2two views0.16
20
0.12
10
0.10
15
0.10
14
0.08
14
0.09
11
0.05
6
0.18
25
0.11
16
0.20
28
0.07
5
0.23
27
0.08
13
0.08
20
0.19
10
0.23
16
0.30
28
0.25
30
0.31
30
0.18
23
0.28
26
0.17
12
0.09
22
0.08
7
0.20
18
0.16
11
0.29
24
0.21
27
MoCha-V2two views0.14
11
0.15
16
0.11
18
0.12
19
0.09
17
0.11
18
0.09
34
0.13
9
0.08
7
0.13
12
0.18
30
0.17
18
0.07
7
0.07
13
0.17
5
0.23
16
0.20
4
0.20
17
0.25
22
0.14
12
0.29
30
0.17
12
0.08
13
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
StereoVisiontwo views0.18
25
0.13
11
0.11
18
0.09
12
0.14
33
0.16
30
0.08
27
0.17
23
0.17
34
0.15
15
0.15
20
0.16
11
0.10
23
0.06
9
0.25
24
0.26
22
0.27
25
0.22
24
0.22
14
0.16
18
0.23
12
0.17
12
0.06
3
0.13
28
0.28
36
0.29
49
0.38
42
0.28
39
RAFTtwo views0.17
22
0.13
11
0.10
15
0.16
31
0.07
7
0.21
49
0.05
6
0.25
32
0.12
23
0.14
14
0.15
20
0.16
11
0.10
23
0.05
4
0.21
16
0.20
7
0.23
15
0.15
4
0.28
26
0.13
9
0.21
9
0.17
12
0.07
10
0.10
17
0.26
27
0.24
37
0.33
30
0.23
30
111111two views0.13
5
0.16
18
0.08
4
0.12
19
0.10
20
0.07
3
0.06
15
0.12
5
0.12
23
0.07
1
0.10
13
0.15
9
0.09
18
0.05
4
0.19
10
0.21
10
0.22
9
0.18
10
0.19
6
0.13
9
0.23
12
0.18
16
0.10
28
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
26
0.14
30
0.15
15
0.06
3
0.13
6
0.06
1
0.07
13
0.15
1
0.15
1
0.23
15
0.15
4
0.21
11
0.12
5
0.18
4
0.18
16
0.08
13
0.08
7
0.15
4
0.11
1
0.28
22
0.15
12
RAStereotwo views0.19
27
0.16
18
0.10
15
0.08
8
0.07
7
0.09
11
0.06
15
0.21
28
0.09
10
0.45
68
0.09
10
0.26
30
0.08
13
0.07
13
0.25
24
0.26
22
0.28
27
0.25
30
0.33
34
0.15
17
0.35
38
0.18
16
0.08
13
0.10
17
0.28
36
0.23
34
0.25
17
0.24
33
RSMtwo views0.15
14
0.16
18
0.12
22
0.14
25
0.09
17
0.14
24
0.06
15
0.10
1
0.08
7
0.09
3
0.15
20
0.14
8
0.10
23
0.07
13
0.22
18
0.25
18
0.21
7
0.20
17
0.18
3
0.17
20
0.25
18
0.18
16
0.08
13
0.10
17
0.16
8
0.16
11
0.27
21
0.15
12
Occ-Gtwo views0.18
25
0.26
39
0.15
31
0.17
37
0.14
33
0.15
28
0.07
20
0.12
5
0.11
16
0.11
6
0.22
47
0.20
25
0.09
18
0.10
28
0.28
34
0.28
29
0.25
20
0.22
24
0.29
28
0.19
30
0.26
20
0.19
20
0.10
28
0.15
34
0.19
17
0.18
17
0.29
24
0.17
19
Utwo views0.15
14
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
21
0.06
2
0.15
15
0.04
2
0.17
18
0.07
7
0.05
4
0.22
18
0.28
29
0.26
24
0.23
27
0.27
25
0.17
20
0.28
26
0.19
20
0.06
3
0.08
7
0.26
27
0.23
34
0.23
12
0.20
25
TDLMtwo views0.24
31
0.29
45
0.22
74
0.22
51
0.27
98
0.23
67
0.18
87
0.26
34
0.19
43
0.18
26
0.38
101
0.29
34
0.21
68
0.15
47
0.24
22
0.28
29
0.32
30
0.28
37
0.25
22
0.21
39
0.28
26
0.19
20
0.16
58
0.21
57
0.24
26
0.20
21
0.28
22
0.25
34
LG-Stereotwo views0.15
14
0.11
8
0.08
4
0.09
12
0.11
24
0.11
18
0.05
6
0.15
16
0.11
16
0.19
27
0.12
14
0.26
30
0.09
18
0.06
9
0.19
10
0.20
7
0.23
15
0.16
6
0.18
3
0.14
12
0.23
12
0.20
23
0.05
1
0.08
7
0.17
13
0.18
17
0.24
15
0.15
12
GIP-stereotwo views0.17
22
0.21
29
0.13
25
0.15
27
0.09
17
0.09
11
0.07
20
0.12
5
0.09
10
0.16
20
0.13
15
0.16
11
0.08
13
0.15
47
0.27
30
0.25
18
0.25
20
0.21
22
0.24
20
0.19
30
0.27
22
0.20
23
0.07
10
0.11
23
0.20
18
0.22
28
0.35
37
0.17
19
AIO-Stereopermissivetwo views0.15
14
0.17
21
0.12
22
0.17
37
0.10
20
0.12
21
0.06
15
0.11
2
0.08
7
0.10
4
0.14
17
0.12
4
0.09
18
0.08
20
0.20
13
0.21
10
0.20
4
0.20
17
0.21
11
0.17
20
0.23
12
0.20
23
0.07
10
0.11
23
0.17
13
0.16
11
0.23
12
0.12
5
delettwo views0.24
31
0.25
37
0.22
74
0.24
68
0.20
57
0.28
88
0.16
79
0.21
28
0.18
38
0.23
36
0.26
60
0.26
30
0.15
41
0.25
130
0.32
48
0.28
29
0.31
29
0.27
34
0.24
20
0.24
51
0.31
31
0.20
23
0.16
58
0.19
50
0.28
36
0.25
41
0.32
29
0.31
45
MM-Stereo_test2two views0.15
14
0.19
25
0.11
18
0.16
31
0.11
24
0.08
7
0.05
6
0.14
14
0.11
16
0.20
28
0.08
9
0.12
4
0.08
13
0.09
25
0.20
13
0.22
13
0.25
20
0.20
17
0.20
9
0.18
23
0.25
18
0.21
27
0.10
28
0.10
17
0.16
8
0.16
11
0.21
9
0.16
17
DEFOM-Stereotwo views0.21
29
0.19
25
0.12
22
0.18
41
0.13
26
0.20
47
0.08
27
0.19
26
0.14
30
0.16
20
0.23
50
0.21
26
0.10
23
0.12
36
0.27
30
0.29
34
0.34
37
0.28
37
0.32
31
0.22
42
0.32
32
0.21
27
0.12
36
0.11
23
0.26
27
0.22
28
0.47
57
0.29
41
RSM++two views0.17
22
0.18
24
0.13
25
0.17
37
0.10
20
0.14
24
0.07
20
0.13
9
0.13
27
0.12
9
0.14
17
0.17
18
0.11
27
0.08
20
0.25
24
0.27
28
0.25
20
0.21
22
0.23
18
0.18
23
0.26
20
0.21
27
0.08
13
0.10
17
0.20
18
0.18
17
0.29
24
0.18
22
RAFT + AFFtwo views0.27
41
0.26
39
0.17
39
0.21
48
0.13
26
0.19
44
0.13
51
0.41
51
0.18
38
0.44
66
0.19
34
0.42
69
0.14
35
0.09
25
0.86
186
0.29
34
0.41
59
0.20
17
0.55
88
0.23
47
0.47
81
0.21
27
0.12
36
0.15
34
0.28
36
0.20
21
0.21
9
0.17
19
MMNettwo views0.29
50
0.29
45
0.22
74
0.26
78
0.26
88
0.26
76
0.18
87
0.33
41
0.23
58
0.24
37
0.28
66
0.35
44
0.15
41
0.32
174
0.39
58
0.31
42
0.36
43
0.34
62
0.41
47
0.27
67
0.32
32
0.21
27
0.17
73
0.23
82
0.32
60
0.30
52
0.46
55
0.32
48
RYNettwo views0.27
41
0.23
32
0.18
44
0.15
27
0.17
45
0.19
44
0.13
51
0.25
32
0.31
128
0.17
25
0.20
39
0.19
23
0.14
35
0.13
39
0.80
168
0.28
29
0.27
25
0.41
103
0.28
26
0.19
30
0.27
22
0.21
27
0.29
170
0.18
47
0.27
32
0.76
176
0.34
34
0.23
30
AEACVtwo views0.19
27
0.31
50
0.14
28
0.17
37
0.13
26
0.12
21
0.07
20
0.15
16
0.07
6
0.16
20
0.15
20
0.18
22
0.11
27
0.11
32
0.25
24
0.25
18
0.32
30
0.23
27
0.35
38
0.18
23
0.27
22
0.22
33
0.11
34
0.11
23
0.20
18
0.22
28
0.25
17
0.18
22
HCRNettwo views0.32
61
0.38
80
0.20
52
0.39
137
0.17
45
0.29
91
0.18
87
0.40
49
0.18
38
0.80
246
0.40
110
0.49
92
0.18
52
0.22
91
0.38
56
0.30
38
0.38
48
0.29
45
0.40
44
0.19
30
0.33
35
0.23
34
0.19
93
0.16
42
0.26
27
0.31
56
0.51
64
0.31
45
UniTT-Stereotwo views0.28
46
0.27
41
0.15
31
0.15
27
0.13
26
0.17
35
0.09
34
0.35
42
0.19
43
0.49
88
0.21
43
0.41
67
0.18
52
0.14
43
0.40
60
0.39
65
0.42
61
0.34
62
0.56
94
0.25
57
0.43
57
0.24
35
0.13
44
0.19
50
0.31
55
0.41
93
0.30
27
0.37
60
AFF-stereotwo views0.30
54
0.34
57
0.26
90
0.18
41
0.17
45
0.33
108
0.11
42
0.50
76
0.23
58
0.46
71
0.28
66
0.40
60
0.16
45
0.12
36
0.27
30
0.35
49
0.37
45
0.25
30
0.57
98
0.23
47
0.38
43
0.25
36
0.17
73
0.17
44
0.37
77
0.37
81
0.48
60
0.32
48
CVANet_RVCtwo views0.31
59
0.40
92
0.30
101
0.40
143
0.29
110
0.37
126
0.23
121
0.41
51
0.23
58
0.31
43
0.49
131
0.37
54
0.26
89
0.19
68
0.29
35
0.33
48
0.34
37
0.32
50
0.32
31
0.25
57
0.34
37
0.25
36
0.18
85
0.25
100
0.30
45
0.25
41
0.34
34
0.30
43
LG-G_1two views0.25
33
0.22
30
0.19
46
0.23
64
0.22
62
0.22
55
0.12
47
0.28
35
0.11
16
0.21
31
0.20
39
0.35
44
0.14
35
0.18
61
0.31
45
0.30
38
0.35
41
0.32
50
0.51
66
0.24
51
0.39
45
0.26
38
0.10
28
0.15
34
0.27
32
0.24
37
0.36
39
0.34
53
LG-Gtwo views0.25
33
0.22
30
0.19
46
0.23
64
0.22
62
0.22
55
0.12
47
0.28
35
0.11
16
0.21
31
0.20
39
0.35
44
0.14
35
0.18
61
0.31
45
0.30
38
0.35
41
0.32
50
0.51
66
0.24
51
0.39
45
0.26
38
0.10
28
0.15
34
0.27
32
0.24
37
0.36
39
0.34
53
MaDis-Stereotwo views0.26
37
0.20
28
0.16
34
0.10
14
0.10
20
0.10
16
0.08
27
0.24
31
0.14
30
0.36
48
0.16
25
0.36
52
0.12
31
0.08
20
0.33
49
0.35
49
0.39
53
0.35
71
0.53
79
0.20
36
0.40
47
0.26
38
0.13
44
0.15
34
0.39
84
0.39
88
0.40
48
0.49
90
IGEV-Stereo++two views0.16
20
0.24
34
0.09
14
0.13
21
0.13
26
0.10
16
0.05
6
0.15
16
0.13
27
0.12
9
0.16
25
0.16
11
0.11
27
0.07
13
0.21
16
0.22
13
0.22
9
0.18
10
0.21
11
0.16
18
0.22
11
0.27
41
0.09
22
0.08
7
0.17
13
0.18
17
0.25
17
0.18
22
DMCAtwo views0.32
61
0.31
50
0.30
101
0.24
68
0.25
78
0.27
81
0.22
111
0.36
43
0.33
141
0.31
43
0.40
110
0.40
60
0.23
78
0.25
130
0.41
66
0.37
58
0.40
56
0.39
86
0.36
39
0.28
70
0.41
49
0.27
41
0.25
151
0.25
100
0.31
55
0.35
70
0.39
44
0.37
60
AANet_RVCtwo views0.28
46
0.27
41
0.23
79
0.19
43
0.28
103
0.16
30
0.16
79
0.29
38
0.30
111
0.20
28
0.27
63
0.24
28
0.21
68
0.19
68
0.45
76
0.36
55
0.33
33
0.34
62
0.29
28
0.29
74
0.27
22
0.27
41
0.22
130
0.21
57
0.34
65
0.33
65
0.42
50
0.52
102
AASNettwo views0.28
46
0.34
57
0.22
74
0.25
74
0.26
88
0.34
115
0.25
129
0.32
40
0.17
34
0.29
40
0.36
92
0.26
30
0.18
52
0.24
114
0.36
53
0.31
42
0.34
37
0.32
50
0.32
31
0.28
70
0.35
38
0.28
44
0.17
73
0.22
70
0.30
45
0.28
47
0.35
37
0.25
34
DFGA-Nettwo views0.28
46
0.37
72
0.16
34
0.26
78
0.15
38
0.22
55
0.15
70
0.40
49
0.21
50
0.41
55
0.24
55
0.31
37
0.17
48
0.13
39
0.42
72
0.39
65
0.38
48
0.30
47
0.42
50
0.21
39
0.36
42
0.29
45
0.13
44
0.21
57
0.31
55
0.27
44
0.51
64
0.28
39
GANettwo views0.32
61
0.29
45
0.27
92
0.34
115
0.33
127
0.38
131
0.29
147
0.44
60
0.24
68
0.35
47
0.30
74
0.46
83
0.22
72
0.21
85
0.31
45
0.32
45
0.40
56
0.43
116
0.33
34
0.22
42
0.33
35
0.29
45
0.22
130
0.24
91
0.31
55
0.27
44
0.42
50
0.34
53
PS-NSSStwo views0.60
163
0.81
242
0.44
170
0.89
238
0.54
200
0.71
222
0.63
221
0.64
155
0.38
170
0.64
184
0.41
112
1.52
244
0.47
196
0.41
199
0.59
108
0.42
77
0.52
109
0.45
131
0.94
171
0.42
150
0.44
63
0.29
45
0.36
192
0.34
159
0.63
165
0.69
158
0.70
135
0.80
175
CFNettwo views0.45
110
0.44
112
0.33
111
0.48
168
0.40
164
0.39
133
0.30
154
0.53
84
0.32
136
0.48
79
0.50
136
0.68
152
0.40
177
0.30
160
0.56
97
0.37
58
0.48
86
0.43
116
0.52
71
0.33
89
0.46
74
0.30
48
0.23
140
0.31
136
0.61
156
0.52
132
0.69
130
0.71
160
anonymousdsptwo views0.25
33
0.23
32
0.19
46
0.16
31
0.14
33
0.18
39
0.10
39
0.37
46
0.19
43
0.32
45
0.22
47
0.32
38
0.12
31
0.14
43
0.29
35
0.32
45
0.32
30
0.28
37
0.39
42
0.22
42
0.46
74
0.31
49
0.12
36
0.15
34
0.26
27
0.20
21
0.52
75
0.20
25
ARAFTtwo views0.34
67
0.38
80
0.23
79
0.26
78
0.21
60
0.27
81
0.14
64
0.44
60
0.24
68
0.50
90
0.30
74
0.41
67
0.16
45
0.15
47
0.67
141
0.42
77
0.50
94
0.47
148
0.51
66
0.23
47
0.53
117
0.32
50
0.16
58
0.19
50
0.43
93
0.30
52
0.52
75
0.37
60
YMNettwo views0.30
54
0.31
50
0.23
79
0.27
83
0.23
68
0.26
76
0.25
129
0.36
43
0.37
165
0.25
38
0.19
34
0.40
60
0.27
96
0.29
157
0.38
56
0.47
120
0.37
45
0.28
37
0.43
52
0.19
30
0.35
38
0.33
51
0.16
58
0.19
50
0.36
75
0.29
49
0.39
44
0.35
56
RAFT-Stereo + iAFFtwo views0.35
70
0.41
96
0.32
108
0.24
68
0.19
52
0.28
88
0.13
51
0.58
107
0.24
68
0.46
71
0.35
91
0.49
92
0.19
57
0.15
47
0.34
52
0.35
49
0.41
59
0.28
37
0.65
121
0.28
70
0.44
63
0.33
51
0.19
93
0.22
70
0.51
121
0.37
81
0.58
93
0.44
81
GMStereopermissivetwo views0.41
84
0.48
151
0.25
87
0.32
107
0.32
126
0.37
126
0.28
140
0.59
114
0.30
111
0.45
68
0.36
92
0.61
134
0.31
125
0.24
114
0.45
76
0.41
73
0.54
120
0.35
71
0.73
140
0.39
136
0.51
100
0.33
51
0.23
140
0.28
115
0.48
106
0.36
73
0.68
127
0.41
72
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
plaintwo views0.31
59
0.43
107
0.20
52
0.20
47
0.16
43
0.20
47
0.10
39
0.41
51
0.18
38
0.48
79
0.19
34
0.34
43
0.17
48
0.10
28
0.41
66
0.44
89
0.45
66
0.40
98
0.55
88
0.24
51
0.41
49
0.34
54
0.14
52
0.21
57
0.32
60
0.33
65
0.39
44
0.48
88
UPFNettwo views0.38
74
0.34
57
0.34
117
0.32
107
0.33
127
0.39
133
0.29
147
0.47
71
0.33
141
0.43
59
0.41
112
0.40
60
0.30
113
0.34
179
0.61
118
0.40
69
0.46
71
0.41
103
0.52
71
0.35
112
0.35
38
0.34
54
0.25
151
0.27
109
0.38
81
0.35
70
0.55
81
0.37
60
LG-Stereo_L2two views0.26
37
0.31
50
0.17
39
0.13
21
0.13
26
0.14
24
0.07
20
0.42
55
0.20
46
0.48
79
0.22
47
0.40
60
0.14
35
0.17
58
0.30
41
0.37
58
0.39
53
0.28
37
0.40
44
0.19
30
0.45
67
0.35
56
0.09
22
0.14
31
0.30
45
0.22
28
0.33
30
0.33
51
LG-Stereo_L1two views0.27
41
0.30
49
0.17
39
0.13
21
0.13
26
0.15
28
0.08
27
0.42
55
0.21
50
0.49
88
0.20
39
0.39
59
0.15
41
0.15
47
0.30
41
0.38
61
0.39
53
0.29
45
0.40
44
0.18
23
0.47
81
0.35
56
0.08
13
0.14
31
0.30
45
0.21
26
0.37
41
0.36
59
MIF-Stereo (partial)two views0.30
54
0.44
112
0.18
44
0.16
31
0.16
43
0.21
49
0.11
42
0.37
46
0.22
53
0.37
51
0.24
55
0.32
38
0.17
48
0.13
39
0.39
58
0.45
100
0.46
71
0.38
84
0.42
50
0.25
57
0.43
57
0.35
56
0.18
85
0.21
57
0.35
74
0.32
61
0.50
63
0.44
81
test_5two views0.29
50
0.39
85
0.16
34
0.22
51
0.15
38
0.21
49
0.13
51
0.54
88
0.20
46
0.38
53
0.19
34
0.44
77
0.34
152
0.10
28
0.43
74
0.38
61
0.33
33
0.32
50
0.33
34
0.20
36
0.32
32
0.35
56
0.09
22
0.21
57
0.28
36
0.30
52
0.51
64
0.32
48
SGD-Stereotwo views0.29
50
0.24
34
0.17
39
0.16
31
0.15
38
0.22
55
0.08
27
0.29
38
0.22
53
0.29
40
0.15
20
0.45
81
0.20
60
0.10
28
0.71
155
0.45
100
0.46
71
0.27
34
0.47
56
0.22
42
0.41
49
0.36
60
0.19
93
0.19
50
0.28
36
0.32
61
0.46
55
0.40
70
MIM_Stereotwo views0.32
61
0.40
92
0.25
87
0.28
86
0.20
57
0.27
81
0.14
64
0.45
66
0.18
38
0.48
79
0.25
58
0.42
69
0.18
52
0.16
54
0.36
53
0.42
77
0.44
63
0.36
75
0.47
56
0.28
70
0.47
81
0.36
60
0.12
36
0.23
82
0.29
44
0.27
44
0.47
57
0.33
51
LL-Strereo2two views0.34
67
0.29
45
0.21
65
0.24
68
0.19
52
0.17
35
0.13
51
0.63
148
0.26
84
0.58
146
0.23
50
0.44
77
0.22
72
0.14
43
0.41
66
0.41
73
0.47
81
0.35
71
0.73
140
0.31
83
0.47
81
0.36
60
0.21
118
0.20
55
0.32
60
0.34
69
0.51
64
0.35
56
IERtwo views0.41
84
0.37
72
0.31
105
0.30
99
0.28
103
0.35
121
0.24
124
0.47
71
0.28
96
0.44
66
0.59
162
0.77
180
0.29
103
0.35
185
0.63
126
0.42
77
0.47
81
0.42
111
0.44
53
0.34
95
0.42
55
0.36
60
0.28
165
0.26
106
0.40
88
0.47
114
0.52
75
0.52
102
iResNet_ROBtwo views0.50
125
0.49
154
0.42
157
0.42
152
0.30
117
0.42
147
0.32
156
0.60
120
0.33
141
0.52
102
0.59
162
0.47
86
0.56
213
0.25
130
0.81
171
0.46
109
0.57
143
0.49
160
1.19
189
0.36
114
0.48
87
0.36
60
0.25
151
0.37
175
0.57
141
0.54
137
0.75
147
0.61
131
FINETtwo views0.40
80
0.38
80
0.39
140
0.43
157
0.30
117
0.34
115
0.35
162
0.44
60
0.36
156
0.47
74
0.32
79
0.47
86
0.30
113
0.28
150
0.66
136
0.50
137
0.48
86
0.36
75
0.60
110
0.33
89
0.46
74
0.37
65
0.30
173
0.30
128
0.43
93
0.35
70
0.56
83
0.42
77
S2M2two views0.40
80
0.42
103
0.41
154
0.24
68
0.27
98
0.35
121
0.22
111
0.51
78
0.24
68
0.61
161
0.23
50
0.43
74
0.21
68
0.31
167
0.59
108
0.49
133
0.55
128
0.36
75
0.53
79
0.34
95
0.55
122
0.38
66
0.28
165
0.27
109
0.42
91
0.43
96
0.63
110
0.66
144
iRaftStereo_RVCtwo views0.26
37
0.27
41
0.16
34
0.13
21
0.14
33
0.18
39
0.09
34
0.44
60
0.14
30
0.36
48
0.36
92
0.32
38
0.16
45
0.13
39
0.29
35
0.29
34
0.38
48
0.28
37
0.34
37
0.22
42
0.41
49
0.38
66
0.12
36
0.17
44
0.27
32
0.29
49
0.42
50
0.27
37
raft+_RVCtwo views0.35
70
0.34
57
0.26
90
0.25
74
0.23
68
0.25
74
0.18
87
0.54
88
0.26
84
0.52
102
0.43
115
0.46
83
0.23
78
0.18
61
0.42
72
0.38
61
0.43
62
0.34
62
0.61
114
0.26
64
0.43
57
0.38
66
0.13
44
0.20
55
0.39
84
0.39
88
0.58
93
0.42
77
HITNettwo views0.38
74
0.37
72
0.28
94
0.34
115
0.29
110
0.26
76
0.19
98
0.58
107
0.32
136
0.57
134
0.45
121
0.55
115
0.30
113
0.22
91
0.51
90
0.35
49
0.44
63
0.39
86
0.41
47
0.29
74
0.41
49
0.38
66
0.20
109
0.25
100
0.39
84
0.37
81
0.70
135
0.52
102
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
NVstereo2Dtwo views0.55
142
0.47
139
0.40
145
0.52
182
0.48
188
0.66
214
0.64
223
0.60
120
0.38
170
0.48
79
0.61
171
0.53
107
0.30
113
0.63
254
1.53
256
0.61
182
0.58
147
0.55
196
0.53
79
0.41
144
0.50
95
0.38
66
0.54
241
0.43
191
0.64
168
0.48
119
0.56
83
0.53
106
DN-CSS_ROBtwo views0.52
132
0.43
107
0.46
175
0.41
148
0.40
164
0.34
115
0.22
111
0.69
183
0.34
146
0.59
151
0.79
215
0.66
148
0.47
196
0.24
114
0.63
126
0.40
69
0.58
147
0.43
116
1.74
212
0.38
124
0.63
152
0.38
66
0.31
178
0.47
207
0.53
128
0.43
96
0.66
124
0.54
113
coex_refinementtwo views0.45
110
0.43
107
0.33
111
0.35
125
0.35
140
0.44
153
0.22
111
0.55
95
0.50
199
0.50
90
0.60
164
0.54
109
0.27
96
0.28
150
0.58
104
0.45
100
0.50
94
0.44
121
0.54
85
0.33
89
0.45
67
0.39
72
0.28
165
0.31
136
0.52
125
0.53
134
0.67
125
0.78
174
G2L-Stereotwo views0.42
89
0.39
85
0.28
94
0.35
125
0.40
164
0.34
115
0.22
111
0.54
88
0.34
146
0.52
102
0.61
171
0.50
98
0.38
171
0.26
140
0.61
118
0.44
89
0.50
94
0.40
98
0.46
55
0.33
89
0.43
57
0.39
72
0.28
165
0.27
109
0.49
114
0.54
137
0.69
130
0.49
90
CASnettwo views0.40
80
0.52
183
0.23
79
0.27
83
0.27
98
0.30
97
0.14
64
0.62
134
0.29
103
0.61
161
0.44
118
0.64
144
0.28
101
0.23
103
0.55
95
0.36
55
0.45
66
0.31
49
0.73
140
0.27
67
0.63
152
0.39
72
0.21
118
0.24
91
0.42
91
0.32
61
0.61
104
0.56
117
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
PMTNettwo views0.48
121
0.48
151
0.43
162
0.31
105
0.30
117
0.27
81
0.22
111
0.54
88
0.29
103
0.57
134
0.39
107
0.59
129
0.23
78
0.23
103
0.64
132
0.59
177
0.57
143
0.37
80
1.17
188
0.33
89
0.67
167
0.40
75
0.20
109
0.21
57
0.79
208
0.59
146
0.65
118
0.92
189
STTStereotwo views0.53
135
0.56
197
0.54
198
0.44
162
0.52
196
0.43
150
0.59
208
0.52
80
0.46
195
0.47
74
0.55
157
0.71
160
0.42
181
0.56
241
0.87
192
0.44
89
0.49
89
0.51
173
0.54
85
0.37
120
0.51
100
0.40
75
0.32
183
0.35
163
0.52
125
0.66
156
0.68
127
0.99
196
RASNettwo views0.42
89
0.45
120
0.43
162
0.33
113
0.33
127
0.37
126
0.27
135
0.58
107
0.34
146
0.47
74
0.43
115
0.49
92
0.33
140
0.25
130
0.41
66
0.41
73
0.48
86
0.39
86
0.47
56
0.30
78
0.49
91
0.40
75
0.19
93
0.44
197
0.40
88
0.46
112
0.75
147
0.63
139
MLG-Stereo_test3two views0.23
30
0.17
21
0.13
25
0.14
25
0.17
45
0.16
30
0.09
34
0.21
28
0.12
23
0.21
31
0.18
30
0.35
44
0.11
27
0.15
47
0.29
35
0.26
22
0.33
33
0.28
37
0.63
116
0.18
23
0.40
47
0.41
78
0.11
34
0.15
34
0.21
22
0.21
26
0.33
30
0.27
37
LGtest1two views0.26
37
0.19
25
0.20
52
0.16
31
0.18
49
0.16
30
0.09
34
0.28
35
0.17
34
0.22
34
0.27
63
0.29
34
0.13
34
0.14
43
0.30
41
0.31
42
0.38
48
0.33
58
0.49
61
0.25
57
0.41
49
0.41
78
0.13
44
0.16
42
0.30
45
0.24
37
0.39
44
0.31
45
MGS-Stereotwo views0.37
72
0.46
132
0.21
65
0.22
51
0.19
52
0.22
55
0.15
70
0.45
66
0.17
34
0.36
48
0.26
60
0.29
34
0.19
57
0.23
103
1.37
247
0.40
69
0.52
109
0.45
131
0.55
88
0.33
89
0.50
95
0.41
78
0.21
118
0.22
70
0.33
64
0.30
52
0.47
57
0.45
83
CAStwo views0.38
74
0.45
120
0.25
87
0.29
91
0.29
110
0.23
67
0.13
51
0.41
51
0.27
89
0.41
55
0.54
155
0.35
44
0.35
159
0.21
85
0.52
92
0.38
61
0.50
94
0.34
62
0.52
71
0.26
64
0.43
57
0.41
78
0.19
93
0.23
82
0.51
121
0.52
132
0.62
107
0.77
171
test_4two views0.34
67
0.33
54
0.27
92
0.21
48
0.18
49
0.16
30
0.11
42
0.59
114
0.26
84
0.58
146
0.25
58
0.50
98
0.20
60
0.19
68
0.33
49
0.40
69
0.45
66
0.34
62
0.41
47
0.29
74
0.45
67
0.41
78
0.16
58
0.24
91
0.38
81
0.40
92
0.59
100
0.42
77
dadtwo views0.89
217
0.57
202
0.37
129
1.42
269
0.65
220
0.75
229
2.23
282
1.43
277
0.36
156
0.93
262
0.38
101
0.85
193
0.76
232
0.32
174
0.97
214
0.52
152
0.78
225
0.45
131
1.87
219
0.41
144
0.74
184
0.41
78
0.30
173
0.47
207
1.15
261
0.47
114
2.64
296
1.96
248
RALCasStereoNettwo views0.42
89
0.50
169
0.35
119
0.35
125
0.30
117
0.31
98
0.24
124
0.60
120
0.25
74
0.56
130
0.49
131
0.58
124
0.26
89
0.18
61
0.57
100
0.46
109
0.54
120
0.49
160
0.51
66
0.34
95
0.51
100
0.41
78
0.21
118
0.31
136
0.53
128
0.49
124
0.48
60
0.58
121
DEFOM-Stereo_RVCtwo views0.33
66
0.36
70
0.20
52
0.23
64
0.20
57
0.17
35
0.10
39
0.48
73
0.23
58
0.55
121
0.32
79
0.40
60
0.19
57
0.15
47
0.48
86
0.36
55
0.47
81
0.33
58
0.51
66
0.27
67
0.50
95
0.42
85
0.16
58
0.18
47
0.30
45
0.31
56
0.48
60
0.53
106
trnettwo views0.44
105
0.51
174
0.40
145
0.34
115
0.26
88
0.27
81
0.14
64
0.62
134
0.30
111
0.60
157
0.36
92
0.73
165
0.33
140
0.24
114
0.56
97
0.57
169
0.58
147
0.34
62
0.52
71
0.31
83
0.57
137
0.42
85
0.17
73
0.30
128
0.54
132
0.48
119
0.65
118
0.69
153
CREStereo++_RVCtwo views0.43
102
0.42
103
0.39
140
0.30
99
0.33
127
0.27
81
0.19
98
0.57
103
0.31
128
0.58
146
0.36
92
0.58
124
0.56
213
0.23
103
0.48
86
0.50
137
0.61
173
0.34
62
0.52
71
0.30
78
0.56
127
0.42
85
0.16
58
0.29
120
0.49
114
0.44
100
0.79
158
0.69
153
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TestStereotwo views0.45
110
0.51
174
0.38
138
0.42
152
0.30
117
0.44
153
0.26
133
0.71
192
0.28
96
0.76
236
0.32
79
0.64
144
0.32
134
0.24
114
0.47
79
0.35
49
0.54
120
0.33
58
0.78
152
0.38
124
0.63
152
0.42
85
0.24
148
0.30
128
0.53
128
0.43
96
0.75
147
0.55
116
CFNet_pseudotwo views0.51
128
0.44
112
0.43
162
0.54
187
0.43
176
0.53
182
0.34
160
0.62
134
0.36
156
0.61
161
0.64
180
0.57
119
0.52
206
0.35
185
0.90
197
0.50
137
0.50
94
0.47
148
0.67
126
0.36
114
0.47
81
0.42
85
0.26
158
0.33
155
0.57
141
0.60
149
0.68
127
0.73
165
CREStereotwo views0.44
105
0.51
174
0.40
145
0.34
115
0.26
88
0.28
88
0.15
70
0.61
127
0.30
111
0.58
146
0.36
92
0.72
162
0.33
140
0.24
114
0.59
108
0.59
177
0.59
161
0.34
62
0.52
71
0.31
83
0.59
145
0.42
85
0.18
85
0.30
128
0.54
132
0.48
119
0.64
114
0.69
153
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
NLCA_NET_v2_RVCtwo views0.51
128
0.52
183
0.48
182
0.43
157
0.57
206
0.42
147
0.62
220
0.56
101
0.62
220
0.52
102
0.51
142
0.67
150
0.34
152
0.58
249
0.78
162
0.42
77
0.47
81
0.42
111
0.57
98
0.38
124
0.46
74
0.42
85
0.30
173
0.32
141
0.48
106
0.76
176
0.62
107
0.64
141
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
HUFtwo views0.29
50
0.34
57
0.20
52
0.22
51
0.21
60
0.19
44
0.11
42
0.51
78
0.22
53
0.42
57
0.18
30
0.35
44
0.22
72
0.19
68
0.30
41
0.32
45
0.38
48
0.26
33
0.52
71
0.25
57
0.52
110
0.43
92
0.16
58
0.18
47
0.30
45
0.22
28
0.38
42
0.29
41
ddtwo views0.50
125
0.51
174
0.28
94
0.91
241
0.31
125
0.65
211
0.29
147
0.59
114
0.23
58
0.54
114
0.30
74
0.75
169
0.27
96
0.26
140
0.84
180
0.46
109
0.70
210
0.39
86
1.05
178
0.38
124
0.48
87
0.43
92
0.23
140
0.30
128
0.53
128
0.39
88
0.74
145
0.58
121
rafts_anoytwo views0.41
84
0.51
174
0.35
119
0.29
91
0.30
117
0.33
108
0.22
111
0.59
114
0.25
74
0.51
95
0.50
136
0.48
89
0.23
78
0.17
58
0.57
100
0.46
109
0.51
105
0.50
166
0.58
102
0.34
95
0.50
95
0.43
92
0.19
93
0.28
115
0.50
118
0.47
114
0.52
75
0.53
106
HGLStereotwo views0.43
102
0.43
107
0.37
129
0.34
115
0.37
151
0.39
133
0.23
121
0.48
73
0.31
128
0.47
74
0.72
205
0.42
69
0.29
103
0.32
174
0.51
90
0.49
133
0.55
128
0.50
166
0.55
88
0.39
136
0.51
100
0.43
92
0.22
130
0.33
155
0.51
121
0.51
130
0.57
85
0.45
83
CC-Net-ROBtwo views0.96
226
1.18
272
0.70
231
1.56
273
1.06
262
1.63
277
1.20
266
0.79
222
0.61
218
0.81
248
0.56
158
3.07
271
0.57
217
0.85
272
0.68
144
0.44
89
0.71
216
0.63
220
1.40
198
0.57
195
0.58
141
0.43
92
1.91
290
0.46
204
0.83
218
0.83
191
0.77
152
1.20
219
DISCOtwo views0.45
110
0.44
112
0.29
97
0.40
143
0.38
157
0.49
169
0.43
181
0.45
66
0.43
190
0.50
90
0.57
159
0.40
60
0.29
103
0.30
160
0.61
118
0.43
84
0.55
128
0.46
142
0.69
133
0.41
144
0.48
87
0.43
92
0.26
158
0.32
141
0.47
103
0.50
128
0.62
107
0.50
99
AIO_rvctwo views0.25
33
0.34
57
0.16
34
0.19
43
0.15
38
0.18
39
0.11
42
0.39
48
0.22
53
0.30
42
0.16
25
0.32
38
0.12
31
0.18
61
0.27
30
0.26
22
0.33
33
0.22
24
0.38
41
0.20
36
0.42
55
0.44
98
0.13
44
0.14
31
0.28
36
0.22
28
0.33
30
0.21
27
ACREtwo views0.42
89
0.47
139
0.22
74
0.32
107
0.22
62
0.33
108
0.18
87
0.63
148
0.23
58
0.55
121
0.50
136
0.61
134
0.30
113
0.41
199
0.91
198
0.45
100
0.52
109
0.36
75
0.55
88
0.38
124
0.57
137
0.44
98
0.19
93
0.23
82
0.44
95
0.32
61
0.58
93
0.39
65
ADLNettwo views0.46
115
0.53
189
0.37
129
0.41
148
0.41
170
0.44
153
0.40
176
0.54
88
0.35
152
0.45
68
0.53
149
0.76
177
0.36
164
0.62
252
0.58
104
0.42
77
0.49
89
0.42
111
0.50
63
0.37
120
0.43
57
0.44
98
0.34
187
0.25
100
0.47
103
0.55
140
0.57
85
0.45
83
UNettwo views0.44
105
0.42
103
0.40
145
0.37
131
0.36
144
0.41
141
0.28
140
0.57
103
0.35
152
0.50
90
0.49
131
0.47
86
0.34
152
0.37
191
0.53
94
0.43
84
0.54
120
0.46
142
0.56
94
0.39
136
0.47
81
0.44
98
0.27
162
0.34
159
0.44
95
0.48
119
0.58
93
0.57
119
RAFT_CTSACEtwo views0.30
54
0.37
72
0.15
31
0.15
27
0.15
38
0.25
74
0.18
87
0.53
84
0.20
46
0.55
121
0.18
30
0.44
77
0.29
103
0.16
54
0.29
35
0.30
38
0.37
45
0.27
34
0.37
40
0.18
23
0.38
43
0.45
102
0.10
28
0.17
44
0.30
45
0.31
56
0.60
101
0.26
36
CIPLGtwo views0.42
89
0.47
139
0.24
85
0.32
107
0.22
62
0.32
101
0.19
98
0.63
148
0.24
68
0.55
121
0.50
136
0.60
133
0.30
113
0.41
199
0.93
203
0.44
89
0.52
109
0.37
80
0.56
94
0.38
124
0.56
127
0.45
102
0.19
93
0.24
91
0.44
95
0.31
56
0.57
85
0.38
64
psm_uptwo views0.56
149
0.51
174
0.53
195
0.56
191
0.45
179
0.58
195
0.35
162
0.71
192
0.66
225
0.55
121
0.53
149
0.59
129
0.50
201
0.40
196
0.63
126
0.50
137
0.59
161
0.49
160
0.84
160
0.46
162
0.51
100
0.45
102
0.31
178
0.51
215
0.70
178
0.78
180
0.80
159
0.67
147
AF-Nettwo views0.53
135
0.49
154
0.44
170
0.50
173
0.53
197
0.61
201
0.54
199
0.61
127
0.55
210
0.43
59
0.66
188
0.85
193
0.42
181
0.40
196
0.64
132
0.46
109
0.46
71
0.44
121
0.60
110
0.40
141
0.45
67
0.45
102
0.41
206
0.39
179
0.50
118
0.55
140
0.81
162
0.69
153
Nwc_Nettwo views0.53
135
0.49
154
0.44
170
0.50
173
0.53
197
0.61
201
0.54
199
0.61
127
0.55
210
0.43
59
0.66
188
0.85
193
0.42
181
0.40
196
0.64
132
0.46
109
0.46
71
0.44
121
0.60
110
0.40
141
0.45
67
0.45
102
0.41
206
0.39
179
0.50
118
0.55
140
0.81
162
0.69
153
AIO_testtwo views0.27
41
0.39
85
0.19
46
0.29
91
0.19
52
0.18
39
0.14
64
0.42
55
0.23
58
0.33
46
0.19
34
0.37
54
0.18
52
0.18
61
0.25
24
0.29
34
0.34
37
0.24
29
0.39
42
0.21
39
0.49
91
0.46
107
0.13
44
0.15
34
0.30
45
0.28
47
0.41
49
0.21
27
IPLGR_Ctwo views0.42
89
0.47
139
0.23
79
0.31
105
0.22
62
0.32
101
0.18
87
0.63
148
0.23
58
0.55
121
0.50
136
0.61
134
0.31
125
0.41
199
0.87
192
0.45
100
0.52
109
0.37
80
0.55
88
0.38
124
0.56
127
0.46
107
0.19
93
0.24
91
0.44
95
0.33
65
0.58
93
0.40
70
raftrobusttwo views0.43
102
0.33
54
0.36
125
0.28
86
0.28
103
0.27
81
0.18
87
0.64
155
0.25
74
0.63
177
0.53
149
0.51
103
0.25
86
0.22
91
0.63
126
0.48
126
0.51
105
0.41
103
0.96
174
0.38
124
0.53
117
0.46
107
0.20
109
0.24
91
0.57
141
0.54
137
0.54
80
0.52
102
RALAANettwo views0.41
84
0.41
96
0.37
129
0.28
86
0.28
103
0.33
108
0.24
124
0.54
88
0.27
89
0.48
79
0.48
127
0.43
74
0.25
86
0.20
79
0.57
100
0.41
73
0.49
89
0.50
166
0.71
136
0.40
141
0.52
110
0.46
107
0.21
118
0.29
120
0.46
101
0.45
105
0.70
135
0.47
86
SGM_RVCbinarytwo views2.81
282
1.46
279
0.85
245
1.76
277
1.28
272
1.68
279
1.19
265
1.56
282
1.14
264
0.82
251
1.70
270
7.09
301
2.67
281
0.42
209
0.92
201
0.57
169
0.75
222
0.57
203
11.20
300
0.66
228
0.94
213
0.46
107
0.51
234
0.84
260
1.97
289
1.64
276
5.04
313
26.13
321
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
s12784htwo views0.62
164
0.68
225
0.47
179
0.65
212
0.44
178
0.34
115
0.24
124
0.61
127
0.31
128
0.60
157
0.44
118
0.81
184
0.55
211
0.25
130
0.62
123
0.50
137
0.62
179
0.38
84
0.74
146
0.36
114
1.26
241
0.47
112
0.18
85
0.30
128
0.70
178
0.74
169
1.39
253
2.07
249
pcwnet_v2two views0.62
164
0.46
132
0.50
188
0.62
205
0.49
191
0.61
201
0.46
185
0.66
166
0.45
191
0.65
189
0.79
215
0.64
144
0.86
237
0.53
236
1.15
236
0.55
163
0.59
161
0.51
173
0.83
157
0.41
144
0.55
122
0.47
112
0.34
187
0.43
191
0.75
196
0.76
176
0.85
176
0.95
190
UCFNet_RVCtwo views0.56
149
0.78
236
0.45
174
0.59
197
0.55
203
0.52
179
0.39
174
0.58
107
0.40
175
0.59
151
0.60
164
0.82
186
0.45
191
0.32
174
0.70
151
0.42
77
0.50
94
0.50
166
0.67
126
0.45
157
0.56
127
0.47
112
0.38
199
0.41
185
0.77
203
0.71
163
0.65
118
0.86
183
SGM-ForestMtwo views2.61
276
4.20
312
0.93
251
2.78
285
1.37
277
3.57
295
2.93
289
2.59
305
1.51
280
0.70
219
1.32
256
7.25
302
5.36
293
0.47
220
0.89
195
0.53
154
0.79
229
0.54
190
7.58
284
0.60
207
0.82
194
0.47
112
0.51
234
0.80
257
4.97
309
3.66
308
7.05
317
6.30
299
iResNetv2_ROBtwo views0.52
132
0.45
120
0.32
108
0.48
168
0.39
159
0.48
167
0.28
140
0.64
155
0.34
146
0.52
102
0.66
188
0.70
158
0.55
211
0.28
150
0.67
141
0.47
120
0.50
94
0.46
142
1.12
185
0.45
157
0.57
137
0.47
112
0.29
170
0.40
182
0.55
136
0.51
130
0.81
162
0.58
121
DLCB_ROBtwo views0.53
135
0.50
169
0.48
182
0.41
148
0.45
179
0.43
150
0.39
174
0.55
95
0.45
191
0.57
134
0.61
171
0.70
158
0.52
206
0.41
199
0.60
113
0.47
120
0.57
143
0.48
153
0.52
71
0.43
154
0.55
122
0.47
112
0.38
199
0.42
188
0.96
239
0.79
184
0.70
135
0.62
135
DMCA-RVCcopylefttwo views0.44
105
0.37
72
0.35
119
0.33
113
0.37
151
0.32
101
0.41
178
0.46
69
0.52
202
0.43
59
0.48
127
0.68
152
0.33
140
0.29
157
0.65
135
0.46
109
0.47
81
0.44
121
0.49
61
0.38
124
0.49
91
0.48
118
0.29
170
0.32
141
0.38
81
0.37
81
0.57
85
0.62
135
IGEV-BASED-STEREO-two views0.30
54
0.24
34
0.17
39
0.23
64
0.19
52
0.18
39
0.08
27
0.49
75
0.25
74
0.54
114
0.21
43
0.32
38
0.17
48
0.17
58
0.29
35
0.39
65
0.45
66
0.36
75
0.50
63
0.26
64
0.56
127
0.49
119
0.13
44
0.13
28
0.31
55
0.26
43
0.45
54
0.30
43
RAFT+CT+SAtwo views0.32
61
0.46
132
0.20
52
0.26
78
0.18
49
0.22
55
0.15
70
0.58
107
0.23
58
0.52
102
0.17
29
0.46
83
0.33
140
0.12
36
0.33
49
0.43
84
0.36
43
0.30
47
0.45
54
0.23
47
0.45
67
0.49
119
0.09
22
0.22
70
0.32
60
0.31
56
0.53
79
0.35
56
CFNet_RVCtwo views0.51
128
0.51
174
0.47
179
0.50
173
0.48
188
0.48
167
0.32
156
0.53
84
0.37
165
0.51
95
0.65
185
0.57
119
0.34
152
0.30
160
0.69
146
0.44
89
0.52
109
0.47
148
0.57
98
0.42
150
0.56
127
0.49
119
0.27
162
0.35
163
0.65
170
0.74
169
0.80
159
0.75
168
HSMtwo views0.54
140
0.49
154
0.47
179
0.48
168
0.47
185
0.41
141
0.37
168
0.71
192
0.37
165
0.61
161
0.65
185
0.59
129
0.48
199
0.31
167
0.70
151
0.48
126
0.64
187
0.47
148
0.75
147
0.48
168
0.63
152
0.49
119
0.26
158
0.42
188
0.62
161
0.72
166
0.87
183
0.67
147
SGM-Foresttwo views0.73
185
0.71
229
0.40
145
1.13
254
0.64
219
0.74
228
0.45
183
0.68
176
0.39
173
0.61
161
0.44
118
1.16
227
1.06
241
0.49
223
0.86
186
0.61
182
0.55
128
0.46
142
0.68
128
0.44
155
0.61
147
0.49
119
0.45
212
0.44
197
0.90
228
0.86
193
1.95
279
1.47
229
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
GCAP-BATtwo views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
test_for_modeltwo views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
testlalala2two views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
Former-RAFT_DAM_RVCtwo views0.41
84
0.33
54
0.29
97
0.29
91
0.24
76
0.26
76
0.16
79
0.55
95
0.40
175
0.55
121
0.49
131
0.49
92
0.27
96
0.23
103
0.58
104
0.45
100
0.51
105
0.40
98
0.50
63
0.36
114
0.46
74
0.50
124
0.16
58
0.23
82
0.49
114
0.75
173
0.44
53
0.56
117
testlalalatwo views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
testlalala_basetwo views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
GCAP-Stereotwo views0.76
195
0.45
120
0.20
52
0.22
51
0.25
78
0.22
55
0.13
51
0.62
134
0.25
74
0.57
134
0.29
68
0.75
169
0.20
60
0.19
68
0.47
79
0.51
144
10.38
314
0.39
86
0.59
103
0.34
95
0.93
207
0.50
124
0.17
73
0.21
57
0.34
65
0.36
73
0.51
64
0.49
90
IGEV-Stereo+two views0.27
41
0.25
37
0.14
28
0.22
51
0.14
33
0.13
23
0.07
20
0.36
43
0.20
46
0.55
121
0.23
50
0.38
56
0.14
35
0.16
54
0.26
29
0.35
49
0.40
56
0.35
71
0.48
59
0.24
51
0.44
63
0.51
131
0.12
36
0.13
28
0.28
36
0.20
21
0.34
34
0.23
30
LoS_RVCtwo views0.42
89
0.45
120
0.43
162
0.19
43
0.25
78
0.24
71
0.16
79
0.44
60
0.28
96
0.51
95
0.48
127
0.42
69
0.31
125
0.22
91
0.60
113
0.45
100
0.46
71
0.41
103
0.71
136
0.30
78
0.67
167
0.51
131
0.19
93
0.32
141
0.61
156
0.44
100
0.58
93
0.61
131
tt_lltwo views0.42
89
0.45
120
0.43
162
0.19
43
0.25
78
0.24
71
0.16
79
0.44
60
0.28
96
0.51
95
0.48
127
0.42
69
0.31
125
0.22
91
0.60
113
0.45
100
0.46
71
0.41
103
0.71
136
0.30
78
0.67
167
0.51
131
0.19
93
0.32
141
0.61
156
0.44
100
0.58
93
0.61
131
DSFCAtwo views0.45
110
0.50
169
0.40
145
0.40
143
0.37
151
0.44
153
0.34
160
0.46
69
0.39
173
0.40
54
0.57
159
0.49
92
0.29
103
0.24
114
0.61
118
0.44
89
0.49
89
0.49
160
0.64
117
0.39
136
0.50
95
0.51
131
0.33
185
0.35
163
0.49
114
0.50
128
0.57
85
0.58
121
NaN_ROBtwo views0.73
185
0.59
204
0.61
214
0.64
209
0.78
245
0.53
182
0.48
188
0.87
237
0.63
221
0.73
228
0.61
171
1.96
254
0.62
221
0.45
217
0.84
180
0.55
163
0.56
134
0.54
190
0.73
140
0.55
186
0.52
110
0.51
131
0.38
199
0.64
236
0.83
218
1.11
238
0.94
192
1.64
237
anonymousdsp2two views0.38
74
0.46
132
0.30
101
0.25
74
0.23
68
0.32
101
0.18
87
0.58
107
0.23
58
0.47
74
0.38
101
0.48
89
0.23
78
0.18
61
0.40
60
0.39
65
0.44
63
0.33
58
0.88
163
0.31
83
0.48
87
0.52
136
0.17
73
0.23
82
0.41
90
0.33
65
0.61
104
0.42
77
AACVNettwo views0.55
142
0.47
139
0.40
145
0.58
194
0.61
212
0.53
182
0.37
168
0.61
127
0.40
175
0.59
151
0.64
180
0.58
124
0.33
140
0.36
187
0.69
146
0.54
161
0.58
147
0.54
190
0.69
133
0.52
174
0.54
120
0.52
136
0.36
192
0.44
197
0.59
152
0.69
158
0.82
165
0.83
179
FADNet-RVCtwo views0.58
155
0.50
169
0.37
129
0.51
179
0.42
173
0.39
133
0.56
203
0.68
176
0.36
156
0.64
184
0.50
136
1.13
226
0.45
191
0.34
179
0.91
198
0.53
154
0.54
120
0.45
131
1.20
191
0.51
172
0.54
120
0.52
136
0.33
185
0.51
215
0.57
141
0.75
173
0.64
114
0.81
177
CEStwo views0.46
115
0.35
67
0.30
101
0.27
83
0.27
98
0.29
91
0.12
47
1.05
258
0.27
89
0.54
114
0.66
188
0.53
107
0.25
86
0.23
103
0.62
123
0.65
196
0.58
147
0.37
80
0.54
85
0.34
95
0.84
198
0.53
139
0.23
140
0.23
82
0.56
140
0.44
100
0.57
85
0.69
153
DeepPrunerFtwo views1.22
241
0.49
154
0.39
140
0.58
194
2.86
301
0.49
169
0.55
201
0.52
80
0.58
216
0.43
59
0.67
195
0.43
74
0.32
134
0.42
209
1.64
262
0.75
215
0.58
147
0.46
142
0.93
168
0.46
162
0.61
147
0.53
139
0.40
204
0.35
163
15.32
322
0.82
190
0.65
118
0.62
135
AnonymousMtwo views0.79
206
0.34
57
0.20
52
0.24
68
0.22
62
0.21
49
0.15
70
0.58
107
0.21
50
0.57
134
0.39
107
0.45
81
0.15
41
0.19
68
0.56
97
0.54
161
0.54
120
0.40
98
0.53
79
0.30
78
0.65
160
0.54
141
0.20
109
0.22
70
0.30
45
0.39
88
1.31
245
11.04
310
TANstereotwo views0.55
142
0.41
96
0.35
119
0.40
143
0.39
159
0.45
158
0.21
106
0.52
80
0.30
111
0.54
114
0.37
98
0.38
56
0.38
171
0.41
199
0.84
180
0.73
213
0.66
194
0.78
259
1.10
182
0.89
256
0.62
149
0.54
141
0.93
271
0.32
141
0.34
65
0.45
105
0.99
204
0.53
106
XX-TBDtwo views0.55
142
0.41
96
0.35
119
0.40
143
0.39
159
0.45
158
0.21
106
0.52
80
0.30
111
0.54
114
0.37
98
0.38
56
0.38
171
0.41
199
0.84
180
0.73
213
0.66
194
0.78
259
1.10
182
0.89
256
0.62
149
0.54
141
0.93
271
0.32
141
0.34
65
0.45
105
0.99
204
0.53
106
RPtwo views0.58
155
0.57
202
0.72
233
0.62
205
0.56
204
0.57
192
0.64
223
0.63
148
0.61
218
0.42
57
0.81
220
0.78
181
0.53
208
0.43
212
0.68
144
0.48
126
0.53
118
0.44
121
0.64
117
0.45
157
0.51
100
0.54
141
0.37
197
0.44
197
0.62
161
0.59
146
0.83
172
0.77
171
CBMV_ROBtwo views1.71
260
0.79
238
0.65
224
1.35
266
1.07
263
1.01
247
0.74
237
1.01
255
0.54
206
0.72
225
0.81
220
9.80
313
5.90
295
0.57
246
1.42
249
0.69
203
0.80
230
0.58
208
5.38
272
1.22
280
0.95
216
0.55
145
0.53
237
0.62
233
1.22
262
1.45
266
2.72
298
2.94
270
GEStwo views0.59
161
0.52
183
0.37
129
0.39
137
0.40
164
0.53
182
0.37
168
0.59
114
0.40
175
0.56
130
0.60
164
0.50
98
0.30
113
0.41
199
0.98
215
0.63
184
0.67
200
0.55
196
2.28
230
0.56
190
0.70
176
0.56
146
0.31
178
0.42
188
0.48
106
0.48
119
0.65
118
0.68
151
FC-DCNN v2copylefttwo views0.94
222
0.98
262
1.28
280
1.47
272
0.95
255
1.33
268
0.82
241
1.05
258
0.80
237
0.87
258
0.66
188
1.11
225
0.67
227
0.56
241
0.91
198
0.69
203
0.81
233
0.68
238
0.83
157
0.59
202
0.78
188
0.59
147
0.50
226
0.78
256
1.25
268
1.09
235
1.35
249
1.89
244
FADNettwo views0.65
168
0.55
192
0.41
154
0.53
185
0.42
173
0.49
169
0.65
228
0.74
206
0.42
186
0.66
199
0.64
180
0.81
184
0.50
201
0.36
187
1.17
238
0.51
144
0.51
105
0.53
184
1.61
209
0.53
175
0.69
173
0.59
147
0.35
191
0.41
185
0.72
184
0.88
198
0.78
157
1.06
202
FC-DCNNcopylefttwo views0.88
216
0.96
259
1.23
275
1.36
268
0.93
253
1.26
266
0.82
241
0.91
242
0.78
235
0.87
258
0.63
179
1.08
220
0.42
181
0.56
241
0.88
194
0.69
203
0.81
233
0.68
238
0.81
156
0.59
202
0.78
188
0.59
147
0.50
226
0.77
254
1.11
257
0.99
221
1.21
233
1.57
232
MDST_ROBtwo views3.33
291
2.32
288
0.75
236
3.90
301
1.47
280
2.61
285
1.00
258
1.12
265
0.72
228
0.78
242
0.67
195
1.54
245
25.37
317
0.34
179
2.11
285
0.53
154
0.65
191
0.48
153
3.69
261
0.58
198
0.88
201
0.59
147
0.58
247
0.68
240
7.85
317
3.03
301
17.15
322
8.63
307
GLC_STEREOtwo views0.47
117
0.51
174
0.40
145
0.38
134
0.37
151
0.37
126
0.28
140
0.64
155
0.29
103
0.62
171
0.53
149
0.55
115
0.28
101
0.30
160
0.49
89
0.48
126
0.66
194
0.41
103
0.65
121
0.41
144
0.70
176
0.60
151
0.23
140
0.30
128
0.47
103
0.36
73
0.84
174
0.53
106
FCDSN-DCtwo views0.69
178
0.61
211
0.62
215
0.66
214
0.61
212
0.59
196
0.60
212
0.68
176
0.42
186
0.75
233
0.42
114
0.57
119
0.36
164
0.50
227
2.43
301
0.67
199
0.80
230
0.76
255
0.64
117
0.56
190
0.70
176
0.60
151
0.47
215
0.83
258
0.66
171
0.74
169
0.61
104
0.67
147
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
NCC-stereotwo views0.67
172
0.63
215
0.59
207
0.64
209
0.65
220
0.63
207
0.69
233
0.67
169
0.74
232
0.43
59
0.81
220
0.82
186
0.70
228
0.47
220
0.82
174
0.53
154
0.58
147
0.64
224
0.80
154
0.54
181
0.56
127
0.60
151
0.53
237
0.45
202
0.75
196
0.96
213
0.92
188
0.98
194
Abc-Nettwo views0.67
172
0.63
215
0.59
207
0.64
209
0.65
220
0.63
207
0.69
233
0.67
169
0.74
232
0.43
59
0.81
220
0.82
186
0.70
228
0.47
220
0.82
174
0.53
154
0.58
147
0.64
224
0.80
154
0.54
181
0.56
127
0.60
151
0.53
237
0.45
202
0.75
196
0.96
213
0.92
188
0.98
194
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
ADCP+two views0.92
218
0.59
204
0.62
215
0.44
162
0.45
179
0.55
188
0.85
244
0.65
162
1.81
285
0.48
79
1.10
246
1.62
248
0.33
140
0.42
209
1.03
223
0.52
152
0.52
109
0.48
153
1.19
189
0.38
124
0.58
141
0.60
151
0.32
183
0.30
128
0.66
171
3.45
307
0.77
152
4.14
287
SAtwo views0.42
89
0.47
139
0.21
65
0.25
74
0.23
68
0.31
98
0.13
51
0.64
155
0.32
136
0.61
161
0.26
60
0.54
109
0.21
68
0.16
54
0.63
126
0.47
120
0.52
109
0.41
103
0.60
110
0.29
74
0.46
74
0.61
156
0.15
54
0.27
109
0.45
99
0.58
145
0.96
197
0.47
86
Reg-Stereo(zero)two views0.78
204
0.47
139
0.56
202
0.39
137
0.28
103
0.41
141
0.35
162
0.75
210
0.36
156
0.62
171
6.09
306
0.78
181
0.32
134
0.27
147
0.41
66
0.63
184
0.58
147
0.45
131
1.51
201
0.42
150
0.65
160
0.62
157
0.21
118
0.32
141
0.55
136
0.78
180
1.26
240
1.09
204
HItwo views0.78
204
0.47
139
0.56
202
0.39
137
0.28
103
0.41
141
0.35
162
0.75
210
0.36
156
0.62
171
6.09
306
0.78
181
0.32
134
0.27
147
0.41
66
0.63
184
0.58
147
0.45
131
1.51
201
0.42
150
0.65
160
0.62
157
0.21
118
0.32
141
0.55
136
0.78
180
1.26
240
1.09
204
FADNet-RVC-Resampletwo views0.57
153
0.52
183
0.42
157
0.46
165
0.39
159
0.41
141
0.40
176
0.72
199
0.42
186
0.68
208
0.51
142
1.04
218
0.43
185
0.43
212
0.96
212
0.48
126
0.56
134
0.61
218
0.85
161
0.55
186
0.52
110
0.63
159
0.34
187
0.60
230
0.58
145
0.71
163
0.55
81
0.77
171
GANetREF_RVCpermissivetwo views0.77
203
0.74
233
0.68
230
0.76
228
0.65
220
0.69
219
0.60
212
0.99
251
0.73
229
0.93
262
0.52
145
1.33
236
0.72
230
0.44
215
0.85
184
0.57
169
0.67
200
0.63
220
1.13
186
0.61
216
0.77
187
0.63
159
0.59
248
0.71
242
0.89
227
0.90
202
1.15
224
0.99
196
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
iResNettwo views0.92
218
0.56
197
0.62
215
0.72
222
0.68
226
0.96
244
0.55
201
0.95
244
0.57
213
0.67
206
0.82
225
1.41
239
1.51
259
0.31
167
1.49
255
0.66
198
0.75
222
0.67
232
4.08
266
0.68
234
0.72
179
0.63
159
0.41
206
0.83
258
0.72
184
0.91
204
1.02
211
0.87
185
CSANtwo views0.93
221
0.83
247
0.75
236
0.86
235
0.82
246
0.73
224
0.61
217
0.97
250
0.94
255
0.94
266
0.73
210
1.96
254
1.56
260
0.49
223
0.98
215
0.63
184
0.74
220
0.66
230
1.09
180
0.71
239
0.78
188
0.63
159
0.53
237
0.76
251
0.98
241
1.49
271
1.21
233
1.63
236
MyStereo04two views0.68
177
0.52
183
0.57
204
0.44
162
0.37
151
0.35
121
0.26
133
0.68
176
0.45
191
0.62
171
0.45
121
0.68
152
0.34
152
0.25
130
1.00
219
0.68
202
0.56
134
0.53
184
3.39
260
0.56
190
0.92
206
0.64
163
0.27
162
0.41
185
0.77
203
0.92
205
0.96
197
0.66
144
LMCR-Stereopermissivemany views0.50
125
0.46
132
0.33
111
0.32
107
0.33
127
0.42
147
0.24
124
0.57
103
0.37
165
0.55
121
0.46
125
0.65
147
0.40
177
0.26
140
0.69
146
0.49
133
0.62
179
0.49
160
1.11
184
0.57
195
0.66
163
0.64
163
0.25
151
0.32
141
0.48
106
0.49
124
0.63
110
0.65
143
LoStwo views0.55
142
0.44
112
0.29
97
0.36
130
0.37
151
0.40
139
0.20
105
1.37
275
0.31
128
0.86
257
0.78
214
0.68
152
0.37
168
0.24
114
0.58
104
0.72
209
0.59
161
0.40
98
0.75
147
0.35
112
1.03
224
0.65
165
0.21
118
0.24
91
0.79
208
0.64
153
0.64
114
0.68
151
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
TESTrafttwo views0.37
72
0.46
132
0.21
65
0.21
48
0.23
68
0.21
49
0.16
79
0.54
88
0.31
128
0.51
95
0.23
50
0.36
52
0.36
164
0.11
32
0.85
184
0.48
126
0.45
66
0.32
50
0.48
59
0.24
51
0.46
74
0.65
165
0.12
36
0.23
82
0.37
77
0.43
96
0.57
85
0.39
65
XX-Stereotwo views9.49
316
0.38
80
0.36
125
0.63
207
0.28
103
0.54
186
0.28
140
0.69
183
0.28
96
0.69
216
6.24
310
1.00
209
0.29
103
0.23
103
0.70
151
1.08
263
0.60
168
0.52
180
1.58
206
0.53
175
0.76
186
0.65
165
0.18
85
0.26
106
233.61
332
0.88
198
1.01
210
1.90
246
GMOStereotwo views0.42
89
0.39
85
0.21
65
0.30
99
0.26
88
0.29
91
0.19
98
0.67
169
0.30
111
0.66
199
0.32
79
0.54
109
0.33
140
0.20
79
0.40
60
0.46
109
0.50
94
0.44
121
0.68
128
0.34
95
0.51
100
0.66
168
0.16
58
0.22
70
0.58
145
0.45
105
0.82
165
0.41
72
error versiontwo views0.42
89
0.39
85
0.21
65
0.30
99
0.26
88
0.29
91
0.19
98
0.67
169
0.30
111
0.66
199
0.32
79
0.54
109
0.33
140
0.20
79
0.40
60
0.46
109
0.50
94
0.44
121
0.68
128
0.34
95
0.51
100
0.66
168
0.16
58
0.22
70
0.58
145
0.45
105
0.82
165
0.41
72
test-vtwo views0.42
89
0.39
85
0.21
65
0.30
99
0.26
88
0.29
91
0.19
98
0.67
169
0.30
111
0.66
199
0.32
79
0.54
109
0.33
140
0.20
79
0.40
60
0.46
109
0.50
94
0.44
121
0.68
128
0.34
95
0.51
100
0.66
168
0.16
58
0.22
70
0.58
145
0.45
105
0.82
165
0.41
72
test-2two views0.42
89
0.39
85
0.21
65
0.30
99
0.26
88
0.29
91
0.19
98
0.67
169
0.30
111
0.66
199
0.32
79
0.54
109
0.33
140
0.20
79
0.40
60
0.46
109
0.50
94
0.44
121
0.68
128
0.34
95
0.51
100
0.66
168
0.16
58
0.22
70
0.58
145
0.45
105
0.82
165
0.41
72
PA-Nettwo views0.64
167
0.67
223
0.66
225
0.50
173
0.66
225
0.50
173
0.64
223
0.65
162
0.73
229
0.54
114
0.52
145
0.58
124
0.58
219
0.59
251
0.93
203
0.57
169
0.46
71
0.54
190
0.61
114
0.54
181
0.49
91
0.66
168
0.36
192
0.52
217
0.64
168
1.24
249
0.64
114
1.32
224
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
TestStereo1two views0.38
74
0.49
154
0.19
46
0.22
51
0.23
68
0.23
67
0.15
70
0.55
95
0.30
111
0.52
102
0.21
43
0.35
44
0.39
174
0.11
32
0.80
168
0.50
137
0.46
71
0.32
50
0.53
79
0.25
57
0.52
110
0.67
173
0.15
54
0.22
70
0.37
77
0.42
94
0.60
101
0.39
65
SA-5Ktwo views0.38
74
0.49
154
0.19
46
0.22
51
0.23
68
0.23
67
0.15
70
0.55
95
0.30
111
0.52
102
0.21
43
0.35
44
0.39
174
0.11
32
0.80
168
0.50
137
0.46
71
0.32
50
0.53
79
0.25
57
0.52
110
0.67
173
0.15
54
0.22
70
0.37
77
0.42
94
0.60
101
0.39
65
UDGNettwo views0.67
172
0.66
221
0.42
157
1.35
266
1.02
260
1.21
262
0.91
250
0.60
120
0.41
179
0.52
102
0.60
164
0.56
117
0.23
78
1.19
282
0.66
136
0.45
100
0.56
134
0.51
173
0.73
140
0.53
175
0.64
159
0.67
173
0.79
260
0.29
120
0.72
184
0.55
140
0.63
110
0.66
144
NOSS_ROBtwo views0.76
195
0.84
251
0.50
188
0.72
222
0.61
212
0.75
229
0.52
195
0.80
224
0.54
206
0.70
219
0.62
176
0.62
142
0.86
237
0.62
252
1.14
235
1.10
266
0.78
225
0.69
241
0.73
140
0.60
207
0.88
201
0.67
173
0.50
226
0.71
242
0.86
225
0.95
210
1.38
252
0.85
181
PDISCO_ROBtwo views0.48
121
0.40
92
0.39
140
0.38
134
0.34
136
0.39
133
0.28
140
0.50
76
0.35
152
0.37
51
0.52
145
0.49
92
0.35
159
0.31
167
0.63
126
0.58
174
0.54
120
0.68
238
0.59
103
0.44
155
0.62
149
0.67
173
0.24
148
0.34
159
0.54
132
0.53
134
0.85
176
0.58
121
castereo++two views0.44
105
0.35
67
0.33
111
0.43
157
0.23
68
0.21
49
0.17
85
0.59
114
0.30
111
0.63
177
0.37
98
0.73
165
0.22
72
0.22
91
0.44
75
0.53
154
0.58
147
0.41
103
0.66
123
0.34
95
0.81
193
0.69
178
0.20
109
0.28
115
0.48
106
0.56
144
0.76
150
0.48
88
stereogantwo views0.67
172
0.67
223
0.62
215
0.68
218
0.73
237
0.75
229
0.64
223
0.70
189
0.57
213
0.51
95
0.64
180
1.08
220
0.62
221
0.44
215
0.83
176
0.55
163
0.56
134
0.51
173
0.91
166
0.59
202
0.59
145
0.69
178
0.47
215
0.46
204
0.59
152
0.67
157
1.16
227
0.87
185
4D-IteraStereotwo views0.40
80
0.28
44
0.33
111
0.35
125
0.24
76
0.24
71
0.15
70
0.63
148
0.28
96
0.61
161
0.39
107
0.51
103
0.22
72
0.22
91
0.48
86
0.43
84
0.49
89
0.43
116
0.66
123
0.34
95
0.63
152
0.70
180
0.14
52
0.22
70
0.39
84
0.47
114
0.63
110
0.39
65
LG-Stereo_Zeroshottwo views0.66
169
0.37
72
0.23
79
0.51
179
0.74
241
0.89
241
0.49
191
0.62
134
0.26
84
1.60
303
0.31
77
2.57
260
0.26
89
0.22
91
0.46
78
0.48
126
0.58
147
0.45
131
0.93
168
0.37
120
0.63
152
0.71
181
0.19
93
0.23
82
0.58
145
0.49
124
0.89
185
1.91
247
Any-RAFTtwo views0.69
178
0.47
139
0.85
245
0.53
185
0.40
164
0.38
131
0.27
135
0.64
155
0.32
136
0.57
134
0.76
212
0.86
197
0.24
85
0.22
91
0.57
100
0.76
216
0.60
168
0.45
131
2.19
227
0.45
157
1.20
237
0.71
181
0.22
130
0.31
136
0.99
244
1.24
249
0.73
143
1.65
238
RGCtwo views0.76
195
0.72
230
0.99
256
0.70
219
0.71
235
0.76
232
0.57
206
0.74
206
0.74
232
0.56
130
0.96
235
0.83
190
0.85
236
0.56
241
0.93
203
0.60
179
0.62
179
0.56
198
0.93
168
0.61
216
0.66
163
0.71
181
0.51
234
0.56
223
0.81
213
1.01
226
0.99
204
1.19
218
ADCReftwo views1.01
230
0.65
218
0.48
182
0.39
137
0.47
185
0.65
211
0.68
232
0.61
127
1.08
261
0.52
102
0.64
180
0.75
169
0.43
185
0.38
192
1.56
258
0.72
209
0.61
173
0.59
213
1.53
204
0.58
198
0.66
163
0.71
181
0.50
226
0.43
191
0.75
196
1.25
252
0.82
165
8.96
308
DeepPruner_ROBtwo views0.59
161
0.44
112
0.54
198
0.52
182
0.54
200
0.49
169
0.37
168
0.61
127
0.46
195
0.60
157
0.70
199
0.61
134
0.51
205
0.32
174
1.06
226
0.58
174
0.62
179
0.59
213
0.66
123
0.47
166
0.97
220
0.72
185
0.36
192
0.44
197
0.61
156
1.00
223
0.72
140
0.58
121
MLCVtwo views0.70
181
0.49
154
0.53
195
0.73
224
0.50
192
0.65
211
0.43
181
0.81
229
0.41
179
0.71
222
0.88
227
1.01
212
0.81
234
0.28
150
0.92
201
0.43
84
0.65
191
0.52
180
2.47
240
0.45
157
0.55
122
0.72
185
0.39
203
0.54
220
0.69
175
0.80
185
0.83
172
0.72
162
ICVPtwo views0.58
155
0.49
154
0.67
228
0.50
173
0.48
188
0.52
179
0.36
166
0.60
120
0.45
191
0.61
161
0.58
161
0.61
134
0.56
213
0.30
160
0.67
141
0.64
190
0.58
147
0.51
173
0.72
139
0.51
172
0.58
141
0.74
187
0.59
248
0.47
207
0.60
155
0.75
173
0.74
145
0.72
162
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
iinet-ftwo views0.52
132
0.43
107
0.36
125
0.34
115
0.25
78
0.47
165
0.25
129
0.43
58
0.27
89
0.52
102
0.94
232
0.61
134
0.44
190
0.25
130
1.06
226
0.57
169
0.52
109
0.39
86
1.51
201
0.50
169
0.58
141
0.75
188
0.26
158
0.25
100
0.52
125
0.38
85
0.76
150
0.53
106
Sa-1000two views0.48
121
0.47
139
0.21
65
0.26
78
0.26
88
0.31
98
0.15
70
0.65
162
0.36
156
0.63
177
0.33
86
0.50
98
0.26
89
0.30
160
0.94
207
0.49
133
0.59
161
0.45
131
0.90
165
0.32
87
0.52
110
0.75
188
0.17
73
0.27
109
0.72
184
0.53
134
1.00
209
0.49
90
IPLGtwo views0.47
117
0.45
120
0.32
108
0.28
86
0.27
98
0.32
101
0.21
106
0.63
148
0.22
53
0.51
95
0.38
101
0.56
117
0.29
103
0.31
167
1.64
262
0.44
89
0.56
134
0.48
153
0.56
94
0.41
144
0.45
67
0.75
188
0.18
85
0.28
115
0.45
99
0.59
146
0.65
118
0.51
101
castereotwo views0.47
117
0.36
70
0.35
119
0.34
115
0.26
88
0.26
76
0.17
85
0.56
101
0.29
103
0.60
157
0.45
121
0.68
152
0.22
72
0.20
79
0.52
92
0.58
174
0.61
173
0.39
86
0.92
167
0.36
114
0.96
217
0.76
191
0.19
93
0.24
91
0.54
132
0.64
153
0.57
85
0.58
121
CBMVpermissivetwo views1.15
238
0.84
251
0.60
212
0.85
234
0.76
244
0.73
224
0.48
188
0.87
237
0.80
237
0.81
248
0.61
171
2.86
266
0.81
234
0.52
233
1.31
245
1.17
274
0.91
247
0.74
250
2.40
238
0.66
228
1.57
252
0.76
191
0.48
220
1.06
274
0.99
244
1.09
235
2.25
283
4.25
288
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
DCVSM-stereotwo views1.13
237
0.66
221
0.79
239
0.89
238
0.65
220
1.15
258
0.73
235
0.95
244
0.82
241
1.04
272
4.18
293
3.75
282
1.45
257
0.49
223
0.83
176
0.86
230
0.69
208
0.60
216
2.08
224
0.87
255
1.06
229
0.77
193
0.84
265
0.72
245
0.74
191
0.89
200
0.98
203
1.09
204
APVNettwo views0.56
149
0.47
139
0.38
138
0.46
165
0.50
192
0.57
192
0.53
196
0.60
120
0.42
186
0.46
71
0.65
185
0.50
98
0.30
113
0.36
187
0.74
159
0.71
208
0.71
216
0.64
224
0.95
172
0.53
175
0.57
137
0.77
193
0.34
187
0.46
204
0.59
152
0.46
112
0.82
165
0.58
121
SACVNettwo views0.62
164
0.53
189
0.51
192
0.55
190
0.57
206
0.52
179
0.60
212
0.69
183
0.56
212
0.67
206
0.54
155
0.59
129
0.37
168
0.41
199
0.71
155
0.60
179
0.64
187
0.57
203
0.95
172
0.64
225
0.67
167
0.78
195
0.36
192
0.47
207
0.75
196
0.77
179
0.84
174
0.84
180
GwcNet-ADLtwo views0.97
228
0.83
247
0.81
241
0.91
241
0.68
226
0.70
220
0.53
196
0.77
218
0.50
199
0.72
225
5.46
302
1.20
230
0.65
226
0.46
219
0.81
171
0.95
241
0.72
218
0.56
198
1.26
193
0.71
239
0.67
167
0.78
195
0.59
248
0.56
223
0.79
208
0.98
219
0.85
176
1.75
242
PSMNet-ADLtwo views0.96
226
0.62
214
0.66
225
0.67
215
0.70
234
0.66
214
0.58
207
0.74
206
0.60
217
0.85
256
5.03
299
0.95
206
1.26
252
0.45
217
0.89
195
1.03
258
0.68
202
0.54
190
2.03
223
0.68
234
0.84
198
0.79
197
0.54
241
0.47
207
0.73
189
0.95
210
1.32
246
0.63
139
AE-Stereotwo views0.54
140
0.48
151
0.44
170
0.50
173
0.35
140
0.36
124
0.28
140
0.55
95
0.29
103
0.64
184
0.31
77
0.89
199
0.31
125
0.24
114
0.55
95
0.65
196
0.68
202
0.52
180
0.87
162
0.53
175
0.72
179
0.81
198
0.21
118
0.47
207
0.79
208
0.69
158
0.94
192
0.62
135
IPLGRtwo views0.57
153
0.55
192
0.37
129
0.43
157
0.38
157
0.36
124
0.23
121
0.62
134
0.30
111
0.56
130
0.68
198
0.61
134
0.32
134
0.29
157
1.73
268
0.47
120
0.56
134
0.56
198
1.09
180
0.54
181
0.53
117
0.81
198
0.20
109
0.32
141
0.71
181
0.97
218
0.73
143
0.57
119
FBW_ROBtwo views1.34
245
1.42
278
1.08
267
2.01
279
1.42
278
1.37
270
1.63
273
0.99
251
0.70
227
0.72
225
1.02
240
2.05
257
0.91
239
1.47
287
1.24
241
0.60
179
0.88
243
0.65
228
6.08
278
0.59
202
1.06
229
0.81
198
1.48
287
1.12
280
0.99
244
1.20
245
0.99
204
1.66
239
MIPNettwo views0.51
128
0.51
174
0.33
111
0.32
107
0.30
117
0.37
126
0.25
129
0.62
134
0.24
68
0.50
90
0.52
145
0.61
134
0.41
180
0.30
160
1.01
222
0.51
144
0.59
161
0.50
166
0.76
150
0.47
166
0.44
63
0.85
201
0.20
109
0.26
106
0.66
171
0.98
219
0.71
139
0.61
131
LE_ROBtwo views17.44
319
1.82
281
6.12
321
9.40
311
53.85
332
8.01
322
46.26
328
11.27
325
28.12
326
1.80
308
7.03
315
38.62
325
49.53
326
0.34
179
1.76
271
0.55
163
0.78
225
0.59
213
36.68
320
6.72
319
2.92
283
0.85
201
29.06
327
12.10
326
26.35
323
25.49
326
27.84
327
37.03
328
GANet-ADLtwo views0.70
181
0.59
204
0.52
193
0.60
200
0.57
206
0.61
201
0.46
185
0.68
176
0.52
202
0.65
189
0.67
195
0.76
177
0.43
185
0.39
193
1.08
229
0.79
224
0.68
202
0.52
180
1.84
217
0.64
225
0.66
163
0.86
203
0.42
209
0.43
191
0.70
178
0.87
196
0.97
200
0.89
187
TRStereotwo views0.75
191
0.83
247
1.19
271
0.56
191
0.34
136
1.42
271
0.48
188
0.68
176
0.28
96
0.65
189
0.46
125
1.10
223
0.27
96
0.22
91
0.70
151
0.85
229
0.57
143
0.48
153
1.85
218
0.50
169
0.73
182
0.87
204
0.18
85
0.27
109
0.78
205
1.22
248
1.78
275
1.09
204
ADCLtwo views1.27
243
0.82
245
0.64
221
0.60
200
0.53
197
0.73
224
0.91
250
0.75
210
2.78
304
0.68
208
1.01
239
0.86
197
0.50
201
0.50
227
1.27
242
0.64
190
0.66
194
0.57
203
1.20
191
0.60
207
0.98
221
0.88
205
0.50
226
0.47
207
1.60
281
1.50
272
0.88
184
11.30
311
NCCL2two views0.69
178
0.73
232
0.66
225
0.57
193
0.56
204
0.51
176
0.45
183
0.70
189
0.57
213
0.68
208
0.71
200
0.66
148
0.48
199
0.39
193
0.93
203
0.72
209
0.65
191
0.57
203
0.76
150
0.57
195
0.74
184
0.88
205
0.49
222
0.60
230
0.98
241
0.95
210
0.85
176
1.16
215
HSM-Net_RVCpermissivetwo views0.75
191
0.53
189
0.60
212
0.77
229
0.62
218
0.61
201
0.37
168
0.76
213
0.49
198
0.74
229
1.71
271
1.32
235
0.80
233
0.36
187
0.72
158
0.55
163
0.64
187
0.53
184
0.78
152
0.53
175
0.67
167
0.89
207
0.43
210
0.64
236
0.94
235
1.09
235
1.07
215
1.04
201
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
SFCPSMtwo views3.03
286
0.82
245
0.63
219
0.77
229
0.69
228
0.72
223
0.63
221
0.83
232
0.98
258
0.71
222
2.00
277
2.57
260
3.49
283
0.56
241
1.16
237
0.93
240
0.74
220
0.64
224
54.48
327
1.19
279
0.88
201
0.91
208
0.55
243
0.55
222
0.94
235
0.93
208
1.11
222
1.39
226
EGLCR-Stereotwo views0.47
117
0.49
154
0.41
154
0.29
91
0.30
117
0.44
153
0.14
64
0.57
103
0.26
84
0.57
134
0.27
63
0.58
124
0.23
78
0.21
85
0.36
53
0.47
120
0.53
118
0.45
131
0.75
147
0.32
87
0.69
173
0.93
209
0.19
93
0.24
91
0.48
106
0.49
124
1.30
244
0.70
159
raft_robusttwo views0.49
124
0.44
112
0.24
85
0.38
134
0.29
110
0.32
101
0.21
106
0.73
201
0.35
152
0.69
216
0.34
88
0.57
119
0.31
125
0.24
114
0.59
108
0.53
154
0.54
120
0.46
142
0.98
175
0.37
120
0.69
173
0.94
210
0.20
109
0.28
115
0.55
136
0.69
158
0.69
130
0.60
129
DDUNettwo views1.38
247
2.18
284
0.79
239
2.67
283
2.43
291
2.57
284
2.52
283
0.80
224
0.84
242
0.63
177
0.94
232
1.57
247
0.45
191
2.65
296
0.94
207
0.78
221
1.99
288
0.75
252
2.31
231
0.91
258
1.16
235
0.97
211
2.71
294
0.56
223
0.72
184
0.71
163
0.97
200
0.85
181
UDGtwo views1.35
246
2.24
286
0.81
241
2.58
280
2.45
292
2.48
283
2.57
284
0.76
213
0.86
243
0.77
238
1.08
243
1.51
242
0.56
213
2.59
292
1.06
226
0.69
203
1.89
286
0.80
263
2.31
231
0.97
262
1.24
240
0.98
212
1.43
286
0.62
233
0.74
191
0.81
187
0.95
194
0.81
177
sAnonymous2two views0.58
155
0.41
96
0.31
105
0.29
91
0.29
110
0.45
158
0.29
147
0.71
192
0.41
179
0.48
79
0.53
149
0.51
103
0.43
185
0.23
103
0.86
186
0.84
227
0.70
210
0.67
232
1.34
194
0.60
207
0.83
196
0.98
212
0.30
173
0.35
163
0.62
161
0.72
166
0.72
140
0.73
165
CroCo_RVCtwo views0.58
155
0.41
96
0.31
105
0.29
91
0.29
110
0.45
158
0.29
147
0.71
192
0.41
179
0.48
79
0.53
149
0.51
103
0.43
185
0.23
103
0.86
186
0.84
227
0.70
210
0.67
232
1.34
194
0.60
207
0.83
196
0.98
212
0.30
173
0.35
163
0.62
161
0.72
166
0.72
140
0.73
165
SANettwo views1.61
255
0.91
257
1.10
269
1.04
250
1.05
261
1.25
265
0.77
238
1.76
292
1.81
285
0.77
238
1.24
250
6.63
298
5.08
290
0.83
270
1.56
258
0.77
218
1.24
269
0.90
268
1.58
206
0.82
251
1.05
227
1.00
215
0.90
268
1.27
287
1.32
270
1.93
282
1.88
277
3.10
275
LALA_ROBtwo views0.86
214
0.97
261
0.67
228
0.63
207
0.69
228
0.83
235
0.67
230
0.70
189
0.80
237
0.68
208
1.10
246
2.61
262
0.58
219
0.51
229
1.11
232
0.67
199
0.86
238
0.72
245
0.89
164
0.67
232
0.80
191
1.00
215
0.49
222
0.59
228
0.73
189
0.92
205
1.16
227
1.10
208
pmcnntwo views1.66
257
0.80
241
0.52
193
1.19
259
1.01
257
1.21
262
0.93
252
0.96
249
0.54
206
0.74
229
2.66
284
3.98
286
5.06
289
0.31
167
1.65
264
1.40
292
1.20
267
0.91
271
3.99
264
0.95
259
4.45
306
1.02
217
0.90
268
0.90
263
1.07
254
1.01
226
2.43
290
3.03
273
AMNettwo views1.02
231
0.98
262
0.95
252
0.98
247
1.01
257
1.03
249
0.96
256
0.87
237
0.93
252
0.97
268
1.02
240
1.10
223
0.74
231
1.06
280
0.99
218
1.09
265
1.17
264
1.04
280
1.08
179
1.05
269
1.13
234
1.04
218
0.82
264
0.98
269
1.01
249
1.07
234
1.20
232
1.27
223
STStereotwo views5.29
300
2.47
289
5.20
318
5.20
306
2.80
300
4.72
309
3.42
294
6.23
320
6.52
314
1.51
297
7.61
316
9.53
310
14.86
312
0.63
254
4.09
310
0.64
190
0.87
239
0.62
219
36.67
319
1.02
266
1.23
239
1.05
219
0.78
259
1.63
300
3.46
303
2.43
293
3.53
304
14.15
314
ETE_ROBtwo views0.87
215
0.90
254
0.58
206
0.67
215
0.69
228
0.85
236
0.60
212
0.66
166
0.89
248
0.64
184
1.09
244
2.63
263
0.54
209
0.54
237
1.00
219
0.72
209
0.91
247
0.63
220
0.99
176
0.66
228
0.88
201
1.08
220
0.50
226
0.59
228
0.78
205
0.92
205
1.48
263
1.17
216
XPNet_ROBtwo views0.74
190
0.77
234
0.57
204
0.54
187
0.61
212
0.63
207
0.61
217
0.53
84
0.65
223
0.58
146
0.81
220
2.35
259
0.46
194
0.43
212
0.79
166
0.63
184
0.85
237
0.57
203
0.83
157
0.55
186
0.72
179
1.09
221
0.45
212
0.49
214
0.63
165
0.74
169
1.39
253
0.86
183
DAStwo views0.95
223
0.61
211
0.48
182
0.78
231
0.61
212
0.68
217
0.59
208
0.84
234
0.93
252
0.65
189
1.58
266
1.66
249
1.06
241
0.34
179
0.95
209
0.92
236
0.92
249
0.73
248
1.77
213
1.03
267
1.73
259
1.11
222
0.47
215
0.92
264
0.93
232
1.00
223
1.39
253
0.96
191
SepStereotwo views0.95
223
0.61
211
0.48
182
0.78
231
0.61
212
0.68
217
0.59
208
0.84
234
0.93
252
0.65
189
1.58
266
1.66
249
1.06
241
0.34
179
0.95
209
0.92
236
0.92
249
0.73
248
1.77
213
1.03
267
1.73
259
1.11
222
0.47
215
0.92
264
0.93
232
1.00
223
1.39
253
0.96
191
RTSCtwo views0.73
185
0.49
154
0.46
175
0.47
167
0.51
195
0.55
188
0.56
203
0.67
169
0.68
226
0.54
114
0.79
215
0.57
119
0.57
217
0.41
199
1.92
276
0.77
218
0.96
254
0.58
208
1.36
197
0.56
190
0.85
200
1.11
222
0.31
178
0.53
219
0.58
145
0.65
155
0.95
194
1.26
222
EAI-Stereotwo views0.75
191
0.49
154
0.50
188
0.51
179
0.46
182
0.56
191
0.60
212
0.73
201
0.32
136
0.63
177
0.72
205
0.82
186
0.26
89
0.24
114
1.05
224
0.96
244
0.60
168
0.49
160
3.00
254
0.62
220
0.82
194
1.13
225
0.19
93
0.31
136
0.78
205
0.70
162
1.55
265
1.17
216
FADNet_RVCtwo views0.92
218
0.69
226
0.55
201
0.88
237
0.75
243
0.54
186
0.51
193
0.77
218
0.54
206
0.70
219
0.96
235
1.36
237
1.06
241
0.54
237
1.85
274
0.64
190
0.80
230
0.90
268
3.34
259
0.76
242
1.00
222
1.13
225
0.37
197
0.60
230
0.66
171
0.87
196
0.97
200
1.14
214
RAFT-Testtwo views0.72
184
0.50
169
0.46
175
0.52
182
0.34
136
0.41
141
0.29
147
0.73
201
0.30
111
0.62
171
0.72
205
0.68
152
0.31
125
0.22
91
0.71
155
1.03
258
0.62
179
0.50
166
2.89
252
0.66
228
1.72
258
1.14
227
0.23
140
0.29
120
0.80
212
0.96
213
0.95
194
0.91
188
RTStwo views1.09
234
0.59
204
0.59
207
0.60
200
0.58
209
0.96
244
0.90
248
0.80
224
0.88
245
0.59
151
0.71
200
1.28
233
0.62
221
0.51
229
2.04
279
0.98
249
1.19
265
0.77
257
2.33
233
0.85
253
0.96
217
1.16
228
0.49
222
0.65
238
1.23
263
4.43
310
1.15
224
1.45
227
RTSAtwo views1.09
234
0.59
204
0.59
207
0.60
200
0.58
209
0.96
244
0.90
248
0.80
224
0.88
245
0.59
151
0.71
200
1.28
233
0.62
221
0.51
229
2.04
279
0.98
249
1.19
265
0.77
257
2.33
233
0.85
253
0.96
217
1.16
228
0.49
222
0.65
238
1.23
263
4.43
310
1.15
224
1.45
227
MANEtwo views7.31
307
2.64
290
4.48
317
3.30
295
3.10
307
3.94
303
2.83
288
5.37
319
6.88
315
1.11
274
5.64
304
8.81
308
11.02
305
0.67
259
3.83
308
3.83
312
1.32
270
18.03
325
8.61
287
0.84
252
4.22
302
1.16
228
0.74
258
1.79
309
13.65
321
18.61
322
22.89
324
38.18
329
ACVNet_1two views2.47
275
3.23
303
2.35
299
4.40
304
2.93
305
3.77
301
3.96
301
1.34
272
1.18
266
1.21
282
1.02
240
3.31
277
2.07
268
3.09
303
1.31
245
0.70
207
2.26
294
1.10
286
9.52
293
1.14
275
3.45
295
1.18
231
4.50
304
1.07
275
1.39
274
1.75
279
1.36
251
2.10
250
model_zeroshottwo views0.80
209
0.46
132
0.42
157
0.42
152
0.39
159
0.43
150
0.27
135
0.72
199
0.36
156
0.64
184
0.66
188
0.97
207
0.29
103
0.24
114
1.05
224
0.92
236
0.69
208
0.54
190
3.03
255
0.73
241
1.21
238
1.20
232
0.22
130
0.38
177
0.84
222
1.14
241
1.08
216
2.21
255
STTRV1_RVCtwo views0.81
242
0.64
221
1.04
250
0.73
237
1.03
249
0.85
244
0.91
242
0.92
250
0.93
262
0.95
234
1.72
252
2.23
270
0.86
273
1.46
253
0.78
221
1.37
271
0.72
245
1.97
302
1.59
253
1.23
233
0.97
267
1.07
254
1.11
238
1.75
274
3.40
279
SQANettwo views1.90
265
2.70
291
1.03
261
3.09
290
2.17
286
3.29
289
2.70
286
0.95
244
0.65
223
1.00
270
0.71
200
2.69
265
1.10
245
2.30
291
0.78
162
0.55
163
1.02
257
0.72
245
9.92
295
0.68
234
2.11
268
1.25
234
3.28
295
0.58
227
0.98
241
1.31
258
1.33
247
2.34
257
ACVNet_2two views3.17
287
2.98
297
2.25
298
4.72
305
2.88
302
3.50
291
3.48
295
1.58
284
1.33
271
1.29
288
1.10
246
3.22
274
2.45
276
2.67
297
1.29
243
0.86
230
7.26
310
1.02
278
22.14
311
1.37
287
3.22
290
1.25
234
4.24
299
1.37
289
1.93
286
1.92
281
1.83
276
2.36
258
MFMNet_retwo views1.51
250
1.18
272
1.12
270
1.29
264
1.16
268
1.63
277
1.32
268
1.30
271
1.63
282
1.14
278
1.38
260
2.64
264
1.63
263
0.90
276
2.27
294
1.35
284
1.58
277
1.32
299
3.69
261
1.24
282
2.10
267
1.26
236
1.16
276
1.24
286
1.11
257
1.02
230
1.59
267
1.60
234
Anonymous3two views0.79
206
0.59
204
0.42
157
0.37
131
0.42
173
0.57
192
0.50
192
0.80
224
0.64
222
0.68
208
0.49
131
1.48
240
0.54
209
0.31
167
1.53
256
1.42
293
0.88
243
0.82
264
1.45
199
0.69
237
1.31
244
1.30
237
0.40
204
0.40
182
0.74
191
0.86
193
1.03
213
0.71
160
cross-rafttwo views0.73
185
0.56
197
0.46
175
0.43
157
0.33
127
0.40
139
0.27
135
0.73
201
0.33
141
0.65
189
0.60
164
0.74
168
0.30
113
0.23
103
0.76
161
0.96
244
0.63
184
0.48
153
2.91
253
0.59
202
1.81
264
1.31
238
0.22
130
0.32
141
0.82
216
0.94
209
0.93
190
1.01
198
test_3two views0.56
149
0.38
80
0.36
125
0.34
115
0.33
127
0.33
108
0.21
106
0.68
176
0.29
103
0.65
189
0.33
86
0.92
202
0.35
159
0.21
85
0.60
113
0.44
89
0.56
134
0.45
131
2.68
246
0.39
136
0.55
122
1.35
239
0.15
54
0.32
141
0.51
121
0.47
114
0.67
125
0.50
99
sCroCo_RVCtwo views0.58
155
0.42
103
0.29
97
0.28
86
0.29
110
0.39
133
0.22
111
0.60
120
0.41
179
0.53
113
0.43
115
0.48
89
0.50
201
0.24
114
0.75
160
0.99
253
0.75
222
0.63
220
1.02
177
0.56
190
1.10
232
1.36
240
0.28
165
0.39
179
0.63
165
0.63
150
0.93
190
0.64
141
test-3two views0.55
142
0.37
72
0.37
129
0.34
115
0.33
127
0.33
108
0.22
111
0.65
162
0.27
89
0.61
161
0.34
88
0.90
200
0.31
125
0.21
85
0.60
113
0.44
89
0.55
128
0.42
111
2.59
244
0.38
124
0.56
127
1.37
241
0.16
58
0.29
120
0.48
106
0.38
85
0.69
130
0.54
113
GEStereo_RVCtwo views0.71
183
0.59
204
0.40
145
0.54
187
0.50
192
0.61
201
0.51
193
0.71
192
0.41
179
0.59
151
0.51
142
0.76
177
0.46
194
0.39
193
0.96
212
0.92
236
0.78
225
0.75
252
1.94
220
0.62
220
0.80
191
1.37
241
0.31
178
0.52
217
0.61
156
0.63
150
0.86
181
1.12
211
test_1two views0.55
142
0.37
72
0.37
129
0.34
115
0.33
127
0.33
108
0.22
111
0.66
166
0.27
89
0.62
171
0.34
88
0.90
200
0.31
125
0.21
85
0.61
118
0.44
89
0.55
128
0.42
111
2.58
243
0.38
124
0.56
127
1.38
243
0.16
58
0.29
120
0.48
106
0.38
85
0.69
130
0.54
113
ACV-stereotwo views8.39
314
1.01
265
0.97
254
1.29
264
0.73
237
1.48
273
0.95
255
0.88
240
1.10
263
1.07
273
1.33
258
1.06
219
23.12
315
0.52
233
4.00
309
3.78
311
1.05
260
0.79
261
168.94
331
1.91
301
3.64
298
1.44
244
0.72
255
0.74
249
0.74
191
0.90
202
1.43
260
1.03
200
CASStwo views0.79
206
0.55
192
0.53
195
0.65
212
0.54
200
0.59
196
0.53
196
0.78
221
0.52
202
0.71
222
0.75
211
0.67
150
0.47
196
0.28
150
0.83
176
0.67
199
0.98
255
0.56
198
1.60
208
0.58
198
2.74
278
1.44
244
0.38
199
0.35
163
0.84
222
0.81
187
0.90
186
1.02
199
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
gcap-zeroshottwo views1.75
261
0.44
112
0.89
249
0.59
197
0.36
144
0.55
188
0.29
147
0.74
206
0.29
103
0.74
229
0.76
212
1.18
229
0.33
140
0.24
114
0.78
162
0.97
246
0.61
173
0.53
184
29.80
315
0.80
246
1.04
225
1.45
246
0.23
140
0.34
159
0.75
196
0.99
221
0.96
197
0.75
168
ITSA-stereotwo views1.12
236
0.72
230
0.59
207
1.20
260
0.84
248
0.64
210
0.64
223
0.95
244
0.78
235
0.84
254
2.54
282
1.39
238
1.23
250
0.81
269
1.20
239
1.01
255
0.83
235
0.67
232
1.56
205
0.62
220
1.08
231
1.46
247
0.56
245
0.71
242
0.95
237
1.27
254
0.99
204
4.08
286
G-Nettwo views1.86
263
1.00
264
1.28
280
0.89
238
0.93
253
1.10
255
0.77
238
1.63
285
2.07
291
0.99
269
2.89
285
7.30
304
1.67
264
0.55
240
1.45
250
1.75
301
1.04
258
0.93
273
2.87
250
2.72
312
1.89
265
1.47
248
0.80
262
1.02
273
1.06
253
1.71
278
2.82
299
5.60
295
SPS-STEREOcopylefttwo views1.93
266
1.27
276
1.21
273
1.60
275
1.34
276
1.44
272
1.17
264
1.66
286
1.36
275
1.38
292
3.67
291
3.02
270
1.29
254
1.05
279
1.85
274
1.83
303
1.58
277
1.37
301
8.86
291
1.34
285
3.07
287
1.47
248
1.27
282
1.37
289
1.42
275
1.28
255
2.02
282
1.89
244
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
R-Stereo Traintwo views0.66
169
0.55
192
0.43
162
0.48
168
0.36
144
0.50
173
0.18
87
0.62
134
0.31
128
0.68
208
0.62
176
0.72
162
0.34
152
0.25
130
0.69
146
0.89
232
0.66
194
0.51
173
2.12
225
0.46
162
0.94
213
1.49
250
0.22
130
0.36
170
0.71
181
0.96
213
0.77
152
1.10
208
RAFT-Stereopermissivetwo views0.66
169
0.55
192
0.43
162
0.48
168
0.36
144
0.50
173
0.18
87
0.62
134
0.31
128
0.68
208
0.62
176
0.72
162
0.34
152
0.25
130
0.69
146
0.89
232
0.66
194
0.51
173
2.12
225
0.46
162
0.94
213
1.49
250
0.22
130
0.36
170
0.71
181
0.96
213
0.77
152
1.10
208
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
PSMNet_ROBtwo views2.71
279
3.39
307
1.92
294
2.87
287
2.04
284
4.01
304
3.50
297
1.46
278
1.41
276
1.59
302
3.34
287
3.52
278
4.97
288
4.50
310
1.61
261
0.95
241
1.87
285
1.06
282
8.62
288
1.63
297
2.32
272
1.51
252
5.43
314
1.37
289
1.98
290
1.94
283
1.91
278
2.39
259
BEATNet_4xtwo views0.53
135
0.40
92
0.34
117
0.39
137
0.36
144
0.32
101
0.27
135
0.64
155
0.41
179
0.66
199
0.45
121
0.62
142
0.39
174
0.24
114
0.83
176
0.63
184
0.58
147
0.58
208
0.57
98
0.36
114
0.90
205
1.52
253
0.25
151
0.36
170
0.46
101
0.44
100
0.77
152
0.60
129
iRaft-Stereo_20wtwo views1.06
233
0.49
154
1.34
283
1.18
258
0.46
182
0.78
233
0.46
185
0.76
213
0.37
165
0.74
229
6.16
309
0.84
192
0.29
103
0.26
140
0.81
171
0.97
246
0.59
161
0.44
121
1.72
211
0.61
216
1.04
225
1.56
254
0.21
118
0.25
100
0.92
231
1.31
258
1.45
261
2.71
266
MSKI-zero shottwo views0.84
210
0.49
154
0.43
162
0.41
148
0.35
140
0.46
164
0.32
156
0.76
213
0.30
111
0.65
189
0.92
231
0.83
190
0.32
134
0.22
91
0.62
123
1.08
263
0.64
187
0.47
148
3.14
258
0.61
216
2.23
270
1.58
255
0.20
109
0.38
177
0.96
239
1.47
267
1.24
238
1.60
234
ADCPNettwo views2.08
269
0.77
234
0.87
247
0.83
233
1.21
270
0.85
236
1.59
272
1.02
256
1.35
273
0.83
253
1.97
276
1.01
212
7.76
301
0.75
266
2.35
298
1.16
273
0.95
252
0.71
244
4.05
265
0.97
262
1.30
243
1.61
256
0.72
255
0.76
251
1.52
279
1.96
285
1.21
233
16.04
316
HHtwo views0.84
210
0.34
57
0.99
256
0.42
152
0.36
144
0.51
176
0.42
179
0.69
183
0.34
146
0.65
189
0.38
101
1.03
214
0.26
89
0.28
150
0.66
136
1.37
287
0.61
173
0.53
184
2.39
236
0.60
207
3.55
296
1.64
257
0.25
151
0.33
155
0.83
218
1.05
232
1.09
218
1.12
211
HanStereotwo views0.84
210
0.34
57
0.99
256
0.42
152
0.36
144
0.51
176
0.42
179
0.69
183
0.34
146
0.65
189
0.38
101
1.03
214
0.26
89
0.28
150
0.66
136
1.37
287
0.61
173
0.53
184
2.39
236
0.60
207
3.55
296
1.64
257
0.25
151
0.33
155
0.83
218
1.05
232
1.09
218
1.12
211
ccs_robtwo views1.25
242
0.79
238
0.64
221
0.86
235
0.60
211
0.89
241
0.83
243
0.99
251
0.51
201
0.77
238
6.27
311
5.90
294
1.10
245
0.51
229
1.08
229
1.10
266
0.68
202
0.66
230
1.15
187
0.70
238
1.56
251
1.66
259
0.50
226
0.54
220
0.69
175
0.78
180
0.86
181
1.20
219
XQCtwo views1.03
232
0.90
254
0.71
232
0.91
241
0.92
252
0.92
243
0.86
246
1.06
261
0.90
249
0.84
254
1.11
249
1.03
214
1.30
256
0.71
263
2.04
279
0.95
241
0.87
239
0.67
232
1.64
210
0.78
244
1.00
222
1.67
260
0.62
251
0.73
246
1.09
256
1.47
267
1.26
240
0.97
193
SHDtwo views0.97
228
0.56
197
0.73
234
0.75
225
0.69
228
0.66
214
0.61
217
0.99
251
0.94
255
0.77
238
1.00
238
0.94
203
1.29
254
0.54
237
2.21
289
0.98
249
0.95
252
0.70
242
2.01
222
0.80
246
1.12
233
1.71
261
0.47
215
0.77
254
0.91
229
1.01
226
0.91
187
1.22
221
AnyNet_C32two views1.64
256
0.65
218
0.74
235
0.67
215
0.73
237
0.86
239
1.14
261
0.95
244
3.12
307
0.75
233
1.53
265
0.94
203
0.64
225
0.67
259
1.83
273
1.11
268
1.06
262
0.95
275
1.78
215
0.76
242
1.76
262
1.71
261
0.66
253
0.85
261
1.13
259
2.68
296
1.17
229
13.55
313
EKT-Stereotwo views0.75
191
0.64
217
0.54
198
0.59
197
0.47
185
0.60
198
0.73
235
0.71
192
0.29
103
0.63
177
0.66
188
0.73
165
0.30
113
0.26
140
0.86
186
1.22
279
0.68
202
0.76
255
1.46
200
0.60
207
1.75
261
1.74
263
0.21
118
0.32
141
0.93
232
0.81
187
1.06
214
0.72
162
ADCMidtwo views1.56
252
0.92
258
0.99
256
0.70
219
0.86
249
1.05
252
1.37
269
1.29
269
1.77
284
0.75
233
1.75
272
1.27
231
1.48
258
0.69
261
2.18
288
1.07
262
0.98
255
0.79
261
2.74
248
0.80
246
1.31
244
1.74
263
1.06
275
0.70
241
1.01
249
1.53
273
1.02
211
10.33
309
MSMDNettwo views0.73
185
0.52
183
0.48
182
0.35
125
0.34
136
0.45
158
0.33
159
0.69
183
0.30
111
0.63
177
0.60
164
0.71
160
0.35
159
0.23
103
0.78
162
1.05
260
0.63
184
0.50
166
2.88
251
0.81
250
1.59
253
1.80
265
0.23
140
0.29
120
0.74
191
0.89
200
0.85
176
0.76
170
anonymitytwo views3.27
290
0.41
96
1.09
268
0.58
194
0.41
170
0.47
165
0.30
154
0.79
222
0.33
141
0.61
161
69.49
330
0.85
193
0.30
113
0.24
114
0.59
108
1.02
257
0.60
168
0.43
116
1.35
196
0.60
207
0.73
182
1.82
266
0.24
148
0.29
120
1.00
247
1.24
249
1.08
216
1.47
229
PVDtwo views1.47
248
1.04
266
1.44
285
1.10
252
1.09
266
1.19
260
1.07
260
1.91
296
2.05
290
0.79
245
1.49
264
1.54
245
1.91
267
0.89
275
2.26
293
1.35
284
1.39
272
1.09
285
2.41
239
1.14
275
1.51
250
1.98
267
0.79
260
1.08
277
1.49
278
1.82
280
1.67
270
2.10
250
PWC_ROBbinarytwo views1.18
239
0.70
227
1.06
264
0.60
200
0.71
235
0.70
220
0.98
257
0.83
232
1.55
281
0.76
236
1.40
261
1.00
209
2.46
277
0.57
246
2.17
287
0.99
253
1.15
263
0.90
268
2.37
235
0.95
259
1.63
255
2.05
268
0.44
211
0.98
269
0.81
213
0.80
185
1.24
238
2.15
252
PWCDC_ROBbinarytwo views0.67
172
0.35
67
0.39
140
0.29
91
0.43
176
0.34
115
0.36
166
0.43
58
1.25
268
0.27
39
0.72
205
0.44
77
2.38
275
0.57
246
1.11
232
0.76
216
0.56
134
0.56
198
0.64
117
0.55
186
0.63
152
2.08
269
0.46
214
0.40
182
0.36
75
0.63
150
0.51
64
0.67
147
SGM+DAISYtwo views3.81
294
1.38
277
1.26
278
1.80
278
1.47
280
1.93
281
1.71
274
1.47
279
1.33
271
1.34
291
6.67
314
9.59
312
12.99
309
1.20
283
1.73
268
1.47
295
1.42
274
1.24
292
11.11
299
1.37
287
3.07
287
2.13
270
1.27
282
1.42
295
1.69
282
1.26
253
2.90
300
26.50
322
AIO-Stereo-zeroshotpermissivetwo views1.21
240
0.49
154
1.28
280
0.75
225
0.41
170
1.04
251
0.67
230
0.77
218
0.52
202
0.78
242
5.67
305
1.03
214
0.35
159
0.26
140
0.86
186
1.39
291
0.68
202
0.70
242
2.61
245
0.64
225
2.89
282
2.21
271
0.19
93
0.43
191
1.03
252
1.15
242
1.35
249
2.41
260
SAMSARAtwo views1.50
249
0.79
238
1.00
260
0.93
244
0.88
250
0.86
239
0.93
252
1.57
283
1.25
268
0.96
267
1.09
244
1.27
231
2.59
278
0.83
270
2.58
303
1.19
277
1.04
258
0.91
271
2.56
241
0.99
265
1.77
263
2.23
272
0.56
245
0.98
269
2.63
292
2.81
297
2.62
295
2.56
264
DDVStwo views2.32
270
0.70
227
0.82
243
0.70
219
0.74
241
0.73
224
0.59
208
1.09
263
0.88
245
0.80
246
34.26
326
3.93
284
1.16
248
0.52
233
1.09
231
1.35
284
0.73
219
0.65
228
1.95
221
0.95
259
1.67
257
2.27
273
0.48
220
0.56
223
0.69
175
0.84
192
1.21
233
1.35
225
IGEV_Zeroshot_testtwo views0.95
223
0.47
139
1.24
276
1.15
256
0.46
182
0.60
198
0.65
228
0.81
229
0.36
156
0.66
199
1.86
275
0.94
203
0.30
113
0.26
140
0.66
136
1.14
270
0.60
168
0.48
153
2.56
241
0.63
224
2.23
270
2.36
274
0.21
118
0.37
175
1.00
247
1.03
231
1.17
229
1.48
231
MFN_U_SF_RVCtwo views1.68
259
1.06
267
0.88
248
1.25
262
1.01
257
1.53
274
2.07
278
1.38
276
1.17
265
1.51
297
2.95
286
2.00
256
1.57
261
2.05
290
2.38
299
0.98
249
0.87
239
0.82
264
6.78
282
1.11
274
2.21
269
2.38
275
0.65
252
1.11
279
1.23
263
1.33
261
1.28
243
1.69
241
DLNR_Zeroshot_testpermissivetwo views17.86
320
67.45
332
1.21
273
81.91
332
0.35
140
0.45
158
74.74
332
0.76
213
0.27
89
0.69
216
0.60
164
1.16
227
0.29
103
8.20
321
84.48
332
102.07
332
23.88
326
15.14
322
7.31
283
0.50
169
4.38
305
2.51
276
0.18
85
0.43
191
0.76
202
0.86
193
0.80
159
0.80
175
otakutwo views2.33
273
3.05
300
1.19
271
3.36
297
2.37
289
3.56
294
3.08
291
1.05
258
0.98
258
1.13
275
0.80
219
2.88
267
1.62
262
2.59
292
0.95
209
0.64
190
1.23
268
0.75
252
13.16
303
1.09
271
2.47
273
2.63
277
4.75
305
0.75
250
1.13
259
1.38
264
1.69
271
2.52
263
AIO-Stereo-zeroshot1permissivetwo views5.67
303
0.56
197
1.25
277
0.75
225
0.69
228
1.17
259
0.81
240
0.82
231
0.80
237
0.81
248
4.78
296
1.00
209
0.37
168
0.27
147
1.13
234
1.54
296
0.70
210
0.60
216
124.50
330
0.54
181
1.43
248
2.64
278
0.22
130
0.36
170
0.91
229
1.13
240
1.13
223
2.18
253
PWCKtwo views5.04
299
3.03
298
2.21
296
3.61
299
2.60
296
4.41
308
5.09
305
2.45
304
2.76
303
3.31
318
4.34
295
10.15
316
5.13
292
1.74
289
1.99
277
1.38
289
2.41
295
1.45
303
51.59
326
2.35
307
3.70
300
2.69
279
2.65
292
1.78
308
2.97
299
3.21
303
2.43
290
4.77
289
ADCStwo views1.88
264
1.06
267
0.98
255
0.93
244
1.10
267
1.09
254
1.14
261
1.27
266
2.49
298
0.89
260
1.36
259
1.51
242
2.92
282
0.86
273
3.30
306
2.26
307
1.46
276
1.26
294
3.10
257
1.29
284
2.48
274
2.88
280
0.80
262
1.10
278
1.33
272
4.48
312
1.41
258
6.08
298
AnyNet_C01two views2.06
268
1.08
269
1.06
264
1.14
255
1.08
264
1.01
247
2.69
285
1.69
290
2.66
301
1.21
282
1.67
269
2.90
268
2.60
279
0.95
278
3.65
307
4.02
314
2.09
289
2.21
315
3.08
256
1.56
294
3.30
293
2.89
281
1.26
278
1.15
282
1.80
284
1.43
265
1.51
264
3.90
284
MFN_U_SF_DS_RVCtwo views1.33
244
0.90
254
0.63
219
1.27
263
0.90
251
1.21
262
2.21
280
1.27
266
1.18
266
1.00
270
0.91
230
1.80
253
1.16
248
1.07
281
1.48
254
0.77
218
0.70
210
0.58
208
2.75
249
0.67
232
1.39
247
2.93
282
0.85
267
0.73
246
1.47
276
1.68
277
1.33
247
2.96
271
ktntwo views8.45
315
3.18
301
2.84
307
6.37
309
3.26
308
4.31
307
10.28
320
2.15
298
10.13
319
2.27
315
1.83
274
42.17
327
55.84
327
3.93
306
2.34
297
2.09
306
9.85
313
2.17
313
33.98
317
2.24
306
3.24
291
3.03
283
4.78
306
2.25
314
2.59
291
2.81
297
3.18
302
5.04
293
WAO-7two views2.72
281
1.83
282
2.89
308
7.39
310
1.73
283
1.76
280
1.82
275
2.07
297
2.65
300
2.21
313
5.39
301
4.58
291
5.72
294
1.23
284
2.07
283
1.27
280
1.69
281
1.22
291
7.70
285
1.51
289
1.64
256
3.07
284
0.84
265
1.65
302
1.83
285
2.48
294
1.97
280
3.27
277
S-Stereotwo views1.54
251
0.81
242
0.83
244
1.15
256
1.16
268
1.29
267
1.56
271
1.02
256
1.09
262
1.25
285
4.20
294
4.10
287
1.10
245
0.66
257
2.16
286
1.63
298
0.90
246
1.05
281
2.20
228
1.10
272
1.26
241
3.12
285
1.31
285
1.17
284
0.84
222
1.18
244
1.21
233
2.18
253
Ntrotwo views2.32
270
3.40
308
1.53
287
3.55
298
2.52
294
3.71
299
3.36
293
1.11
264
1.05
260
1.16
279
0.90
229
2.93
269
1.24
251
2.72
298
1.00
219
0.64
190
1.40
273
0.82
264
10.96
298
1.14
275
2.72
277
3.19
286
4.26
301
0.73
246
1.24
266
1.59
275
1.56
266
2.31
256
MSC_U_SF_DS_RVCtwo views1.67
258
1.25
275
1.05
262
1.56
273
1.08
264
1.20
261
3.18
292
1.50
280
2.10
292
1.30
289
0.98
237
1.50
241
1.04
240
1.66
288
1.71
265
1.18
275
0.84
236
1.01
277
6.24
279
1.15
278
1.43
248
3.23
287
1.19
277
1.14
281
1.52
279
1.29
256
1.09
218
2.78
268
MADNet+two views1.96
267
1.18
272
1.26
278
1.45
270
1.28
272
1.10
255
2.21
280
1.88
294
1.41
276
1.33
290
1.32
256
2.29
258
2.23
270
1.25
285
4.58
311
1.87
304
2.55
297
1.13
289
2.73
247
1.63
297
3.69
299
3.33
288
1.26
278
2.09
311
1.93
286
1.47
267
1.59
267
2.77
267
DispFullNettwo views4.17
295
3.20
302
4.34
316
2.72
284
2.46
293
2.92
286
2.70
286
2.79
311
1.90
288
4.51
322
6.62
313
8.91
309
4.83
287
2.59
292
2.00
278
8.18
319
3.24
302
1.98
309
24.96
313
2.93
314
3.99
301
3.36
289
1.71
288
1.15
282
1.36
273
1.32
260
2.36
289
3.65
282
ACVNet-4btwo views2.35
274
2.75
294
1.60
289
3.13
291
2.29
288
3.52
293
3.67
299
1.35
273
1.35
273
1.27
286
0.72
205
3.26
275
2.62
280
3.04
301
0.98
215
0.78
221
2.13
290
1.02
278
9.04
292
1.23
281
2.74
278
3.39
290
4.08
298
0.92
264
1.24
266
1.29
256
1.46
262
2.48
262
edge stereotwo views1.82
262
1.16
271
2.22
297
1.46
271
1.28
272
1.58
275
1.38
270
1.67
289
1.30
270
1.20
281
3.42
290
4.33
289
2.26
273
0.80
268
1.41
248
1.46
294
1.05
260
0.83
267
5.42
273
0.97
262
1.34
246
3.76
291
0.95
273
0.88
262
1.26
269
1.20
245
1.70
272
2.91
269
MaskLacGwcNet_RVCtwo views8.29
312
0.65
218
1.07
266
0.94
246
0.83
247
0.81
234
1.27
267
0.85
236
0.73
229
0.93
262
6.13
308
180.62
332
2.17
269
1.33
286
1.22
240
1.01
255
0.93
251
1.06
282
6.32
281
0.79
245
3.32
294
3.77
292
0.55
243
0.76
251
0.95
237
1.34
263
1.19
231
2.42
261
test-1two views0.84
210
0.34
57
0.50
188
0.37
131
0.40
164
0.60
198
0.37
168
0.73
201
0.38
170
0.68
208
0.71
200
1.08
220
0.40
177
0.25
130
0.79
166
0.91
235
0.63
184
0.58
208
2.22
229
0.58
198
1.17
236
3.78
293
0.22
130
0.36
170
0.81
213
1.15
242
1.10
221
1.59
233
FAT-Stereotwo views1.57
253
0.78
236
1.44
285
1.10
252
1.32
275
1.05
252
0.87
247
1.28
268
0.86
243
1.21
282
5.46
302
3.07
271
1.28
253
0.66
257
1.73
268
1.34
281
0.89
245
0.94
274
1.83
216
1.08
270
2.02
266
3.90
294
0.71
254
0.98
269
0.86
225
1.21
247
1.42
259
3.03
273
IMHtwo views3.24
289
2.76
295
2.37
302
3.26
294
2.74
299
3.73
300
4.10
304
1.72
291
2.58
299
1.17
280
1.24
250
3.92
283
10.58
304
6.80
319
1.57
260
1.11
268
2.25
293
1.30
296
6.28
280
1.56
294
2.97
284
4.14
295
4.90
310
1.45
296
3.01
300
2.36
292
2.47
292
5.19
294
RainbowNettwo views2.32
270
2.93
296
1.87
293
3.34
296
2.57
295
3.50
291
3.49
296
1.29
269
0.92
250
1.53
300
0.89
228
3.18
273
2.31
274
2.94
299
1.30
244
0.90
234
1.61
280
1.00
276
5.61
274
1.51
289
2.82
281
4.18
296
4.25
300
0.97
267
1.32
270
1.58
274
1.71
273
3.00
272
Deantwo views2.84
283
3.23
303
1.81
291
6.04
308
3.38
311
3.63
296
3.67
299
1.88
294
1.97
289
1.47
294
1.30
254
3.69
281
4.10
286
2.97
300
1.45
250
0.97
246
2.41
295
1.29
295
5.94
275
1.74
300
3.20
289
4.23
297
4.79
307
1.55
297
2.65
293
2.27
291
2.56
293
2.64
265
WAO-8two views4.25
296
3.34
305
2.80
305
10.32
314
2.92
303
4.17
305
5.89
307
2.66
309
4.45
311
1.69
305
3.41
288
5.94
295
11.31
306
5.29
314
1.71
265
1.34
281
2.69
299
1.51
304
10.78
296
2.48
309
2.63
275
4.50
298
3.44
296
1.58
298
5.12
310
3.31
305
3.60
305
5.76
296
Venustwo views4.25
296
3.34
305
2.80
305
10.32
314
2.92
303
4.17
305
5.89
307
2.66
309
4.45
311
1.69
305
3.41
288
5.94
295
11.31
306
5.29
314
1.71
265
1.34
281
2.69
299
1.51
304
10.78
296
2.48
309
2.63
275
4.50
298
3.44
296
1.58
298
5.12
310
3.31
305
3.60
305
5.76
296
WAO-6two views2.71
279
2.26
287
1.57
288
3.00
289
2.25
287
3.01
287
3.02
290
1.77
293
2.35
293
1.52
299
1.62
268
3.94
285
5.12
291
2.64
295
2.22
290
1.38
289
2.65
298
1.36
300
4.86
269
1.54
293
2.76
280
4.79
300
2.70
293
1.73
304
2.71
294
2.59
295
2.68
297
5.02
292
KSHMRtwo views8.16
311
4.16
311
2.96
309
25.39
322
3.92
312
5.08
312
5.53
306
2.62
307
2.40
295
2.23
314
2.26
279
4.37
290
77.17
331
5.23
313
2.24
291
1.71
299
2.79
301
1.98
309
31.04
316
2.02
303
4.59
308
5.35
301
7.54
321
1.89
310
3.30
301
2.91
299
3.01
301
6.51
301
TorneroNettwo views8.11
310
4.28
313
2.58
304
27.50
324
3.31
310
5.00
311
6.00
309
2.62
307
10.13
319
1.49
296
2.57
283
11.07
318
68.61
330
4.25
308
1.77
272
1.18
275
5.78
307
1.62
307
23.67
312
2.83
313
4.30
303
5.47
302
5.37
313
1.65
302
3.72
305
3.14
302
2.59
294
6.36
300
IMH-64-1two views2.92
284
2.70
291
2.36
300
3.23
292
2.71
297
3.70
297
4.05
302
1.66
286
2.48
296
1.13
275
1.26
252
3.60
279
6.29
297
3.59
304
2.28
295
1.15
271
2.20
291
1.31
297
6.02
276
1.52
291
3.03
285
5.48
303
4.83
308
1.40
292
2.83
296
2.02
286
2.34
286
3.64
280
IMH-64two views2.92
284
2.70
291
2.36
300
3.23
292
2.71
297
3.70
297
4.05
302
1.66
286
2.48
296
1.13
275
1.26
252
3.60
279
6.29
297
3.59
304
2.28
295
1.15
271
2.20
291
1.31
297
6.02
276
1.52
291
3.03
285
5.48
303
4.83
308
1.40
292
2.83
296
2.02
286
2.34
286
3.64
280
TorneroNet-64two views6.02
304
4.60
314
2.53
303
15.58
320
3.29
309
4.87
310
7.75
311
2.23
299
10.02
317
1.42
293
1.31
255
7.26
303
29.23
320
4.36
309
2.09
284
1.21
278
8.22
311
1.70
308
17.35
310
2.62
311
4.31
304
5.68
305
5.20
312
1.76
306
3.58
304
3.76
309
2.29
284
8.34
306
LVEtwo views4.33
298
3.03
298
2.00
295
27.23
323
3.06
306
3.83
302
12.07
322
1.53
281
1.64
283
1.85
309
1.48
263
3.30
276
3.91
285
3.06
302
1.45
250
1.05
260
1.95
287
1.38
302
15.68
308
1.62
296
3.25
292
5.86
306
4.42
303
1.76
306
2.87
298
2.06
288
2.34
286
3.25
276
notakertwo views5.52
301
5.55
318
3.76
314
13.97
319
5.34
316
5.44
316
7.16
310
2.36
301
2.68
302
2.06
311
1.80
273
12.90
320
23.86
316
3.98
307
2.04
279
1.73
300
3.45
304
2.12
312
17.08
309
2.15
304
6.10
314
5.87
307
6.15
318
2.12
312
1.79
283
2.08
289
2.31
285
3.29
278
LRCNet_RVCtwo views21.34
325
28.92
325
11.37
324
31.78
326
29.09
328
34.25
327
27.43
324
21.71
329
10.07
318
29.63
329
30.60
325
32.06
323
25.81
318
33.87
328
11.15
317
2.97
309
25.27
327
21.35
328
44.05
323
20.83
327
14.27
325
5.87
307
36.69
328
27.43
329
2.76
295
1.47
267
8.68
318
6.79
302
HBP-ISPtwo views1.60
254
0.86
253
0.90
250
0.98
247
0.69
228
0.85
236
0.56
203
0.89
241
0.48
197
0.82
251
0.79
215
0.97
207
0.36
164
0.69
261
11.97
320
5.83
316
0.70
210
0.67
232
0.70
135
0.62
220
1.05
227
5.90
309
0.50
226
0.62
233
0.82
216
1.01
226
2.01
281
1.06
202
UNDER WATERtwo views7.55
308
4.74
315
3.06
310
10.46
316
5.92
318
6.35
319
8.05
313
4.32
313
3.69
310
1.97
310
2.14
278
10.53
317
62.60
329
4.83
311
2.25
292
1.59
297
12.22
321
2.08
311
9.67
294
3.97
315
5.27
312
6.65
310
8.86
324
2.65
317
3.82
306
5.62
314
3.62
307
7.03
303
HanzoNettwo views19.12
324
15.23
321
6.99
322
35.06
327
14.35
325
40.77
328
42.46
327
17.81
327
22.51
325
3.55
319
8.29
317
41.30
326
56.30
328
43.04
330
5.72
313
4.37
315
37.83
329
3.30
317
49.59
325
8.93
322
10.30
322
6.85
311
14.15
326
3.46
319
5.94
313
5.80
315
5.29
315
7.13
304
UNDER WATER-64two views6.11
306
5.20
316
3.13
311
12.20
317
5.77
317
6.55
320
8.53
316
4.74
318
3.45
309
2.30
316
2.36
280
12.04
319
12.47
308
5.08
312
3.02
305
1.81
302
12.11
320
2.17
313
8.81
290
4.17
317
5.75
313
7.27
312
8.74
323
2.61
316
3.86
307
8.63
316
4.32
311
7.86
305
ELAS_RVCcopylefttwo views3.22
288
2.01
283
1.85
292
2.66
282
2.07
285
5.08
312
2.06
277
2.41
303
1.89
287
1.74
307
4.78
296
8.00
305
8.02
302
0.74
265
2.38
299
0.81
225
1.75
283
1.14
290
3.97
263
1.27
283
4.64
309
7.61
313
1.26
278
1.74
305
6.58
314
3.21
303
3.39
303
3.80
283
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views3.38
292
2.19
285
1.79
290
2.99
288
2.37
289
3.32
290
2.09
279
2.60
306
2.85
305
1.28
287
4.85
298
8.61
307
8.02
302
0.76
267
2.90
304
0.81
225
1.80
284
1.10
286
4.19
267
1.10
272
4.53
307
7.86
314
1.26
278
1.63
300
7.08
315
4.79
313
3.66
308
4.87
290
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
DPSNettwo views2.61
276
0.83
247
0.77
238
1.21
261
1.24
271
1.34
269
0.93
252
1.08
262
1.49
279
0.78
242
0.86
226
6.91
300
3.85
284
0.58
249
4.58
311
2.54
308
1.43
275
1.24
292
14.95
307
1.34
285
4.83
310
8.01
315
1.75
289
1.40
292
1.47
276
1.95
284
1.60
269
1.66
239
DGSMNettwo views2.66
278
0.96
259
1.36
284
1.03
249
0.99
256
1.12
257
1.05
259
1.36
274
0.94
255
2.15
312
13.54
323
1.71
251
1.85
265
0.93
277
2.50
302
3.85
313
5.34
306
1.61
306
5.07
270
1.68
299
7.04
315
8.02
316
0.96
274
1.19
285
1.01
249
1.33
261
1.40
257
1.88
243
MeshStereopermissivetwo views3.62
293
1.54
280
1.05
262
2.64
281
1.72
282
2.05
282
1.15
263
2.40
302
1.41
276
0.90
261
6.48
312
9.56
311
7.42
300
0.49
223
11.75
318
1.94
305
0.87
239
0.74
250
8.79
289
0.80
246
8.36
316
8.07
317
0.73
257
1.07
275
3.39
302
2.15
290
5.22
314
4.99
291
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
JetRedtwo views7.85
309
5.29
317
6.07
320
3.75
300
5.00
315
6.95
321
10.20
319
4.64
317
3.42
308
2.92
317
2.39
281
6.71
299
2.25
272
7.15
320
10.26
316
7.34
318
8.59
312
7.11
320
4.82
268
4.08
316
10.76
323
9.27
318
7.85
322
3.34
318
10.96
318
24.25
325
11.90
319
24.57
320
LSM0two views8.30
313
1.08
269
0.95
252
1.66
276
1.42
278
1.59
276
1.96
276
2.27
300
2.36
294
1.66
304
3.94
292
4.10
287
6.30
299
0.63
254
62.38
331
74.74
331
1.69
281
1.06
282
12.18
301
2.23
305
4.96
311
9.29
319
0.92
270
1.29
288
1.95
288
2.97
300
3.66
308
14.83
315
DPSimNet_ROBtwo views18.93
323
32.01
326
5.97
319
12.40
318
11.35
324
6.13
317
28.07
325
15.03
326
35.64
328
3.96
320
78.33
331
18.15
321
35.00
321
5.44
317
12.19
321
10.36
321
13.57
322
3.64
318
87.52
329
6.87
320
14.36
326
9.97
320
4.40
302
7.14
322
5.17
312
9.85
317
5.93
316
32.56
324
BEATNet-Init1two views22.01
326
36.32
328
3.23
312
54.74
331
11.23
323
52.95
332
28.72
326
9.47
321
8.51
316
1.57
301
10.45
322
33.05
324
48.98
325
0.71
263
16.97
324
11.50
322
1.60
279
1.11
288
77.80
328
35.27
329
9.94
321
9.98
321
1.27
282
2.30
315
27.41
324
11.09
318
52.85
331
35.36
327
JetBluetwo views6.09
305
3.85
310
3.31
313
5.99
307
4.13
313
6.22
318
7.94
312
3.42
312
2.89
306
1.47
294
1.46
262
8.10
306
1.90
266
5.39
316
11.86
319
3.22
310
3.30
303
2.99
316
5.32
271
2.40
308
9.74
319
10.03
322
4.93
311
2.18
313
7.39
316
17.16
321
3.72
310
24.15
319
PMLtwo views30.82
327
20.91
324
7.15
323
29.65
325
20.81
327
29.11
326
10.50
321
10.87
322
88.32
332
20.03
328
154.19
332
98.60
331
119.55
332
10.53
322
9.19
315
8.69
320
16.72
323
7.27
321
34.57
318
7.35
321
12.77
324
10.86
323
5.72
317
6.17
321
33.11
330
12.83
320
34.30
328
12.33
312
MADNet++two views5.64
302
3.51
309
3.77
315
2.84
286
4.62
314
3.02
288
3.65
298
4.36
314
5.03
313
4.18
321
5.07
300
6.45
297
5.92
296
6.18
318
7.04
314
6.82
317
4.71
305
4.00
319
8.03
286
5.83
318
9.92
320
16.38
324
2.32
291
4.34
320
3.95
308
11.38
319
4.93
312
4.01
285
DGTPSM_ROBtwo views12.12
317
5.96
319
17.45
325
4.20
302
7.86
319
5.15
314
8.18
314
4.56
315
11.64
321
4.52
323
8.72
318
5.01
292
17.08
313
12.98
323
14.91
322
14.58
323
6.85
308
15.76
323
12.78
302
12.05
323
9.07
317
21.74
325
5.67
315
11.54
324
11.84
319
31.02
328
12.98
320
33.06
325
DPSMNet_ROBtwo views12.40
318
5.97
320
17.46
326
4.21
303
7.87
320
5.15
314
8.18
314
4.56
315
11.65
322
4.54
324
8.87
319
5.17
293
22.69
314
13.00
324
14.98
323
14.62
324
6.90
309
15.82
324
14.07
306
12.05
323
9.09
318
21.75
326
5.68
316
11.54
324
11.87
320
31.03
329
12.99
321
33.06
325
DPSM_ROBtwo views18.32
321
16.26
322
21.94
327
9.42
312
8.75
321
13.61
323
9.11
317
10.90
323
15.09
323
8.45
325
8.95
320
10.12
314
13.19
310
16.42
325
19.79
325
19.11
325
18.35
324
20.45
326
13.82
304
14.88
325
26.56
327
27.45
327
6.49
319
14.39
327
31.57
328
38.83
330
36.85
329
43.86
330
DPSMtwo views18.32
321
16.26
322
21.94
327
9.42
312
8.75
321
13.61
323
9.11
317
10.90
323
15.09
323
8.45
325
8.95
320
10.12
314
13.19
310
16.42
325
19.79
325
19.11
325
18.35
324
20.45
326
13.82
304
14.88
325
26.56
327
27.45
327
6.49
319
14.39
327
31.57
328
38.83
330
36.85
329
43.86
330
HaxPigtwo views41.43
329
43.85
329
40.81
329
44.90
328
47.49
330
44.66
329
46.30
329
46.31
330
45.63
330
49.00
330
49.30
327
47.24
328
43.73
323
42.64
329
40.44
329
39.13
329
48.37
330
51.07
330
43.33
321
42.25
330
42.88
329
36.52
329
50.75
330
43.02
332
27.54
325
19.97
323
20.68
323
20.75
318
AVERAGE_ROBtwo views41.98
330
44.82
330
42.27
330
45.98
329
46.88
329
45.60
330
46.56
330
47.04
331
43.89
329
49.19
331
49.91
328
47.25
329
43.00
322
49.19
331
40.14
328
38.38
328
49.01
331
51.31
331
43.98
322
42.43
331
43.31
330
38.64
330
49.42
329
42.83
331
28.65
326
20.44
324
23.41
325
19.88
317
MEDIAN_ROBtwo views44.95
331
47.36
331
44.12
331
48.52
330
49.78
331
48.21
331
49.25
331
49.72
332
46.35
331
52.53
332
53.59
329
50.59
330
45.49
324
49.36
332
43.27
330
41.36
330
51.85
332
54.40
332
47.03
324
45.93
332
45.78
331
40.06
331
52.67
331
45.67
333
31.00
327
26.54
327
25.33
326
27.95
323
CasAABBNettwo views36.73
328
32.73
327
44.18
332
18.81
321
17.45
326
27.29
325
18.12
323
21.69
328
30.40
327
17.52
327
18.08
324
20.27
322
26.53
319
32.96
327
38.28
327
37.42
327
36.82
328
41.12
329
27.47
314
29.86
328
53.56
332
55.70
332
12.93
325
28.91
330
63.44
331
78.07
332
73.93
332
88.05
332
ASD4two views8.34
323