This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort by
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
29
0.13
11
0.06
2
0.11
6
0.09
10
0.10
2
0.07
7
0.06
9
0.16
3
0.16
2
0.19
2
0.11
1
0.18
3
0.09
1
0.17
1
0.11
1
0.08
13
0.07
4
0.14
2
0.12
2
0.24
15
0.12
5
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
11
0.12
23
0.11
6
0.14
19
0.16
11
0.07
7
0.06
9
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
1
0.13
6
0.06
3
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
CroCo-Stereo Lap2two views0.14
11
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
6
0.06
2
0.22
37
0.07
5
0.16
11
0.07
7
0.04
1
0.20
13
0.26
24
0.22
9
0.19
14
0.26
28
0.11
2
0.28
30
0.16
10
0.06
3
0.08
7
0.22
26
0.23
37
0.20
7
0.16
19
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
16
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
23
0.26
24
0.20
4
0.18
10
0.20
9
0.11
2
0.24
18
0.15
9
0.05
1
0.06
1
0.22
26
0.20
21
0.23
12
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
23
0.09
10
0.17
18
0.06
1
0.05
4
0.16
3
0.18
4
0.22
9
0.19
14
0.22
14
0.12
5
0.23
12
0.11
1
0.06
3
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
18
0.07
5
0.16
11
0.06
1
0.05
4
0.17
5
0.18
4
0.22
9
0.19
14
0.19
6
0.12
5
0.21
9
0.12
5
0.06
3
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
29
0.14
30
0.15
18
0.06
3
0.13
6
0.06
1
0.07
15
0.15
1
0.15
1
0.23
15
0.15
4
0.21
11
0.12
5
0.18
4
0.18
16
0.08
13
0.08
7
0.15
4
0.11
1
0.28
23
0.15
13
CoSvtwo views0.13
5
0.17
23
0.08
4
0.08
8
0.07
7
0.17
40
0.07
20
0.15
18
0.10
14
0.13
12
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
7
0.21
7
0.12
2
0.22
14
0.12
5
0.20
6
0.11
1
0.06
3
0.07
4
0.22
26
0.15
10
0.19
5
0.11
1
111111two views0.13
5
0.16
19
0.08
4
0.12
19
0.10
21
0.07
3
0.06
15
0.12
6
0.12
23
0.07
1
0.10
15
0.15
9
0.09
18
0.05
4
0.19
10
0.21
10
0.22
9
0.18
10
0.19
6
0.13
9
0.23
12
0.18
16
0.10
30
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
GREAT-IGEVtwo views0.15
14
0.15
16
0.11
21
0.08
8
0.06
4
0.08
7
0.05
6
0.16
23
0.10
14
0.12
9
0.13
17
0.25
32
0.09
18
0.08
22
0.22
18
0.25
20
0.24
21
0.16
6
0.23
18
0.13
9
0.18
4
0.16
10
0.09
22
0.10
17
0.15
4
0.16
11
0.31
30
0.13
9
RAFTtwo views0.17
24
0.13
11
0.10
16
0.16
34
0.07
7
0.21
54
0.05
6
0.25
35
0.12
23
0.14
14
0.15
22
0.16
11
0.10
23
0.05
4
0.21
16
0.20
7
0.23
15
0.15
4
0.28
30
0.13
9
0.21
9
0.17
12
0.07
10
0.10
17
0.26
30
0.24
41
0.33
33
0.23
32
LG-Stereotwo views0.15
14
0.11
8
0.08
4
0.09
12
0.11
26
0.11
18
0.05
6
0.15
18
0.11
16
0.19
30
0.12
16
0.26
33
0.09
18
0.06
9
0.19
10
0.20
7
0.23
15
0.16
6
0.18
3
0.14
12
0.23
12
0.20
23
0.05
1
0.08
7
0.17
13
0.18
17
0.24
15
0.15
13
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
18
0.11
16
0.16
23
0.07
5
0.15
9
0.06
1
0.07
15
0.17
5
0.18
4
0.23
15
0.17
9
0.22
14
0.14
12
0.20
6
0.14
7
0.08
13
0.08
7
0.16
8
0.13
5
0.25
17
0.15
13
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
18
0.04
1
0.17
26
0.13
27
0.15
18
0.16
27
0.19
25
0.08
13
0.09
28
0.18
9
0.22
13
0.19
2
0.16
6
0.15
1
0.14
12
0.17
1
0.14
7
0.08
13
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
MoCha-V2two views0.14
11
0.15
16
0.11
21
0.12
19
0.09
17
0.11
18
0.09
36
0.13
11
0.08
7
0.13
12
0.18
34
0.17
18
0.07
7
0.07
15
0.17
5
0.23
16
0.20
4
0.20
17
0.25
24
0.14
12
0.29
34
0.17
12
0.08
13
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
ProNettwo views0.14
11
0.13
11
0.14
31
0.11
17
0.07
7
0.14
28
0.12
51
0.13
11
0.06
2
0.08
2
0.24
59
0.09
1
0.06
1
0.07
15
0.22
18
0.21
10
0.22
9
0.18
10
0.19
6
0.14
12
0.20
6
0.11
1
0.12
40
0.11
25
0.16
8
0.13
5
0.17
4
0.12
5
MSCFtwo views0.16
20
0.15
16
0.09
14
0.14
26
0.09
17
0.11
18
0.07
20
0.11
2
0.15
35
0.14
14
0.09
10
0.17
18
0.11
28
0.06
9
0.25
26
0.23
16
0.23
15
0.20
17
0.23
18
0.15
17
0.24
18
0.21
28
0.11
36
0.10
17
0.19
17
0.22
29
0.27
21
0.15
13
RAStereotwo views0.19
30
0.16
19
0.10
16
0.08
8
0.07
7
0.09
11
0.06
15
0.21
31
0.09
10
0.45
72
0.09
10
0.26
33
0.08
13
0.07
15
0.25
26
0.26
24
0.28
30
0.25
34
0.33
39
0.15
17
0.35
42
0.18
16
0.08
13
0.10
17
0.28
39
0.23
37
0.25
17
0.24
35
SM2two views0.24
34
0.35
72
0.15
34
0.23
69
0.20
62
0.14
28
0.10
42
0.26
37
0.23
62
0.35
50
0.24
59
0.34
46
0.15
44
0.13
42
0.22
18
0.32
48
0.26
26
0.20
17
0.25
24
0.16
19
0.26
23
0.27
44
0.09
22
0.13
31
0.37
82
0.31
60
0.35
40
0.42
81
AdaDepthtwo views0.18
27
0.19
27
0.10
16
0.12
19
0.14
35
0.12
23
0.09
36
0.16
23
0.14
30
0.14
14
0.17
31
0.19
25
0.10
23
0.08
22
0.26
32
0.29
36
0.28
30
0.23
30
0.25
24
0.16
19
0.24
18
0.20
23
0.09
22
0.11
25
0.19
17
0.20
21
0.32
31
0.25
36
GASTEREOtwo views0.16
20
0.16
19
0.10
16
0.14
26
0.10
21
0.11
18
0.07
20
0.12
6
0.15
35
0.14
14
0.09
10
0.18
23
0.11
28
0.06
9
0.24
23
0.24
19
0.23
15
0.20
17
0.23
18
0.16
19
0.23
12
0.23
36
0.11
36
0.10
17
0.19
17
0.22
29
0.28
23
0.14
10
IGEV-Stereo++two views0.16
20
0.24
37
0.09
14
0.13
22
0.13
28
0.10
16
0.05
6
0.15
18
0.13
27
0.12
9
0.16
27
0.16
11
0.11
28
0.07
15
0.21
16
0.22
13
0.22
9
0.18
10
0.21
11
0.16
19
0.22
11
0.27
44
0.09
22
0.08
7
0.17
13
0.18
17
0.25
17
0.18
24
StereoVisiontwo views0.18
27
0.13
11
0.11
21
0.09
12
0.14
35
0.16
35
0.08
29
0.17
26
0.17
37
0.15
18
0.15
22
0.16
11
0.10
23
0.06
9
0.25
26
0.26
24
0.27
28
0.22
27
0.22
14
0.16
19
0.23
12
0.17
12
0.06
3
0.13
31
0.28
39
0.29
53
0.38
47
0.28
42
Utwo views0.15
14
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
23
0.06
2
0.15
18
0.04
2
0.17
18
0.07
7
0.05
4
0.22
18
0.28
31
0.26
26
0.23
30
0.27
29
0.17
24
0.28
30
0.19
20
0.06
3
0.08
7
0.26
30
0.23
37
0.23
12
0.20
27
AIO-Stereopermissivetwo views0.15
14
0.17
23
0.12
25
0.17
41
0.10
21
0.12
23
0.06
15
0.11
2
0.08
7
0.10
4
0.14
19
0.12
4
0.09
18
0.08
22
0.20
13
0.21
10
0.20
4
0.20
17
0.21
11
0.17
24
0.23
12
0.20
23
0.07
10
0.11
25
0.17
13
0.16
11
0.23
12
0.12
5
RSMtwo views0.15
14
0.16
19
0.12
25
0.14
26
0.09
17
0.14
28
0.06
15
0.10
1
0.08
7
0.09
3
0.15
22
0.14
8
0.10
23
0.07
15
0.22
18
0.25
20
0.21
7
0.20
17
0.18
3
0.17
24
0.25
21
0.18
16
0.08
13
0.10
17
0.16
8
0.16
11
0.27
21
0.15
13
LG-Stereo_L1two views0.27
46
0.30
53
0.17
43
0.13
22
0.13
28
0.15
33
0.08
29
0.42
60
0.21
53
0.49
94
0.20
43
0.39
64
0.15
44
0.15
51
0.30
45
0.38
66
0.39
58
0.29
49
0.40
49
0.18
27
0.47
86
0.35
61
0.08
13
0.14
35
0.30
49
0.21
27
0.37
46
0.36
63
MLG-Stereo_test3two views0.23
33
0.17
23
0.13
28
0.14
26
0.17
49
0.16
35
0.09
36
0.21
31
0.12
23
0.21
34
0.18
34
0.35
48
0.11
28
0.15
51
0.29
39
0.26
24
0.33
37
0.28
41
0.63
122
0.18
27
0.40
52
0.41
84
0.11
36
0.15
39
0.21
25
0.21
27
0.33
33
0.27
40
MLG-Stereo_test2two views0.16
20
0.12
10
0.10
16
0.10
14
0.08
14
0.09
11
0.05
6
0.18
28
0.11
16
0.20
31
0.07
5
0.23
30
0.08
13
0.08
22
0.19
10
0.23
16
0.30
32
0.25
34
0.31
34
0.18
27
0.28
30
0.17
12
0.09
22
0.08
7
0.20
21
0.16
11
0.29
26
0.21
29
MM-Stereo_test2two views0.15
14
0.19
27
0.11
21
0.16
34
0.11
26
0.08
7
0.05
6
0.14
16
0.11
16
0.20
31
0.08
9
0.12
4
0.08
13
0.09
28
0.20
13
0.22
13
0.25
22
0.20
17
0.20
9
0.18
27
0.25
21
0.21
28
0.10
30
0.10
17
0.16
8
0.16
11
0.21
9
0.16
19
RSM++two views0.17
24
0.18
26
0.13
28
0.17
41
0.10
21
0.14
28
0.07
20
0.13
11
0.13
27
0.12
9
0.14
19
0.17
18
0.11
28
0.08
22
0.25
26
0.27
30
0.25
22
0.21
25
0.23
18
0.18
27
0.26
23
0.21
28
0.08
13
0.10
17
0.20
21
0.18
17
0.29
26
0.18
24
AEACVtwo views0.19
30
0.31
55
0.14
31
0.17
41
0.13
28
0.12
23
0.07
20
0.15
18
0.07
6
0.16
23
0.15
22
0.18
23
0.11
28
0.11
35
0.25
26
0.25
20
0.32
34
0.23
30
0.35
43
0.18
27
0.27
26
0.22
35
0.11
36
0.11
25
0.20
21
0.22
29
0.25
17
0.18
24
RAFT_CTSACEtwo views0.30
59
0.37
78
0.15
34
0.15
30
0.15
41
0.25
80
0.18
92
0.53
89
0.20
49
0.55
127
0.18
34
0.44
82
0.29
109
0.16
59
0.29
39
0.30
41
0.37
49
0.27
38
0.37
45
0.18
27
0.38
47
0.45
108
0.10
30
0.17
49
0.30
49
0.31
60
0.60
107
0.26
39
LG-Stereo_L2two views0.26
41
0.31
55
0.17
43
0.13
22
0.13
28
0.14
28
0.07
20
0.42
60
0.20
49
0.48
85
0.22
51
0.40
65
0.14
38
0.17
63
0.30
45
0.37
63
0.39
58
0.28
41
0.40
49
0.19
34
0.45
72
0.35
61
0.09
22
0.14
35
0.30
49
0.22
29
0.33
33
0.33
55
YMNettwo views0.30
59
0.31
55
0.23
84
0.27
89
0.23
74
0.26
82
0.25
135
0.36
47
0.37
172
0.25
41
0.19
38
0.40
65
0.27
102
0.29
164
0.38
61
0.47
126
0.37
49
0.28
41
0.43
58
0.19
34
0.35
42
0.33
56
0.16
62
0.19
55
0.36
80
0.29
53
0.39
49
0.35
60
GIP-stereotwo views0.17
24
0.21
32
0.13
28
0.15
30
0.09
17
0.09
11
0.07
20
0.12
6
0.09
10
0.16
23
0.13
17
0.16
11
0.08
13
0.15
51
0.27
34
0.25
20
0.25
22
0.21
25
0.24
22
0.19
34
0.27
26
0.20
23
0.07
10
0.11
25
0.20
21
0.22
29
0.35
40
0.17
21
Occ-Gtwo views0.18
27
0.26
43
0.15
34
0.17
41
0.14
35
0.15
33
0.07
20
0.12
6
0.11
16
0.11
6
0.22
51
0.20
28
0.09
18
0.10
31
0.28
38
0.28
31
0.25
22
0.22
27
0.29
32
0.19
34
0.26
23
0.19
20
0.10
30
0.15
39
0.19
17
0.18
17
0.29
26
0.17
21
HCRNettwo views0.32
66
0.38
86
0.20
57
0.39
143
0.17
49
0.29
97
0.18
92
0.40
54
0.18
41
0.80
253
0.40
116
0.49
98
0.18
57
0.22
96
0.38
61
0.30
41
0.38
53
0.29
49
0.40
49
0.19
34
0.33
39
0.23
36
0.19
98
0.16
47
0.26
30
0.31
60
0.51
70
0.31
48
RYNettwo views0.27
46
0.23
35
0.18
49
0.15
30
0.17
49
0.19
49
0.13
55
0.25
35
0.31
135
0.17
28
0.20
43
0.19
25
0.14
38
0.13
42
0.80
175
0.28
31
0.27
28
0.41
109
0.28
30
0.19
34
0.27
26
0.21
28
0.29
177
0.18
52
0.27
35
0.76
183
0.34
37
0.23
32
AIO_rvctwo views0.25
37
0.34
62
0.16
38
0.19
48
0.15
41
0.18
44
0.11
46
0.39
53
0.22
57
0.30
45
0.16
27
0.32
41
0.12
34
0.18
66
0.27
34
0.26
24
0.33
37
0.22
27
0.38
46
0.20
40
0.42
60
0.44
104
0.13
48
0.14
35
0.28
39
0.22
29
0.33
33
0.21
29
MaDis-Stereotwo views0.26
41
0.20
31
0.16
38
0.10
14
0.10
21
0.10
16
0.08
29
0.24
34
0.14
30
0.36
52
0.16
27
0.36
56
0.12
34
0.08
22
0.33
53
0.35
53
0.39
58
0.35
77
0.53
85
0.20
40
0.40
52
0.26
41
0.13
48
0.15
39
0.39
90
0.39
94
0.40
53
0.49
95
test_5two views0.29
55
0.39
91
0.16
38
0.22
56
0.15
41
0.21
54
0.13
55
0.54
94
0.20
49
0.38
57
0.19
38
0.44
82
0.34
158
0.10
31
0.43
80
0.38
66
0.33
37
0.32
55
0.33
39
0.20
40
0.32
36
0.35
61
0.09
22
0.21
62
0.28
39
0.30
56
0.51
70
0.32
52
DFGA-Nettwo views0.28
51
0.37
78
0.16
38
0.26
84
0.15
41
0.22
60
0.15
75
0.40
54
0.21
53
0.41
59
0.24
59
0.31
40
0.17
53
0.13
42
0.42
78
0.39
70
0.38
53
0.30
52
0.42
56
0.21
43
0.36
46
0.29
49
0.13
48
0.21
62
0.31
59
0.27
48
0.51
70
0.28
42
AIO_testtwo views0.27
46
0.39
91
0.19
51
0.29
97
0.19
56
0.18
44
0.14
68
0.42
60
0.23
62
0.33
49
0.19
38
0.37
58
0.18
57
0.18
66
0.25
26
0.29
36
0.34
41
0.24
33
0.39
47
0.21
43
0.49
96
0.46
113
0.13
48
0.15
39
0.30
49
0.28
51
0.41
54
0.21
29
TDLMtwo views0.24
34
0.29
49
0.22
79
0.22
56
0.27
104
0.23
72
0.18
92
0.26
37
0.19
46
0.18
29
0.38
107
0.29
37
0.21
74
0.15
51
0.24
23
0.28
31
0.32
34
0.28
41
0.25
24
0.21
43
0.28
30
0.19
20
0.16
62
0.21
62
0.24
29
0.20
21
0.28
23
0.25
36
SGD-Stereotwo views0.29
55
0.24
37
0.17
43
0.16
34
0.15
41
0.22
60
0.08
29
0.29
42
0.22
57
0.29
43
0.15
22
0.45
86
0.20
66
0.10
31
0.71
162
0.45
106
0.46
76
0.27
38
0.47
62
0.22
46
0.41
54
0.36
65
0.19
98
0.19
55
0.28
39
0.32
66
0.46
61
0.40
74
DEFOM-Stereotwo views0.21
32
0.19
27
0.12
25
0.18
46
0.13
28
0.20
52
0.08
29
0.19
29
0.14
30
0.16
23
0.23
54
0.21
29
0.10
23
0.12
39
0.27
34
0.29
36
0.34
41
0.28
41
0.32
36
0.22
46
0.32
36
0.21
28
0.12
40
0.11
25
0.26
30
0.22
29
0.47
63
0.29
44
anonymousdsptwo views0.25
37
0.23
35
0.19
51
0.16
34
0.14
35
0.18
44
0.10
42
0.37
50
0.19
46
0.32
48
0.22
51
0.32
41
0.12
34
0.14
47
0.29
39
0.32
48
0.32
34
0.28
41
0.39
47
0.22
46
0.46
79
0.31
53
0.12
40
0.15
39
0.26
30
0.20
21
0.52
81
0.20
27
iRaftStereo_RVCtwo views0.26
41
0.27
45
0.16
38
0.13
22
0.14
35
0.18
44
0.09
36
0.44
65
0.14
30
0.36
52
0.36
98
0.32
41
0.16
49
0.13
42
0.29
39
0.29
36
0.38
53
0.28
41
0.34
42
0.22
46
0.41
54
0.38
71
0.12
40
0.17
49
0.27
35
0.29
53
0.42
55
0.27
40
GANettwo views0.32
66
0.29
49
0.27
97
0.34
121
0.33
133
0.38
137
0.29
153
0.44
65
0.24
73
0.35
50
0.30
80
0.46
88
0.22
78
0.21
90
0.31
49
0.32
48
0.40
61
0.43
122
0.33
39
0.22
46
0.33
39
0.29
49
0.22
136
0.24
97
0.31
59
0.27
48
0.42
55
0.34
57
MStwo views0.26
41
0.25
40
0.17
43
0.16
34
0.15
41
0.12
23
0.14
68
0.38
52
0.21
53
0.46
75
0.17
31
0.37
58
0.16
49
0.15
51
0.35
57
0.42
82
0.37
49
0.32
55
0.31
34
0.23
51
0.39
49
0.38
71
0.16
62
0.14
35
0.28
39
0.23
37
0.35
40
0.31
48
RAFT+CT+SAtwo views0.32
66
0.46
139
0.20
57
0.26
84
0.18
53
0.22
60
0.15
75
0.58
113
0.23
62
0.52
108
0.17
31
0.46
88
0.33
146
0.12
39
0.33
53
0.43
90
0.36
47
0.30
52
0.45
60
0.23
51
0.45
72
0.49
125
0.09
22
0.22
76
0.32
64
0.31
60
0.53
85
0.35
60
ARAFTtwo views0.34
73
0.38
86
0.23
84
0.26
84
0.21
66
0.27
87
0.14
68
0.44
65
0.24
73
0.50
96
0.30
80
0.41
72
0.16
49
0.15
51
0.67
148
0.42
82
0.50
99
0.47
154
0.51
72
0.23
51
0.53
123
0.32
55
0.16
62
0.19
55
0.43
99
0.30
56
0.52
81
0.37
64
AFF-stereotwo views0.30
59
0.34
62
0.26
95
0.18
46
0.17
49
0.33
114
0.11
46
0.50
81
0.23
62
0.46
75
0.28
72
0.40
65
0.16
49
0.12
39
0.27
34
0.35
53
0.37
49
0.25
34
0.57
104
0.23
51
0.38
47
0.25
39
0.17
78
0.17
49
0.37
82
0.37
87
0.48
66
0.32
52
RAFT + AFFtwo views0.27
46
0.26
43
0.17
43
0.21
53
0.13
28
0.19
49
0.13
55
0.41
56
0.18
41
0.44
70
0.19
38
0.42
74
0.14
38
0.09
28
0.86
193
0.29
36
0.41
64
0.20
17
0.55
94
0.23
51
0.47
86
0.21
28
0.12
40
0.15
39
0.28
39
0.20
21
0.21
9
0.17
21
LG-G_1two views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
LG-Gtwo views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
IGEV-Stereo+two views0.27
46
0.25
40
0.14
31
0.22
56
0.14
35
0.13
27
0.07
20
0.36
47
0.20
49
0.55
127
0.23
54
0.38
61
0.14
38
0.16
59
0.26
32
0.35
53
0.40
61
0.35
77
0.48
65
0.24
56
0.44
68
0.51
137
0.12
40
0.13
31
0.28
39
0.20
21
0.34
37
0.23
32
plaintwo views0.31
64
0.43
114
0.20
57
0.20
52
0.16
47
0.20
52
0.10
42
0.41
56
0.18
41
0.48
85
0.19
38
0.34
46
0.17
53
0.10
31
0.41
72
0.44
95
0.45
71
0.40
104
0.55
94
0.24
56
0.41
54
0.34
59
0.14
56
0.21
62
0.32
64
0.33
71
0.39
49
0.48
93
TESTrafttwo views0.37
78
0.46
139
0.21
70
0.21
53
0.23
74
0.21
54
0.16
84
0.54
94
0.31
135
0.51
101
0.23
54
0.36
56
0.36
170
0.11
35
0.85
191
0.48
132
0.45
71
0.32
55
0.48
65
0.24
56
0.46
79
0.65
171
0.12
40
0.23
88
0.37
82
0.43
102
0.57
91
0.39
69
delettwo views0.24
34
0.25
40
0.22
79
0.24
74
0.20
62
0.28
94
0.16
84
0.21
31
0.18
41
0.23
39
0.26
66
0.26
33
0.15
44
0.25
136
0.32
52
0.28
31
0.31
33
0.27
38
0.24
22
0.24
56
0.31
35
0.20
23
0.16
62
0.19
55
0.28
39
0.25
45
0.32
31
0.31
48
LGtest1two views0.26
41
0.19
27
0.20
57
0.16
34
0.18
53
0.16
35
0.09
36
0.28
39
0.17
37
0.22
37
0.27
69
0.29
37
0.13
37
0.14
47
0.30
45
0.31
45
0.38
53
0.33
64
0.49
67
0.25
62
0.41
54
0.41
84
0.13
48
0.16
47
0.30
49
0.24
41
0.39
49
0.31
48
HUFtwo views0.29
55
0.34
62
0.20
57
0.22
56
0.21
66
0.19
49
0.11
46
0.51
83
0.22
57
0.42
61
0.18
34
0.35
48
0.22
78
0.19
73
0.30
45
0.32
48
0.38
53
0.26
37
0.52
77
0.25
62
0.52
116
0.43
98
0.16
62
0.18
52
0.30
49
0.22
29
0.38
47
0.29
44
MIF-Stereo (partial)two views0.30
59
0.44
119
0.18
49
0.16
34
0.16
47
0.21
54
0.11
46
0.37
50
0.22
57
0.37
55
0.24
59
0.32
41
0.17
53
0.13
42
0.39
64
0.45
106
0.46
76
0.38
90
0.42
56
0.25
62
0.43
62
0.35
61
0.18
90
0.21
62
0.35
79
0.32
66
0.50
69
0.44
86
UniTT-Stereotwo views0.28
51
0.27
45
0.15
34
0.15
30
0.13
28
0.17
40
0.09
36
0.35
46
0.19
46
0.49
94
0.21
47
0.41
72
0.18
57
0.14
47
0.40
66
0.39
70
0.42
66
0.34
68
0.56
100
0.25
62
0.43
62
0.24
38
0.13
48
0.19
55
0.31
59
0.41
99
0.30
29
0.37
64
TestStereo1two views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
SA-5Ktwo views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
CVANet_RVCtwo views0.31
64
0.40
98
0.30
107
0.40
149
0.29
116
0.37
132
0.23
127
0.41
56
0.23
62
0.31
46
0.49
137
0.37
58
0.26
95
0.19
73
0.29
39
0.33
52
0.34
41
0.32
55
0.32
36
0.25
62
0.34
41
0.25
39
0.18
90
0.25
107
0.30
49
0.25
45
0.34
37
0.30
46
IGEV-BASED-STEREO-two views0.30
59
0.24
37
0.17
43
0.23
69
0.19
56
0.18
44
0.08
29
0.49
80
0.25
79
0.54
120
0.21
47
0.32
41
0.17
53
0.17
63
0.29
39
0.39
70
0.45
71
0.36
81
0.50
69
0.26
69
0.56
133
0.49
125
0.13
48
0.13
31
0.31
59
0.26
47
0.45
59
0.30
46
CAStwo views0.38
80
0.45
127
0.25
92
0.29
97
0.29
116
0.23
72
0.13
55
0.41
56
0.27
95
0.41
59
0.54
161
0.35
48
0.35
165
0.21
90
0.52
98
0.38
66
0.50
99
0.34
68
0.52
77
0.26
69
0.43
62
0.41
84
0.19
98
0.23
88
0.51
128
0.52
139
0.62
113
0.77
178
raft+_RVCtwo views0.35
76
0.34
62
0.26
95
0.25
80
0.23
74
0.25
80
0.18
92
0.54
94
0.26
89
0.52
108
0.43
121
0.46
88
0.23
84
0.18
66
0.42
78
0.38
66
0.43
67
0.34
68
0.61
120
0.26
69
0.43
62
0.38
71
0.13
48
0.20
60
0.39
90
0.39
94
0.58
99
0.42
81
DEFOM-Stereo_RVCtwo views0.33
71
0.36
76
0.20
57
0.23
69
0.20
62
0.17
40
0.10
42
0.48
78
0.23
62
0.55
127
0.32
85
0.40
65
0.19
63
0.15
51
0.48
92
0.36
59
0.47
86
0.33
64
0.51
72
0.27
72
0.50
100
0.42
91
0.16
62
0.18
52
0.30
49
0.31
60
0.48
66
0.53
112
CASnettwo views0.40
86
0.52
190
0.23
84
0.27
89
0.27
104
0.30
103
0.14
68
0.62
140
0.29
109
0.61
167
0.44
124
0.64
150
0.28
107
0.23
109
0.55
101
0.36
59
0.45
71
0.31
54
0.73
146
0.27
72
0.63
158
0.39
78
0.21
123
0.24
97
0.42
97
0.32
66
0.61
110
0.56
123
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MMNettwo views0.29
55
0.29
49
0.22
79
0.26
84
0.26
94
0.26
82
0.18
92
0.33
45
0.23
62
0.24
40
0.28
72
0.35
48
0.15
44
0.32
181
0.39
64
0.31
45
0.36
47
0.34
68
0.41
52
0.27
72
0.32
36
0.21
28
0.17
78
0.23
88
0.32
64
0.30
56
0.46
61
0.32
52
S2M2_XLtwo views0.33
71
0.30
53
0.30
107
0.17
41
0.19
56
0.23
72
0.21
111
0.53
89
0.26
89
0.47
79
0.25
63
0.48
94
0.18
57
0.22
96
0.38
61
0.36
59
0.54
125
0.29
49
0.41
52
0.28
75
0.50
100
0.31
53
0.21
123
0.21
62
0.34
69
0.32
66
0.45
59
0.51
106
MIM_Stereotwo views0.32
66
0.40
98
0.25
92
0.28
92
0.20
62
0.27
87
0.14
68
0.45
71
0.18
41
0.48
85
0.25
63
0.42
74
0.18
57
0.16
59
0.36
58
0.42
82
0.44
68
0.36
81
0.47
62
0.28
75
0.47
86
0.36
65
0.12
40
0.23
88
0.29
48
0.27
48
0.47
63
0.33
55
AASNettwo views0.28
51
0.34
62
0.22
79
0.25
80
0.26
94
0.34
121
0.25
135
0.32
44
0.17
37
0.29
43
0.36
98
0.26
33
0.18
57
0.24
120
0.36
58
0.31
45
0.34
41
0.32
55
0.32
36
0.28
75
0.35
42
0.28
48
0.17
78
0.22
76
0.30
49
0.28
51
0.35
40
0.25
36
RAFT-Stereo + iAFFtwo views0.35
76
0.41
102
0.32
115
0.24
74
0.19
56
0.28
94
0.13
55
0.58
113
0.24
73
0.46
75
0.35
97
0.49
98
0.19
63
0.15
51
0.34
56
0.35
53
0.41
64
0.28
41
0.65
127
0.28
75
0.44
68
0.33
56
0.19
98
0.22
76
0.51
128
0.37
87
0.58
99
0.44
86
DMCAtwo views0.32
66
0.31
55
0.30
107
0.24
74
0.25
84
0.27
87
0.22
117
0.36
47
0.33
148
0.31
46
0.40
116
0.40
65
0.23
84
0.25
136
0.41
72
0.37
63
0.40
61
0.39
92
0.36
44
0.28
75
0.41
54
0.27
44
0.25
157
0.25
107
0.31
59
0.35
76
0.39
49
0.37
64
SAtwo views0.42
95
0.47
146
0.21
70
0.25
80
0.23
74
0.31
104
0.13
55
0.64
161
0.32
143
0.61
167
0.26
66
0.54
115
0.21
74
0.16
59
0.63
133
0.47
126
0.52
114
0.41
109
0.60
116
0.29
80
0.46
79
0.61
162
0.15
58
0.27
116
0.45
105
0.58
152
0.96
204
0.47
91
test_4two views0.34
73
0.33
59
0.27
97
0.21
53
0.18
53
0.16
35
0.11
46
0.59
120
0.26
89
0.58
152
0.25
63
0.50
104
0.20
66
0.19
73
0.33
53
0.40
74
0.45
71
0.34
68
0.41
52
0.29
80
0.45
72
0.41
84
0.16
62
0.24
97
0.38
87
0.40
98
0.59
106
0.42
81
AANet_RVCtwo views0.28
51
0.27
45
0.23
84
0.19
48
0.28
109
0.16
35
0.16
84
0.29
42
0.30
117
0.20
31
0.27
69
0.24
31
0.21
74
0.19
73
0.45
82
0.36
59
0.33
37
0.34
68
0.29
32
0.29
80
0.27
26
0.27
44
0.22
136
0.21
62
0.34
69
0.33
71
0.42
55
0.52
108
HITNettwo views0.38
80
0.37
78
0.28
99
0.34
121
0.29
116
0.26
82
0.19
103
0.58
113
0.32
143
0.57
140
0.45
127
0.55
121
0.30
119
0.22
96
0.51
96
0.35
53
0.44
68
0.39
92
0.41
52
0.29
80
0.41
54
0.38
71
0.20
114
0.25
107
0.39
90
0.37
87
0.70
141
0.52
108
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
LoS_RVCtwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
tt_lltwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
AnonymousMtwo views0.79
212
0.34
62
0.20
57
0.24
74
0.22
68
0.21
54
0.15
75
0.58
113
0.21
53
0.57
140
0.39
113
0.45
86
0.15
44
0.19
73
0.56
103
0.54
168
0.54
125
0.40
104
0.53
85
0.30
84
0.65
166
0.54
147
0.20
114
0.22
76
0.30
49
0.39
94
1.31
252
11.04
317
CREStereo++_RVCtwo views0.43
108
0.42
109
0.39
147
0.30
105
0.33
133
0.27
87
0.19
103
0.57
109
0.31
135
0.58
152
0.36
98
0.58
130
0.56
219
0.23
109
0.48
92
0.50
143
0.61
180
0.34
68
0.52
77
0.30
84
0.56
133
0.42
91
0.16
62
0.29
127
0.49
121
0.44
106
0.79
164
0.69
160
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
RASNettwo views0.42
95
0.45
127
0.43
169
0.33
119
0.33
133
0.37
132
0.27
141
0.58
113
0.34
153
0.47
79
0.43
121
0.49
98
0.33
146
0.25
136
0.41
72
0.41
78
0.48
91
0.39
92
0.47
62
0.30
84
0.49
96
0.40
81
0.19
98
0.44
204
0.40
94
0.46
119
0.75
153
0.63
145
trnettwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.27
87
0.14
68
0.62
140
0.30
117
0.60
163
0.36
98
0.73
171
0.33
146
0.24
120
0.56
103
0.57
176
0.58
153
0.34
68
0.52
77
0.31
89
0.57
143
0.42
91
0.17
78
0.30
135
0.54
139
0.48
126
0.65
124
0.69
160
LL-Strereo2two views0.34
73
0.29
49
0.21
70
0.24
74
0.19
56
0.17
40
0.13
55
0.63
154
0.26
89
0.58
152
0.23
54
0.44
82
0.22
78
0.14
47
0.41
72
0.41
78
0.47
86
0.35
77
0.73
146
0.31
89
0.47
86
0.36
65
0.21
123
0.20
60
0.32
64
0.34
75
0.51
70
0.35
60
anonymousdsp2two views0.38
80
0.46
139
0.30
107
0.25
80
0.23
74
0.32
107
0.18
92
0.58
113
0.23
62
0.47
79
0.38
107
0.48
94
0.23
84
0.18
66
0.40
66
0.39
70
0.44
68
0.33
64
0.88
169
0.31
89
0.48
92
0.52
142
0.17
78
0.23
88
0.41
96
0.33
71
0.61
110
0.42
81
CREStereotwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.28
94
0.15
75
0.61
133
0.30
117
0.58
152
0.36
98
0.72
168
0.33
146
0.24
120
0.59
114
0.59
184
0.59
167
0.34
68
0.52
77
0.31
89
0.59
151
0.42
91
0.18
90
0.30
135
0.54
139
0.48
126
0.64
120
0.69
160
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
EGLCR-Stereotwo views0.47
123
0.49
161
0.41
161
0.29
97
0.30
123
0.44
159
0.14
68
0.57
109
0.26
89
0.57
140
0.27
69
0.58
130
0.23
84
0.21
90
0.36
58
0.47
126
0.53
123
0.45
137
0.75
153
0.32
93
0.69
179
0.93
215
0.19
98
0.24
97
0.48
113
0.49
131
1.30
251
0.70
166
Sa-1000two views0.48
127
0.47
146
0.21
70
0.26
84
0.26
94
0.31
104
0.15
75
0.65
168
0.36
163
0.63
183
0.33
92
0.50
104
0.26
95
0.30
167
0.94
214
0.49
139
0.59
167
0.45
137
0.90
171
0.32
93
0.52
116
0.75
194
0.17
78
0.27
116
0.72
191
0.53
141
1.00
216
0.49
95
coex_refinementtwo views0.45
116
0.43
114
0.33
118
0.35
131
0.35
146
0.44
159
0.22
117
0.55
101
0.50
206
0.50
96
0.60
171
0.54
115
0.27
102
0.28
157
0.58
110
0.45
106
0.50
99
0.44
127
0.54
91
0.33
95
0.45
72
0.39
78
0.28
172
0.31
143
0.52
132
0.53
141
0.67
131
0.78
181
G2L-Stereotwo views0.42
95
0.39
91
0.28
99
0.35
131
0.40
170
0.34
121
0.22
117
0.54
94
0.34
153
0.52
108
0.61
178
0.50
104
0.38
177
0.26
147
0.61
125
0.44
95
0.50
99
0.40
104
0.46
61
0.33
95
0.43
62
0.39
78
0.28
172
0.27
116
0.49
121
0.54
144
0.69
136
0.49
95
MGS-Stereotwo views0.37
78
0.46
139
0.21
70
0.22
56
0.19
56
0.22
60
0.15
75
0.45
71
0.17
37
0.36
52
0.26
66
0.29
37
0.19
63
0.23
109
1.37
254
0.40
74
0.52
114
0.45
137
0.55
94
0.33
95
0.50
100
0.41
84
0.21
123
0.22
76
0.33
68
0.30
56
0.47
63
0.45
88
FINETtwo views0.40
86
0.38
86
0.39
147
0.43
163
0.30
123
0.34
121
0.35
168
0.44
65
0.36
163
0.47
79
0.32
85
0.47
91
0.30
119
0.28
157
0.66
143
0.50
143
0.48
91
0.36
81
0.60
116
0.33
95
0.46
79
0.37
70
0.30
180
0.30
135
0.43
99
0.35
76
0.56
89
0.42
81
PMTNettwo views0.48
127
0.48
158
0.43
169
0.31
111
0.30
123
0.27
87
0.22
117
0.54
94
0.29
109
0.57
140
0.39
113
0.59
135
0.23
84
0.23
109
0.64
139
0.59
184
0.57
149
0.37
86
1.17
194
0.33
95
0.67
173
0.40
81
0.20
114
0.21
62
0.79
215
0.59
153
0.65
124
0.92
196
CFNettwo views0.45
116
0.44
119
0.33
118
0.48
174
0.40
170
0.39
139
0.30
160
0.53
89
0.32
143
0.48
85
0.50
142
0.68
158
0.40
183
0.30
167
0.56
103
0.37
63
0.48
91
0.43
122
0.52
77
0.33
95
0.46
79
0.30
52
0.23
146
0.31
143
0.61
163
0.52
139
0.69
136
0.71
167
S2M2two views0.40
86
0.42
109
0.41
161
0.24
74
0.27
104
0.35
127
0.22
117
0.51
83
0.24
73
0.61
167
0.23
54
0.43
79
0.21
74
0.31
174
0.59
114
0.49
139
0.55
134
0.36
81
0.53
85
0.34
101
0.55
128
0.38
71
0.28
172
0.27
116
0.42
97
0.43
102
0.63
116
0.66
150
castereo++two views0.44
111
0.35
72
0.33
118
0.43
163
0.23
74
0.21
54
0.17
90
0.59
120
0.30
117
0.63
183
0.37
104
0.73
171
0.22
78
0.22
96
0.44
81
0.53
160
0.58
153
0.41
109
0.66
129
0.34
101
0.81
199
0.69
184
0.20
114
0.28
122
0.48
113
0.56
151
0.76
156
0.48
93
GCAP-BATtwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
test_for_modeltwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala2two views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalalatwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala_basetwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
GCAP-Stereotwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
4D-IteraStereotwo views0.40
86
0.28
48
0.33
118
0.35
131
0.24
82
0.24
77
0.15
75
0.63
154
0.28
102
0.61
167
0.39
113
0.51
109
0.22
78
0.22
96
0.48
92
0.43
90
0.49
94
0.43
122
0.66
129
0.34
101
0.63
158
0.70
186
0.14
56
0.22
76
0.39
90
0.47
121
0.63
116
0.39
69
CEStwo views0.46
121
0.35
72
0.30
107
0.27
89
0.27
104
0.29
97
0.12
51
1.05
265
0.27
95
0.54
120
0.66
195
0.53
113
0.25
92
0.23
109
0.62
130
0.65
203
0.58
153
0.37
86
0.54
91
0.34
101
0.84
204
0.53
145
0.23
146
0.23
88
0.56
147
0.44
106
0.57
91
0.69
160
IERtwo views0.41
90
0.37
78
0.31
112
0.30
105
0.28
109
0.35
127
0.24
130
0.47
76
0.28
102
0.44
70
0.59
169
0.77
186
0.29
109
0.35
192
0.63
133
0.42
82
0.47
86
0.42
117
0.44
59
0.34
101
0.42
60
0.36
65
0.28
172
0.26
113
0.40
94
0.47
121
0.52
81
0.52
108
GMOStereotwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
error versiontwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-vtwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-2two views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
rafts_anoytwo views0.41
90
0.51
181
0.35
126
0.29
97
0.30
123
0.33
114
0.22
117
0.59
120
0.25
79
0.51
101
0.50
142
0.48
94
0.23
84
0.17
63
0.57
106
0.46
115
0.51
110
0.50
173
0.58
108
0.34
101
0.50
100
0.43
98
0.19
98
0.28
122
0.50
125
0.47
121
0.52
81
0.53
112
RALCasStereoNettwo views0.42
95
0.50
176
0.35
126
0.35
131
0.30
123
0.31
104
0.24
130
0.60
126
0.25
79
0.56
136
0.49
137
0.58
130
0.26
95
0.18
66
0.57
106
0.46
115
0.54
125
0.49
167
0.51
72
0.34
101
0.51
106
0.41
84
0.21
123
0.31
143
0.53
135
0.49
131
0.48
66
0.58
127
LoStwo views0.55
148
0.44
119
0.29
103
0.36
136
0.37
157
0.40
145
0.20
110
1.37
282
0.31
135
0.86
264
0.78
221
0.68
158
0.37
174
0.24
120
0.58
110
0.72
216
0.59
167
0.40
104
0.75
153
0.35
118
1.03
230
0.65
171
0.21
123
0.24
97
0.79
215
0.64
160
0.64
120
0.68
158
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
UPFNettwo views0.38
80
0.34
62
0.34
124
0.32
113
0.33
133
0.39
139
0.29
153
0.47
76
0.33
148
0.43
63
0.41
118
0.40
65
0.30
119
0.34
186
0.61
125
0.40
74
0.46
76
0.41
109
0.52
77
0.35
118
0.35
42
0.34
59
0.25
157
0.27
116
0.38
87
0.35
76
0.55
87
0.37
64
castereotwo views0.47
123
0.36
76
0.35
126
0.34
121
0.26
94
0.26
82
0.17
90
0.56
107
0.29
109
0.60
163
0.45
127
0.68
158
0.22
78
0.20
84
0.52
98
0.58
181
0.61
180
0.39
92
0.92
173
0.36
120
0.96
223
0.76
197
0.19
98
0.24
97
0.54
139
0.64
160
0.57
91
0.58
127
Former-RAFT_DAM_RVCtwo views0.41
90
0.33
59
0.29
103
0.29
97
0.24
82
0.26
82
0.16
84
0.55
101
0.40
182
0.55
127
0.49
137
0.49
98
0.27
102
0.23
109
0.58
110
0.45
106
0.51
110
0.40
104
0.50
69
0.36
120
0.46
79
0.50
130
0.16
62
0.23
88
0.49
121
0.75
180
0.44
58
0.56
123
s12784htwo views0.62
170
0.68
232
0.47
186
0.65
218
0.44
184
0.34
121
0.24
130
0.61
133
0.31
135
0.60
163
0.44
124
0.81
190
0.55
217
0.25
136
0.62
130
0.50
143
0.62
186
0.38
90
0.74
152
0.36
120
1.26
247
0.47
118
0.18
90
0.30
135
0.70
185
0.74
176
1.39
260
2.07
256
CFNet_pseudotwo views0.51
134
0.44
119
0.43
169
0.54
193
0.43
182
0.53
188
0.34
166
0.62
140
0.36
163
0.61
167
0.64
187
0.57
125
0.52
212
0.35
192
0.90
204
0.50
143
0.50
99
0.47
154
0.67
132
0.36
120
0.47
86
0.42
91
0.26
165
0.33
162
0.57
148
0.60
156
0.68
133
0.73
172
BEATNet_4xtwo views0.53
141
0.40
98
0.34
124
0.39
143
0.36
150
0.32
107
0.27
141
0.64
161
0.41
186
0.66
205
0.45
127
0.62
148
0.39
180
0.24
120
0.83
183
0.63
191
0.58
153
0.58
215
0.57
104
0.36
120
0.90
211
1.52
260
0.25
157
0.36
177
0.46
108
0.44
106
0.77
158
0.60
135
iResNet_ROBtwo views0.50
131
0.49
161
0.42
164
0.42
158
0.30
123
0.42
153
0.32
162
0.60
126
0.33
148
0.52
108
0.59
169
0.47
91
0.56
219
0.25
136
0.81
178
0.46
115
0.57
149
0.49
167
1.19
195
0.36
120
0.48
92
0.36
65
0.25
157
0.37
182
0.57
148
0.54
144
0.75
153
0.61
137
LG-Stereo_Zeroshottwo views0.66
175
0.37
78
0.23
84
0.51
185
0.74
248
0.89
247
0.49
197
0.62
140
0.26
89
1.60
310
0.31
83
2.57
266
0.26
95
0.22
96
0.46
84
0.48
132
0.58
153
0.45
137
0.93
174
0.37
126
0.63
158
0.71
187
0.19
98
0.23
88
0.58
152
0.49
131
0.89
191
1.91
254
raft_robusttwo views0.49
130
0.44
119
0.24
90
0.38
140
0.29
116
0.32
107
0.21
111
0.73
208
0.35
159
0.69
223
0.34
94
0.57
125
0.31
131
0.24
120
0.59
114
0.53
160
0.54
125
0.46
148
0.98
181
0.37
126
0.69
179
0.94
216
0.20
114
0.28
122
0.55
143
0.69
165
0.69
136
0.60
135
ADLNettwo views0.46
121
0.53
196
0.37
136
0.41
154
0.41
176
0.44
159
0.40
182
0.54
94
0.35
159
0.45
72
0.53
155
0.76
183
0.36
170
0.62
259
0.58
110
0.42
82
0.49
94
0.42
117
0.50
69
0.37
126
0.43
62
0.44
104
0.34
194
0.25
107
0.47
110
0.55
147
0.57
91
0.45
88
STTStereotwo views0.53
141
0.56
204
0.54
205
0.44
168
0.52
202
0.43
156
0.59
214
0.52
85
0.46
202
0.47
79
0.55
163
0.71
166
0.42
187
0.56
248
0.87
199
0.44
95
0.49
94
0.51
180
0.54
91
0.37
126
0.51
106
0.40
81
0.32
190
0.35
170
0.52
132
0.66
163
0.68
133
0.99
203
zero-FEtwo views9.08
322
0.42
109
0.28
99
61.19
339
0.56
210
106.36
340
1.24
273
0.72
205
0.30
117
0.66
205
0.56
164
61.54
338
0.66
233
0.25
136
0.59
114
0.53
160
0.60
174
0.47
154
2.54
247
0.38
130
1.35
253
0.96
217
0.25
157
0.24
97
0.45
105
0.44
106
0.91
193
0.66
150
CIPLGtwo views0.42
95
0.47
146
0.24
90
0.32
113
0.22
68
0.32
107
0.19
103
0.63
154
0.24
73
0.55
127
0.50
142
0.60
139
0.30
119
0.41
206
0.93
210
0.44
95
0.52
114
0.37
86
0.56
100
0.38
130
0.56
133
0.45
108
0.19
98
0.24
97
0.44
101
0.31
60
0.57
91
0.38
68
ddtwo views0.50
131
0.51
181
0.28
99
0.91
247
0.31
131
0.65
217
0.29
153
0.59
120
0.23
62
0.54
120
0.30
80
0.75
175
0.27
102
0.26
147
0.84
187
0.46
115
0.70
217
0.39
92
1.05
184
0.38
130
0.48
92
0.43
98
0.23
146
0.30
135
0.53
135
0.39
94
0.74
151
0.58
127
IPLGR_Ctwo views0.42
95
0.47
146
0.23
84
0.31
111
0.22
68
0.32
107
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.31
131
0.41
206
0.87
199
0.45
106
0.52
114
0.37
86
0.55
94
0.38
130
0.56
133
0.46
113
0.19
98
0.24
97
0.44
101
0.33
71
0.58
99
0.40
74
test-3two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.65
168
0.27
95
0.61
167
0.34
94
0.90
206
0.31
131
0.21
90
0.60
120
0.44
95
0.55
134
0.42
117
2.59
251
0.38
130
0.56
133
1.37
248
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
test_1two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.66
172
0.27
95
0.62
177
0.34
94
0.90
206
0.31
131
0.21
90
0.61
125
0.44
95
0.55
134
0.42
117
2.58
250
0.38
130
0.56
133
1.38
250
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
ACREtwo views0.42
95
0.47
146
0.22
79
0.32
113
0.22
68
0.33
114
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.30
119
0.41
206
0.91
205
0.45
106
0.52
114
0.36
81
0.55
94
0.38
130
0.57
143
0.44
104
0.19
98
0.23
88
0.44
101
0.32
66
0.58
99
0.39
69
TestStereotwo views0.45
116
0.51
181
0.38
145
0.42
158
0.30
123
0.44
159
0.26
139
0.71
198
0.28
102
0.76
243
0.32
85
0.64
150
0.32
140
0.24
120
0.47
85
0.35
53
0.54
125
0.33
64
0.78
158
0.38
130
0.63
158
0.42
91
0.24
154
0.30
135
0.53
135
0.43
102
0.75
153
0.55
122
raftrobusttwo views0.43
108
0.33
59
0.36
132
0.28
92
0.28
109
0.27
87
0.18
92
0.64
161
0.25
79
0.63
183
0.53
155
0.51
109
0.25
92
0.22
96
0.63
133
0.48
132
0.51
110
0.41
109
0.96
180
0.38
130
0.53
123
0.46
113
0.20
114
0.24
97
0.57
148
0.54
144
0.54
86
0.52
108
DMCA-RVCcopylefttwo views0.44
111
0.37
78
0.35
126
0.33
119
0.37
157
0.32
107
0.41
184
0.46
74
0.52
209
0.43
63
0.48
133
0.68
158
0.33
146
0.29
164
0.65
142
0.46
115
0.47
86
0.44
127
0.49
67
0.38
130
0.49
96
0.48
124
0.29
177
0.32
148
0.38
87
0.37
87
0.57
91
0.62
141
ADCP+two views0.92
224
0.59
211
0.62
222
0.44
168
0.45
185
0.55
194
0.85
250
0.65
168
1.81
292
0.48
85
1.10
253
1.62
254
0.33
146
0.42
216
1.03
230
0.52
158
0.52
114
0.48
160
1.19
195
0.38
130
0.58
147
0.60
157
0.32
190
0.30
135
0.66
178
3.45
314
0.77
158
4.14
294
NLCA_NET_v2_RVCtwo views0.51
134
0.52
190
0.48
189
0.43
163
0.57
213
0.42
153
0.62
226
0.56
107
0.62
227
0.52
108
0.51
148
0.67
156
0.34
158
0.58
256
0.78
169
0.42
82
0.47
86
0.42
117
0.57
104
0.38
130
0.46
79
0.42
91
0.30
180
0.32
148
0.48
113
0.76
183
0.62
113
0.64
147
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DN-CSS_ROBtwo views0.52
138
0.43
114
0.46
182
0.41
154
0.40
170
0.34
121
0.22
117
0.69
189
0.34
153
0.59
157
0.79
222
0.66
154
0.47
202
0.24
120
0.63
133
0.40
74
0.58
153
0.43
122
1.74
218
0.38
130
0.63
158
0.38
71
0.31
185
0.47
214
0.53
135
0.43
102
0.66
130
0.54
119
test_3two views0.56
155
0.38
86
0.36
132
0.34
121
0.33
133
0.33
114
0.21
111
0.68
182
0.29
109
0.65
195
0.33
92
0.92
208
0.35
165
0.21
90
0.60
120
0.44
95
0.56
140
0.45
137
2.68
253
0.39
143
0.55
128
1.35
246
0.15
58
0.32
148
0.51
128
0.47
121
0.67
131
0.50
104
GMStereopermissivetwo views0.41
90
0.48
158
0.25
92
0.32
113
0.32
132
0.37
132
0.28
146
0.59
120
0.30
117
0.45
72
0.36
98
0.61
140
0.31
131
0.24
120
0.45
82
0.41
78
0.54
125
0.35
77
0.73
146
0.39
143
0.51
106
0.33
56
0.23
146
0.28
122
0.48
113
0.36
79
0.68
133
0.41
76
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UNettwo views0.44
111
0.42
109
0.40
152
0.37
137
0.36
150
0.41
147
0.28
146
0.57
109
0.35
159
0.50
96
0.49
137
0.47
91
0.34
158
0.37
198
0.53
100
0.43
90
0.54
125
0.46
148
0.56
100
0.39
143
0.47
86
0.44
104
0.27
169
0.34
166
0.44
101
0.48
126
0.58
99
0.57
125
HGLStereotwo views0.43
108
0.43
114
0.37
136
0.34
121
0.37
157
0.39
139
0.23
127
0.48
78
0.31
135
0.47
79
0.72
212
0.42
74
0.29
109
0.32
181
0.51
96
0.49
139
0.55
134
0.50
173
0.55
94
0.39
143
0.51
106
0.43
98
0.22
136
0.33
162
0.51
128
0.51
137
0.57
91
0.45
88
DSFCAtwo views0.45
116
0.50
176
0.40
152
0.40
149
0.37
157
0.44
159
0.34
166
0.46
74
0.39
180
0.40
58
0.57
166
0.49
98
0.29
109
0.24
120
0.61
125
0.44
95
0.49
94
0.49
167
0.64
123
0.39
143
0.50
100
0.51
137
0.33
192
0.35
170
0.49
121
0.50
135
0.57
91
0.58
127
RALAANettwo views0.41
90
0.41
102
0.37
136
0.28
92
0.28
109
0.33
114
0.24
130
0.54
94
0.27
95
0.48
85
0.48
133
0.43
79
0.25
92
0.20
84
0.57
106
0.41
78
0.49
94
0.50
173
0.71
142
0.40
148
0.52
116
0.46
113
0.21
123
0.29
127
0.46
108
0.45
112
0.70
141
0.47
91
AF-Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
Nwc_Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
dadtwo views0.89
223
0.57
209
0.37
136
1.42
275
0.65
227
0.75
235
2.23
289
1.43
284
0.36
163
0.93
269
0.38
107
0.85
199
0.76
239
0.32
181
0.97
221
0.52
158
0.78
232
0.45
137
1.87
225
0.41
151
0.74
190
0.41
84
0.30
180
0.47
214
1.15
268
0.47
121
2.64
303
1.96
255
GLC_STEREOtwo views0.47
123
0.51
181
0.40
152
0.38
140
0.37
157
0.37
132
0.28
146
0.64
161
0.29
109
0.62
177
0.53
155
0.55
121
0.28
107
0.30
167
0.49
95
0.48
132
0.66
201
0.41
109
0.65
127
0.41
151
0.70
182
0.60
157
0.23
146
0.30
135
0.47
110
0.36
79
0.84
180
0.53
112
IPLGtwo views0.47
123
0.45
127
0.32
115
0.28
92
0.27
104
0.32
107
0.21
111
0.63
154
0.22
57
0.51
101
0.38
107
0.56
123
0.29
109
0.31
174
1.64
269
0.44
95
0.56
140
0.48
160
0.56
100
0.41
151
0.45
72
0.75
194
0.18
90
0.28
122
0.45
105
0.59
153
0.65
124
0.51
106
pcwnet_v2two views0.62
170
0.46
139
0.50
195
0.62
211
0.49
197
0.61
207
0.46
191
0.66
172
0.45
198
0.65
195
0.79
222
0.64
150
0.86
244
0.53
243
1.15
243
0.55
170
0.59
167
0.51
180
0.83
163
0.41
151
0.55
128
0.47
118
0.34
194
0.43
198
0.75
203
0.76
183
0.85
182
0.95
197
NVstereo2Dtwo views0.55
148
0.47
146
0.40
152
0.52
188
0.48
194
0.66
220
0.64
229
0.60
126
0.38
177
0.48
85
0.61
178
0.53
113
0.30
119
0.63
261
1.53
263
0.61
189
0.58
153
0.55
203
0.53
85
0.41
151
0.50
100
0.38
71
0.54
248
0.43
198
0.64
175
0.48
126
0.56
89
0.53
112
DISCOtwo views0.45
116
0.44
119
0.29
103
0.40
149
0.38
163
0.49
175
0.43
187
0.45
71
0.43
197
0.50
96
0.57
166
0.40
65
0.29
109
0.30
167
0.61
125
0.43
90
0.55
134
0.46
148
0.69
139
0.41
151
0.48
92
0.43
98
0.26
165
0.32
148
0.47
110
0.50
135
0.62
113
0.50
104
Reg-Stereo(zero)two views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
HItwo views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
CFNet_RVCtwo views0.51
134
0.51
181
0.47
186
0.50
179
0.48
194
0.48
173
0.32
162
0.53
89
0.37
172
0.51
101
0.65
192
0.57
125
0.34
158
0.30
167
0.69
153
0.44
95
0.52
114
0.47
154
0.57
104
0.42
157
0.56
133
0.49
125
0.27
169
0.35
170
0.65
177
0.74
176
0.80
165
0.75
175
PS-NSSStwo views0.60
169
0.81
249
0.44
177
0.89
244
0.54
206
0.71
228
0.63
227
0.64
161
0.38
177
0.64
190
0.41
118
1.52
250
0.47
202
0.41
206
0.59
114
0.42
82
0.52
114
0.45
137
0.94
177
0.42
157
0.44
68
0.29
49
0.36
199
0.34
166
0.63
172
0.69
165
0.70
141
0.80
182
DLCB_ROBtwo views0.53
141
0.50
176
0.48
189
0.41
154
0.45
185
0.43
156
0.39
180
0.55
101
0.45
198
0.57
140
0.61
178
0.70
164
0.52
212
0.41
206
0.60
120
0.47
126
0.57
149
0.48
160
0.52
77
0.43
161
0.55
128
0.47
118
0.38
206
0.42
195
0.96
246
0.79
191
0.70
141
0.62
141
PDISCO_ROBtwo views0.48
127
0.40
98
0.39
147
0.38
140
0.34
142
0.39
139
0.28
146
0.50
81
0.35
159
0.37
55
0.52
151
0.49
98
0.35
165
0.31
174
0.63
133
0.58
181
0.54
125
0.68
245
0.59
109
0.44
162
0.62
155
0.67
179
0.24
154
0.34
166
0.54
139
0.53
141
0.85
182
0.58
127
SGM-Foresttwo views0.73
191
0.71
236
0.40
152
1.13
260
0.64
226
0.74
234
0.45
189
0.68
182
0.39
180
0.61
167
0.44
124
1.16
233
1.06
248
0.49
230
0.86
193
0.61
189
0.55
134
0.46
148
0.68
134
0.44
162
0.61
153
0.49
125
0.45
219
0.44
204
0.90
235
0.86
200
1.95
286
1.47
236
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
Any-RAFTtwo views0.69
184
0.47
146
0.85
252
0.53
191
0.40
170
0.38
137
0.27
141
0.64
161
0.32
143
0.57
140
0.76
219
0.86
203
0.24
91
0.22
96
0.57
106
0.76
223
0.60
174
0.45
137
2.19
233
0.45
164
1.20
243
0.71
187
0.22
136
0.31
143
0.99
251
1.24
256
0.73
149
1.65
245
RPtwo views0.58
161
0.57
209
0.72
240
0.62
211
0.56
210
0.57
198
0.64
229
0.63
154
0.61
225
0.42
61
0.81
227
0.78
187
0.53
214
0.43
219
0.68
151
0.48
132
0.53
123
0.44
127
0.64
123
0.45
164
0.51
106
0.54
147
0.37
204
0.44
204
0.62
168
0.59
153
0.83
178
0.77
178
UCFNet_RVCtwo views0.56
155
0.78
243
0.45
181
0.59
203
0.55
209
0.52
185
0.39
180
0.58
113
0.40
182
0.59
157
0.60
171
0.82
192
0.45
197
0.32
181
0.70
158
0.42
82
0.50
99
0.50
173
0.67
132
0.45
164
0.56
133
0.47
118
0.38
206
0.41
192
0.77
210
0.71
170
0.65
124
0.86
190
iResNetv2_ROBtwo views0.52
138
0.45
127
0.32
115
0.48
174
0.39
165
0.48
173
0.28
146
0.64
161
0.34
153
0.52
108
0.66
195
0.70
164
0.55
217
0.28
157
0.67
148
0.47
126
0.50
99
0.46
148
1.12
191
0.45
164
0.57
143
0.47
118
0.29
177
0.40
189
0.55
143
0.51
137
0.81
168
0.58
127
MLCVtwo views0.70
187
0.49
161
0.53
202
0.73
230
0.50
198
0.65
217
0.43
187
0.81
236
0.41
186
0.71
229
0.88
234
1.01
218
0.81
241
0.28
157
0.92
208
0.43
90
0.65
198
0.52
187
2.47
246
0.45
164
0.55
128
0.72
191
0.39
210
0.54
227
0.69
182
0.80
192
0.83
178
0.72
169
psm_uptwo views0.56
155
0.51
181
0.53
202
0.56
197
0.45
185
0.58
201
0.35
168
0.71
198
0.66
232
0.55
127
0.53
155
0.59
135
0.50
207
0.40
203
0.63
133
0.50
143
0.59
167
0.49
167
0.84
166
0.46
169
0.51
106
0.45
108
0.31
185
0.51
222
0.70
185
0.78
187
0.80
165
0.67
154
R-Stereo Traintwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
DeepPrunerFtwo views1.22
247
0.49
161
0.39
147
0.58
200
2.86
308
0.49
175
0.55
207
0.52
85
0.58
223
0.43
63
0.67
202
0.43
79
0.32
140
0.42
216
1.64
269
0.75
222
0.58
153
0.46
148
0.93
174
0.46
169
0.61
153
0.53
145
0.40
211
0.35
170
15.32
329
0.82
197
0.65
124
0.62
141
RAFT-Stereopermissivetwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MIPNettwo views0.51
134
0.51
181
0.33
118
0.32
113
0.30
123
0.37
132
0.25
135
0.62
140
0.24
73
0.50
96
0.52
151
0.61
140
0.41
186
0.30
167
1.01
229
0.51
150
0.59
167
0.50
173
0.76
156
0.47
173
0.44
68
0.85
207
0.20
114
0.26
113
0.66
178
0.98
226
0.71
145
0.61
137
DeepPruner_ROBtwo views0.59
167
0.44
119
0.54
205
0.52
188
0.54
206
0.49
175
0.37
174
0.61
133
0.46
202
0.60
163
0.70
206
0.61
140
0.51
211
0.32
181
1.06
233
0.58
181
0.62
186
0.59
220
0.66
129
0.47
173
0.97
226
0.72
191
0.36
199
0.44
204
0.61
163
1.00
230
0.72
146
0.58
127
HSMtwo views0.54
146
0.49
161
0.47
186
0.48
174
0.47
191
0.41
147
0.37
174
0.71
198
0.37
172
0.61
167
0.65
192
0.59
135
0.48
205
0.31
174
0.70
158
0.48
132
0.64
194
0.47
154
0.75
153
0.48
175
0.63
158
0.49
125
0.26
165
0.42
195
0.62
168
0.72
173
0.87
189
0.67
154
DLNR_Zeroshot_testpermissivetwo views17.86
327
67.45
340
1.21
280
81.91
340
0.35
146
0.45
164
74.74
340
0.76
220
0.27
95
0.69
223
0.60
171
1.16
233
0.29
109
8.20
328
84.48
340
102.07
340
23.88
333
15.14
329
7.31
290
0.50
176
4.38
312
2.51
283
0.18
90
0.43
198
0.76
209
0.86
200
0.80
165
0.80
182
iinet-ftwo views0.52
138
0.43
114
0.36
132
0.34
121
0.25
84
0.47
171
0.25
135
0.43
63
0.27
95
0.52
108
0.94
239
0.61
140
0.44
196
0.25
136
1.06
233
0.57
176
0.52
114
0.39
92
1.51
207
0.50
176
0.58
147
0.75
194
0.26
165
0.25
107
0.52
132
0.38
91
0.76
156
0.53
112
TRStereotwo views0.75
197
0.83
254
1.19
278
0.56
197
0.34
142
1.42
277
0.48
194
0.68
182
0.28
102
0.65
195
0.46
131
1.10
229
0.27
102
0.22
96
0.70
158
0.85
236
0.57
149
0.48
160
1.85
224
0.50
176
0.73
188
0.87
210
0.18
90
0.27
116
0.78
212
1.22
255
1.78
282
1.09
211
ICVPtwo views0.58
161
0.49
161
0.67
235
0.50
179
0.48
194
0.52
185
0.36
172
0.60
126
0.45
198
0.61
167
0.58
168
0.61
140
0.56
219
0.30
167
0.67
148
0.64
197
0.58
153
0.51
180
0.72
145
0.51
179
0.58
147
0.74
193
0.59
255
0.47
214
0.60
162
0.75
180
0.74
151
0.72
169
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
FADNet-RVCtwo views0.58
161
0.50
176
0.37
136
0.51
185
0.42
179
0.39
139
0.56
209
0.68
182
0.36
163
0.64
190
0.50
142
1.13
232
0.45
197
0.34
186
0.91
205
0.53
160
0.54
125
0.45
137
1.20
197
0.51
179
0.54
126
0.52
142
0.33
192
0.51
222
0.57
148
0.75
180
0.64
120
0.81
184
AACVNettwo views0.55
148
0.47
146
0.40
152
0.58
200
0.61
219
0.53
188
0.37
174
0.61
133
0.40
182
0.59
157
0.64
187
0.58
130
0.33
146
0.36
194
0.69
153
0.54
168
0.58
153
0.54
197
0.69
139
0.52
181
0.54
126
0.52
142
0.36
199
0.44
204
0.59
159
0.69
165
0.82
171
0.83
186
AE-Stereotwo views0.54
146
0.48
158
0.44
177
0.50
179
0.35
146
0.36
130
0.28
146
0.55
101
0.29
109
0.64
190
0.31
83
0.89
205
0.31
131
0.24
120
0.55
101
0.65
203
0.68
209
0.52
187
0.87
168
0.53
182
0.72
185
0.81
204
0.21
123
0.47
214
0.79
215
0.69
165
0.94
199
0.62
141
UDGNettwo views0.67
178
0.66
228
0.42
164
1.35
272
1.02
267
1.21
268
0.91
256
0.60
126
0.41
186
0.52
108
0.60
171
0.56
123
0.23
84
1.19
289
0.66
143
0.45
106
0.56
140
0.51
180
0.73
146
0.53
182
0.64
165
0.67
179
0.79
267
0.29
127
0.72
191
0.55
147
0.63
116
0.66
150
XX-Stereotwo views9.49
323
0.38
86
0.36
132
0.63
213
0.28
109
0.54
192
0.28
146
0.69
189
0.28
102
0.69
223
6.24
317
1.00
215
0.29
109
0.23
109
0.70
158
1.08
270
0.60
174
0.52
187
1.58
212
0.53
182
0.76
192
0.65
171
0.18
90
0.26
113
233.61
340
0.88
205
1.01
217
1.90
253
APVNettwo views0.56
155
0.47
146
0.38
145
0.46
171
0.50
198
0.57
198
0.53
202
0.60
126
0.42
193
0.46
75
0.65
192
0.50
104
0.30
119
0.36
194
0.74
166
0.71
215
0.71
223
0.64
231
0.95
178
0.53
182
0.57
143
0.77
199
0.34
194
0.46
211
0.59
159
0.46
119
0.82
171
0.58
127
FADNettwo views0.65
174
0.55
199
0.41
161
0.53
191
0.42
179
0.49
175
0.65
234
0.74
213
0.42
193
0.66
205
0.64
187
0.81
190
0.50
207
0.36
194
1.17
245
0.51
150
0.51
110
0.53
191
1.61
215
0.53
182
0.69
179
0.59
153
0.35
198
0.41
192
0.72
191
0.88
205
0.78
163
1.06
209
HSM-Net_RVCpermissivetwo views0.75
197
0.53
196
0.60
219
0.77
235
0.62
225
0.61
207
0.37
174
0.76
220
0.49
205
0.74
236
1.71
278
1.32
241
0.80
240
0.36
194
0.72
165
0.55
170
0.64
194
0.53
191
0.78
158
0.53
182
0.67
173
0.89
213
0.43
217
0.64
243
0.94
242
1.09
242
1.07
222
1.04
208
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
AIO-Stereo-zeroshot1permissivetwo views5.67
309
0.56
204
1.25
284
0.75
231
0.69
235
1.17
265
0.81
246
0.82
238
0.80
244
0.81
255
4.78
303
1.00
215
0.37
174
0.27
154
1.13
241
1.54
303
0.70
217
0.60
223
124.50
338
0.54
188
1.43
255
2.64
285
0.22
136
0.36
177
0.91
236
1.13
247
1.13
230
2.18
260
IPLGRtwo views0.57
159
0.55
199
0.37
136
0.43
163
0.38
163
0.36
130
0.23
127
0.62
140
0.30
117
0.56
136
0.68
205
0.61
140
0.32
140
0.29
164
1.73
275
0.47
126
0.56
140
0.56
205
1.09
186
0.54
188
0.53
123
0.81
204
0.20
114
0.32
148
0.71
188
0.97
225
0.73
149
0.57
125
NCC-stereotwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Abc-Nettwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
PA-Nettwo views0.64
173
0.67
230
0.66
232
0.50
179
0.66
232
0.50
179
0.64
229
0.65
168
0.73
236
0.54
120
0.52
151
0.58
130
0.58
225
0.59
258
0.93
210
0.57
176
0.46
76
0.54
197
0.61
120
0.54
188
0.49
96
0.66
174
0.36
199
0.52
224
0.64
175
1.24
256
0.64
120
1.32
231
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
FADNet-RVC-Resampletwo views0.57
159
0.52
190
0.42
164
0.46
171
0.39
165
0.41
147
0.40
182
0.72
205
0.42
193
0.68
215
0.51
148
1.04
224
0.43
191
0.43
219
0.96
219
0.48
132
0.56
140
0.61
225
0.85
167
0.55
193
0.52
116
0.63
165
0.34
194
0.60
237
0.58
152
0.71
170
0.55
87
0.77
178
NaN_ROBtwo views0.73
191
0.59
211
0.61
221
0.64
215
0.78
252
0.53
188
0.48
194
0.87
244
0.63
228
0.73
235
0.61
178
1.96
260
0.62
227
0.45
224
0.84
187
0.55
170
0.56
140
0.54
197
0.73
146
0.55
193
0.52
116
0.51
137
0.38
206
0.64
243
0.83
225
1.11
245
0.94
199
1.64
244
XPNet_ROBtwo views0.74
196
0.77
241
0.57
211
0.54
193
0.61
219
0.63
213
0.61
223
0.53
89
0.65
230
0.58
152
0.81
227
2.35
265
0.46
200
0.43
219
0.79
173
0.63
191
0.85
244
0.57
210
0.83
163
0.55
193
0.72
185
1.09
228
0.45
219
0.49
221
0.63
172
0.74
176
1.39
260
0.86
190
PWCDC_ROBbinarytwo views0.67
178
0.35
72
0.39
147
0.29
97
0.43
182
0.34
121
0.36
172
0.43
63
1.25
275
0.27
42
0.72
212
0.44
82
2.38
282
0.57
253
1.11
239
0.76
223
0.56
140
0.56
205
0.64
123
0.55
193
0.63
158
2.08
276
0.46
221
0.40
189
0.36
80
0.63
157
0.51
70
0.67
154
MyStereo04two views0.68
183
0.52
190
0.57
211
0.44
168
0.37
157
0.35
127
0.26
139
0.68
182
0.45
198
0.62
177
0.45
127
0.68
158
0.34
158
0.25
136
1.00
226
0.68
209
0.56
140
0.53
191
3.39
267
0.56
197
0.92
212
0.64
169
0.27
169
0.41
192
0.77
210
0.92
212
0.96
204
0.66
150
sCroCo_RVCtwo views0.58
161
0.42
109
0.29
103
0.28
92
0.29
116
0.39
139
0.22
117
0.60
126
0.41
186
0.53
119
0.43
121
0.48
94
0.50
207
0.24
120
0.75
167
0.99
260
0.75
229
0.63
227
1.02
183
0.56
197
1.10
238
1.36
247
0.28
172
0.39
186
0.63
172
0.63
157
0.93
197
0.64
147
GEStwo views0.59
167
0.52
190
0.37
136
0.39
143
0.40
170
0.53
188
0.37
174
0.59
120
0.40
182
0.56
136
0.60
171
0.50
104
0.30
119
0.41
206
0.98
222
0.63
191
0.67
207
0.55
203
2.28
236
0.56
197
0.70
182
0.56
152
0.31
185
0.42
195
0.48
113
0.48
126
0.65
124
0.68
158
FCDSN-DCtwo views0.69
184
0.61
218
0.62
222
0.66
220
0.61
219
0.59
202
0.60
218
0.68
182
0.42
193
0.75
240
0.42
120
0.57
125
0.36
170
0.50
234
2.43
308
0.67
206
0.80
237
0.76
262
0.64
123
0.56
197
0.70
182
0.60
157
0.47
222
0.83
265
0.66
178
0.74
176
0.61
110
0.67
154
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
RTSCtwo views0.73
191
0.49
161
0.46
182
0.47
173
0.51
201
0.55
194
0.56
209
0.67
175
0.68
233
0.54
120
0.79
222
0.57
125
0.57
223
0.41
206
1.92
283
0.77
225
0.96
261
0.58
215
1.36
203
0.56
197
0.85
206
1.11
229
0.31
185
0.53
226
0.58
152
0.65
162
0.95
201
1.26
229
LMCR-Stereopermissivemany views0.50
131
0.46
139
0.33
118
0.32
113
0.33
133
0.42
153
0.24
130
0.57
109
0.37
172
0.55
127
0.46
131
0.65
153
0.40
183
0.26
147
0.69
153
0.49
139
0.62
186
0.49
167
1.11
190
0.57
202
0.66
169
0.64
169
0.25
157
0.32
148
0.48
113
0.49
131
0.63
116
0.65
149
CC-Net-ROBtwo views0.96
232
1.18
279
0.70
238
1.56
279
1.06
269
1.63
283
1.20
272
0.79
229
0.61
225
0.81
255
0.56
164
3.07
277
0.57
223
0.85
279
0.68
151
0.44
95
0.71
223
0.63
227
1.40
204
0.57
202
0.58
147
0.43
98
1.91
297
0.46
211
0.83
225
0.83
198
0.77
158
1.20
226
NCCL2two views0.69
184
0.73
239
0.66
232
0.57
199
0.56
210
0.51
182
0.45
189
0.70
195
0.57
220
0.68
215
0.71
207
0.66
154
0.48
205
0.39
200
0.93
210
0.72
216
0.65
198
0.57
210
0.76
156
0.57
202
0.74
190
0.88
211
0.49
229
0.60
237
0.98
248
0.95
217
0.85
182
1.16
222
CASStwo views0.79
212
0.55
199
0.53
202
0.65
218
0.54
206
0.59
202
0.53
202
0.78
228
0.52
209
0.71
229
0.75
218
0.67
156
0.47
202
0.28
157
0.83
183
0.67
206
0.98
262
0.56
205
1.60
214
0.58
205
2.74
285
1.44
251
0.38
206
0.35
170
0.84
229
0.81
194
0.90
192
1.02
206
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
test-1two views0.84
216
0.34
62
0.50
195
0.37
137
0.40
170
0.60
204
0.37
174
0.73
208
0.38
177
0.68
215
0.71
207
1.08
226
0.40
183
0.25
136
0.79
173
0.91
242
0.63
191
0.58
215
2.22
235
0.58
205
1.17
242
3.78
300
0.22
136
0.36
177
0.81
220
1.15
249
1.10
228
1.59
240
ADCReftwo views1.01
236
0.65
225
0.48
189
0.39
143
0.47
191
0.65
217
0.68
238
0.61
133
1.08
268
0.52
108
0.64
187
0.75
175
0.43
191
0.38
199
1.56
265
0.72
216
0.61
180
0.59
220
1.53
210
0.58
205
0.66
169
0.71
187
0.50
233
0.43
198
0.75
203
1.25
259
0.82
171
8.96
315
MDST_ROBtwo views3.33
297
2.32
295
0.75
243
3.90
307
1.47
287
2.61
291
1.00
264
1.12
272
0.72
235
0.78
249
0.67
202
1.54
251
25.37
324
0.34
186
2.11
292
0.53
160
0.65
198
0.48
160
3.69
268
0.58
205
0.88
207
0.59
153
0.58
254
0.68
247
7.85
324
3.03
308
17.15
329
8.63
314
FC-DCNN v2copylefttwo views0.94
228
0.98
269
1.28
287
1.47
278
0.95
262
1.33
274
0.82
247
1.05
265
0.80
244
0.87
265
0.66
195
1.11
231
0.67
234
0.56
248
0.91
205
0.69
210
0.81
240
0.68
245
0.83
163
0.59
209
0.78
194
0.59
153
0.50
233
0.78
263
1.25
275
1.09
242
1.35
256
1.89
251
cross-rafttwo views0.73
191
0.56
204
0.46
182
0.43
163
0.33
133
0.40
145
0.27
141
0.73
208
0.33
148
0.65
195
0.60
171
0.74
174
0.30
119
0.23
109
0.76
168
0.96
251
0.63
191
0.48
160
2.91
260
0.59
209
1.81
271
1.31
245
0.22
136
0.32
148
0.82
223
0.94
216
0.93
197
1.01
205
stereogantwo views0.67
178
0.67
230
0.62
222
0.68
224
0.73
244
0.75
235
0.64
229
0.70
195
0.57
220
0.51
101
0.64
187
1.08
226
0.62
227
0.44
222
0.83
183
0.55
170
0.56
140
0.51
180
0.91
172
0.59
209
0.59
151
0.69
184
0.47
222
0.46
211
0.59
159
0.67
164
1.16
234
0.87
192
FC-DCNNcopylefttwo views0.88
222
0.96
266
1.23
282
1.36
274
0.93
260
1.26
272
0.82
247
0.91
249
0.78
242
0.87
265
0.63
186
1.08
226
0.42
187
0.56
248
0.88
201
0.69
210
0.81
240
0.68
245
0.81
162
0.59
209
0.78
194
0.59
153
0.50
233
0.77
261
1.11
264
0.99
228
1.21
240
1.57
239
FBW_ROBtwo views1.34
251
1.42
285
1.08
274
2.01
285
1.42
285
1.37
276
1.63
280
0.99
258
0.70
234
0.72
232
1.02
247
2.05
263
0.91
246
1.47
294
1.24
248
0.60
186
0.88
250
0.65
235
6.08
285
0.59
209
1.06
235
0.81
204
1.48
294
1.12
287
0.99
251
1.20
252
0.99
211
1.66
246
EKT-Stereotwo views0.75
197
0.64
224
0.54
205
0.59
203
0.47
191
0.60
204
0.73
241
0.71
198
0.29
109
0.63
183
0.66
195
0.73
171
0.30
119
0.26
147
0.86
193
1.22
286
0.68
209
0.76
262
1.46
206
0.60
214
1.75
268
1.74
270
0.21
123
0.32
148
0.93
239
0.81
194
1.06
221
0.72
169
HHtwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
HanStereotwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
anonymitytwo views3.27
296
0.41
102
1.09
275
0.58
200
0.41
176
0.47
171
0.30
160
0.79
229
0.33
148
0.61
167
69.49
338
0.85
199
0.30
119
0.24
120
0.59
114
1.02
264
0.60
174
0.43
122
1.35
202
0.60
214
0.73
188
1.82
273
0.24
154
0.29
127
1.00
254
1.24
256
1.08
223
1.47
236
sAnonymous2two views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
CroCo_RVCtwo views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
ADCLtwo views1.27
249
0.82
252
0.64
228
0.60
206
0.53
203
0.73
230
0.91
256
0.75
217
2.78
311
0.68
215
1.01
246
0.86
203
0.50
207
0.50
234
1.27
249
0.64
197
0.66
201
0.57
210
1.20
197
0.60
214
0.98
227
0.88
211
0.50
233
0.47
214
1.60
288
1.50
279
0.88
190
11.30
318
SGM-ForestMtwo views2.61
282
4.20
319
0.93
258
2.78
291
1.37
284
3.57
301
2.93
296
2.59
312
1.51
287
0.70
226
1.32
263
7.25
308
5.36
300
0.47
227
0.89
202
0.53
160
0.79
236
0.54
197
7.58
291
0.60
214
0.82
200
0.47
118
0.51
241
0.80
264
4.97
316
3.66
315
7.05
324
6.30
306
NOSS_ROBtwo views0.76
201
0.84
258
0.50
195
0.72
228
0.61
219
0.75
235
0.52
201
0.80
231
0.54
213
0.70
226
0.62
183
0.62
148
0.86
244
0.62
259
1.14
242
1.10
273
0.78
232
0.69
248
0.73
146
0.60
214
0.88
207
0.67
179
0.50
233
0.71
249
0.86
232
0.95
217
1.38
259
0.85
188
MSKI-zero shottwo views0.84
216
0.49
161
0.43
169
0.41
154
0.35
146
0.46
170
0.32
162
0.76
220
0.30
117
0.65
195
0.92
238
0.83
196
0.32
140
0.22
96
0.62
130
1.08
270
0.64
194
0.47
154
3.14
265
0.61
223
2.23
277
1.58
262
0.20
114
0.38
184
0.96
246
1.47
274
1.24
245
1.60
241
iRaft-Stereo_20wtwo views1.06
239
0.49
161
1.34
290
1.18
264
0.46
188
0.78
239
0.46
191
0.76
220
0.37
172
0.74
236
6.16
316
0.84
198
0.29
109
0.26
147
0.81
178
0.97
253
0.59
167
0.44
127
1.72
217
0.61
223
1.04
231
1.56
261
0.21
123
0.25
107
0.92
238
1.31
265
1.45
268
2.71
273
RGCtwo views0.76
201
0.72
237
0.99
263
0.70
225
0.71
242
0.76
238
0.57
212
0.74
213
0.74
239
0.56
136
0.96
242
0.83
196
0.85
243
0.56
248
0.93
210
0.60
186
0.62
186
0.56
205
0.93
174
0.61
223
0.66
169
0.71
187
0.51
241
0.56
230
0.81
220
1.01
233
0.99
211
1.19
225
GANetREF_RVCpermissivetwo views0.77
209
0.74
240
0.68
237
0.76
234
0.65
227
0.69
225
0.60
218
0.99
258
0.73
236
0.93
269
0.52
151
1.33
242
0.72
237
0.44
222
0.85
191
0.57
176
0.67
207
0.63
227
1.13
192
0.61
223
0.77
193
0.63
165
0.59
255
0.71
249
0.89
234
0.90
209
1.15
231
0.99
203
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ITSA-stereotwo views1.12
242
0.72
237
0.59
214
1.20
266
0.84
255
0.64
216
0.64
229
0.95
251
0.78
242
0.84
261
2.54
289
1.39
244
1.23
257
0.81
276
1.20
246
1.01
262
0.83
242
0.67
239
1.56
211
0.62
227
1.08
237
1.46
254
0.56
252
0.71
249
0.95
244
1.27
261
0.99
211
4.08
293
HBP-ISPtwo views1.60
260
0.86
260
0.90
257
0.98
253
0.69
235
0.85
242
0.56
209
0.89
248
0.48
204
0.82
258
0.79
222
0.97
213
0.36
170
0.69
268
11.97
327
5.83
323
0.70
217
0.67
239
0.70
141
0.62
227
1.05
233
5.90
316
0.50
233
0.62
240
0.82
223
1.01
233
2.01
288
1.06
209
GEStereo_RVCtwo views0.71
189
0.59
211
0.40
152
0.54
193
0.50
198
0.61
207
0.51
199
0.71
198
0.41
186
0.59
157
0.51
148
0.76
183
0.46
200
0.39
200
0.96
219
0.92
243
0.78
232
0.75
259
1.94
226
0.62
227
0.80
197
1.37
248
0.31
185
0.52
224
0.61
163
0.63
157
0.86
187
1.12
218
EAI-Stereotwo views0.75
197
0.49
161
0.50
195
0.51
185
0.46
188
0.56
197
0.60
218
0.73
208
0.32
143
0.63
183
0.72
212
0.82
192
0.26
95
0.24
120
1.05
231
0.96
251
0.60
174
0.49
167
3.00
261
0.62
227
0.82
200
1.13
232
0.19
98
0.31
143
0.78
212
0.70
169
1.55
272
1.17
223
IGEV_Zeroshot_testtwo views0.95
229
0.47
146
1.24
283
1.15
262
0.46
188
0.60
204
0.65
234
0.81
236
0.36
163
0.66
205
1.86
282
0.94
209
0.30
119
0.26
147
0.66
143
1.14
277
0.60
174
0.48
160
2.56
248
0.63
231
2.23
277
2.36
281
0.21
123
0.37
182
1.00
254
1.03
238
1.17
236
1.48
238
AIO-Stereo-zeroshotpermissivetwo views1.21
246
0.49
161
1.28
287
0.75
231
0.41
176
1.04
257
0.67
236
0.77
225
0.52
209
0.78
249
5.67
312
1.03
220
0.35
165
0.26
147
0.86
193
1.39
298
0.68
209
0.70
249
2.61
252
0.64
232
2.89
289
2.21
278
0.19
98
0.43
198
1.03
259
1.15
249
1.35
256
2.41
267
SACVNettwo views0.62
170
0.53
196
0.51
199
0.55
196
0.57
213
0.52
185
0.60
218
0.69
189
0.56
219
0.67
213
0.54
161
0.59
135
0.37
174
0.41
206
0.71
162
0.60
186
0.64
194
0.57
210
0.95
178
0.64
232
0.67
173
0.78
201
0.36
199
0.47
214
0.75
203
0.77
186
0.84
180
0.84
187
GANet-ADLtwo views0.70
187
0.59
211
0.52
200
0.60
206
0.57
213
0.61
207
0.46
191
0.68
182
0.52
209
0.65
195
0.67
202
0.76
183
0.43
191
0.39
200
1.08
236
0.79
231
0.68
209
0.52
187
1.84
223
0.64
232
0.66
169
0.86
209
0.42
216
0.43
198
0.70
185
0.87
203
0.97
207
0.89
194
RAFT-Testtwo views0.72
190
0.50
176
0.46
182
0.52
188
0.34
142
0.41
147
0.29
153
0.73
208
0.30
117
0.62
177
0.72
212
0.68
158
0.31
131
0.22
96
0.71
162
1.03
265
0.62
186
0.50
173
2.89
259
0.66
235
1.72
265
1.14
234
0.23
146
0.29
127
0.80
219
0.96
220
0.95
201
0.91
195
ETE_ROBtwo views0.87
221
0.90
261
0.58
213
0.67
221
0.69
235
0.85
242
0.60
218
0.66
172
0.89
255
0.64
190
1.09
251
2.63
269
0.54
215
0.54
244
1.00
226
0.72
216
0.91
254
0.63
227
0.99
182
0.66
235
0.88
207
1.08
227
0.50
233
0.59
235
0.78
212
0.92
212
1.48
270
1.17
223
SGM_RVCbinarytwo views2.81
288
1.46
286
0.85
252
1.76
283
1.28
279
1.68
285
1.19
271
1.56
289
1.14
271
0.82
258
1.70
277
7.09
307
2.67
288
0.42
216
0.92
208
0.57
176
0.75
229
0.57
210
11.20
307
0.66
235
0.94
219
0.46
113
0.51
241
0.84
267
1.97
296
1.64
283
5.04
320
26.13
328
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
CBMVpermissivetwo views1.15
244
0.84
258
0.60
219
0.85
240
0.76
251
0.73
230
0.48
194
0.87
244
0.80
244
0.81
255
0.61
178
2.86
272
0.81
241
0.52
240
1.31
252
1.17
281
0.91
254
0.74
257
2.40
244
0.66
235
1.57
259
0.76
197
0.48
227
1.06
281
0.99
251
1.09
242
2.25
290
4.25
295
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MFN_U_SF_DS_RVCtwo views1.33
250
0.90
261
0.63
226
1.27
269
0.90
258
1.21
268
2.21
287
1.27
273
1.18
273
1.00
277
0.91
237
1.80
259
1.16
255
1.07
288
1.48
261
0.77
225
0.70
217
0.58
215
2.75
256
0.67
239
1.39
254
2.93
289
0.85
274
0.73
253
1.47
283
1.68
284
1.33
254
2.96
278
LALA_ROBtwo views0.86
220
0.97
268
0.67
235
0.63
213
0.69
235
0.83
241
0.67
236
0.70
195
0.80
244
0.68
215
1.10
253
2.61
268
0.58
225
0.51
236
1.11
239
0.67
206
0.86
245
0.72
252
0.89
170
0.67
239
0.80
197
1.00
222
0.49
229
0.59
235
0.73
196
0.92
212
1.16
234
1.10
215
SQANettwo views1.90
271
2.70
298
1.03
268
3.09
296
2.17
293
3.29
295
2.70
293
0.95
251
0.65
230
1.00
277
0.71
207
2.69
271
1.10
252
2.30
298
0.78
169
0.55
170
1.02
264
0.72
252
9.92
302
0.68
241
2.11
275
1.25
241
3.28
302
0.58
234
0.98
248
1.31
265
1.33
254
2.34
264
PSMNet-ADLtwo views0.96
232
0.62
221
0.66
232
0.67
221
0.70
241
0.66
220
0.58
213
0.74
213
0.60
224
0.85
263
5.03
306
0.95
212
1.26
259
0.45
224
0.89
202
1.03
265
0.68
209
0.54
197
2.03
229
0.68
241
0.84
204
0.79
203
0.54
248
0.47
214
0.73
196
0.95
217
1.32
253
0.63
145
iResNettwo views0.92
224
0.56
204
0.62
222
0.72
228
0.68
233
0.96
250
0.55
207
0.95
251
0.57
220
0.67
213
0.82
232
1.41
245
1.51
266
0.31
174
1.49
262
0.66
205
0.75
229
0.67
239
4.08
273
0.68
241
0.72
185
0.63
165
0.41
213
0.83
265
0.72
191
0.91
211
1.02
218
0.87
192
Anonymous3two views0.79
212
0.59
211
0.42
164
0.37
137
0.42
179
0.57
198
0.50
198
0.80
231
0.64
229
0.68
215
0.49
137
1.48
246
0.54
215
0.31
174
1.53
263
1.42
300
0.88
250
0.82
271
1.45
205
0.69
244
1.31
250
1.30
244
0.40
211
0.40
189
0.74
198
0.86
200
1.03
220
0.71
167
ccs_robtwo views1.25
248
0.79
245
0.64
228
0.86
241
0.60
218
0.89
247
0.83
249
0.99
258
0.51
208
0.77
245
6.27
318
5.90
300
1.10
252
0.51
236
1.08
236
1.10
273
0.68
209
0.66
237
1.15
193
0.70
245
1.56
258
1.66
266
0.50
233
0.54
227
0.69
182
0.78
187
0.86
187
1.20
226
GwcNet-ADLtwo views0.97
234
0.83
254
0.81
248
0.91
247
0.68
233
0.70
226
0.53
202
0.77
225
0.50
206
0.72
232
5.46
309
1.20
236
0.65
232
0.46
226
0.81
178
0.95
248
0.72
225
0.56
205
1.26
199
0.71
246
0.67
173
0.78
201
0.59
255
0.56
230
0.79
215
0.98
226
0.85
182
1.75
249
CSANtwo views0.93
227
0.83
254
0.75
243
0.86
241
0.82
253
0.73
230
0.61
223
0.97
257
0.94
262
0.94
273
0.73
217
1.96
260
1.56
267
0.49
230
0.98
222
0.63
191
0.74
227
0.66
237
1.09
186
0.71
246
0.78
194
0.63
165
0.53
244
0.76
258
0.98
248
1.49
278
1.21
240
1.63
243
model_zeroshottwo views0.80
215
0.46
139
0.42
164
0.42
158
0.39
165
0.43
156
0.27
141
0.72
205
0.36
163
0.64
190
0.66
195
0.97
213
0.29
109
0.24
120
1.05
231
0.92
243
0.69
215
0.54
197
3.03
262
0.73
248
1.21
244
1.20
239
0.22
136
0.38
184
0.84
229
1.14
248
1.08
223
2.21
262
FADNet_RVCtwo views0.92
224
0.69
233
0.55
208
0.88
243
0.75
250
0.54
192
0.51
199
0.77
225
0.54
213
0.70
226
0.96
242
1.36
243
1.06
248
0.54
244
1.85
281
0.64
197
0.80
237
0.90
275
3.34
266
0.76
249
1.00
228
1.13
232
0.37
204
0.60
237
0.66
178
0.87
203
0.97
207
1.14
221
AnyNet_C32two views1.64
262
0.65
225
0.74
242
0.67
221
0.73
244
0.86
245
1.14
267
0.95
251
3.12
314
0.75
240
1.53
272
0.94
209
0.64
231
0.67
266
1.83
280
1.11
275
1.06
269
0.95
282
1.78
221
0.76
249
1.76
269
1.71
268
0.66
260
0.85
268
1.13
266
2.68
303
1.17
236
13.55
320
XQCtwo views1.03
238
0.90
261
0.71
239
0.91
247
0.92
259
0.92
249
0.86
252
1.06
268
0.90
256
0.84
261
1.11
256
1.03
220
1.30
263
0.71
270
2.04
286
0.95
248
0.87
246
0.67
239
1.64
216
0.78
251
1.00
228
1.67
267
0.62
258
0.73
253
1.09
263
1.47
274
1.26
247
0.97
200
MaskLacGwcNet_RVCtwo views8.29
318
0.65
225
1.07
273
0.94
252
0.83
254
0.81
240
1.27
274
0.85
243
0.73
236
0.93
269
6.13
315
180.62
340
2.17
276
1.33
293
1.22
247
1.01
262
0.93
258
1.06
289
6.32
288
0.79
252
3.32
301
3.77
299
0.55
250
0.76
258
0.95
244
1.34
270
1.19
238
2.42
268
gcap-zeroshottwo views1.75
267
0.44
119
0.89
256
0.59
203
0.36
150
0.55
194
0.29
153
0.74
213
0.29
109
0.74
236
0.76
219
1.18
235
0.33
146
0.24
120
0.78
169
0.97
253
0.61
180
0.53
191
29.80
323
0.80
253
1.04
231
1.45
253
0.23
146
0.34
166
0.75
203
0.99
228
0.96
204
0.75
175
SHDtwo views0.97
234
0.56
204
0.73
241
0.75
231
0.69
235
0.66
220
0.61
223
0.99
258
0.94
262
0.77
245
1.00
245
0.94
209
1.29
261
0.54
244
2.21
296
0.98
256
0.95
259
0.70
249
2.01
228
0.80
253
1.12
239
1.71
268
0.47
222
0.77
261
0.91
236
1.01
233
0.91
193
1.22
228
ADCMidtwo views1.56
258
0.92
265
0.99
263
0.70
225
0.86
256
1.05
258
1.37
276
1.29
276
1.77
291
0.75
240
1.75
279
1.27
237
1.48
265
0.69
268
2.18
295
1.07
269
0.98
262
0.79
268
2.74
255
0.80
253
1.31
250
1.74
270
1.06
282
0.70
248
1.01
256
1.53
280
1.02
218
10.33
316
MeshStereopermissivetwo views3.62
299
1.54
287
1.05
269
2.64
287
1.72
289
2.05
288
1.15
269
2.40
309
1.41
283
0.90
268
6.48
319
9.56
317
7.42
307
0.49
230
11.75
325
1.94
312
0.87
246
0.74
257
8.79
296
0.80
253
8.36
323
8.07
324
0.73
264
1.07
282
3.39
309
2.15
297
5.22
321
4.99
298
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
MSMDNettwo views0.73
191
0.52
190
0.48
189
0.35
131
0.34
142
0.45
164
0.33
165
0.69
189
0.30
117
0.63
183
0.60
171
0.71
166
0.35
165
0.23
109
0.78
169
1.05
267
0.63
191
0.50
173
2.88
258
0.81
257
1.59
260
1.80
272
0.23
146
0.29
127
0.74
198
0.89
207
0.85
182
0.76
177
SANettwo views1.61
261
0.91
264
1.10
276
1.04
256
1.05
268
1.25
271
0.77
244
1.76
299
1.81
292
0.77
245
1.24
257
6.63
304
5.08
297
0.83
277
1.56
265
0.77
225
1.24
276
0.90
275
1.58
212
0.82
258
1.05
233
1.00
222
0.90
275
1.27
294
1.32
277
1.93
289
1.88
284
3.10
282
MANEtwo views7.31
313
2.64
297
4.48
324
3.30
301
3.10
314
3.94
309
2.83
295
5.37
326
6.88
322
1.11
281
5.64
311
8.81
314
11.02
312
0.67
266
3.83
315
3.83
319
1.32
277
18.03
332
8.61
294
0.84
259
4.22
309
1.16
235
0.74
265
1.79
316
13.65
328
18.61
329
22.89
331
38.18
336
RTStwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
RTSAtwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
DCVSM-stereotwo views1.13
243
0.66
228
0.79
246
0.89
244
0.65
227
1.15
264
0.73
241
0.95
251
0.82
248
1.04
279
4.18
300
3.75
288
1.45
264
0.49
230
0.83
183
0.86
237
0.69
215
0.60
223
2.08
230
0.87
262
1.06
235
0.77
199
0.84
272
0.72
252
0.74
198
0.89
207
0.98
210
1.09
211
TANstereotwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
XX-TBDtwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
DDUNettwo views1.38
253
2.18
291
0.79
246
2.67
289
2.43
298
2.57
290
2.52
290
0.80
231
0.84
249
0.63
183
0.94
239
1.57
253
0.45
197
2.65
303
0.94
214
0.78
228
1.99
295
0.75
259
2.31
237
0.91
265
1.16
241
0.97
218
2.71
301
0.56
230
0.72
191
0.71
170
0.97
207
0.85
188
DDVStwo views2.32
276
0.70
234
0.82
250
0.70
225
0.74
248
0.73
230
0.59
214
1.09
270
0.88
252
0.80
253
34.26
334
3.93
290
1.16
255
0.52
240
1.09
238
1.35
291
0.73
226
0.65
235
1.95
227
0.95
266
1.67
264
2.27
280
0.48
227
0.56
230
0.69
182
0.84
199
1.21
240
1.35
232
PWC_ROBbinarytwo views1.18
245
0.70
234
1.06
271
0.60
206
0.71
242
0.70
226
0.98
263
0.83
239
1.55
288
0.76
243
1.40
268
1.00
215
2.46
284
0.57
253
2.17
294
0.99
260
1.15
270
0.90
275
2.37
241
0.95
266
1.63
262
2.05
275
0.44
218
0.98
276
0.81
220
0.80
192
1.24
245
2.15
259
pmcnntwo views1.66
263
0.80
248
0.52
200
1.19
265
1.01
264
1.21
268
0.93
258
0.96
256
0.54
213
0.74
236
2.66
291
3.98
292
5.06
296
0.31
174
1.65
271
1.40
299
1.20
274
0.91
278
3.99
271
0.95
266
4.45
313
1.02
224
0.90
275
0.90
270
1.07
261
1.01
233
2.43
297
3.03
280
UDGtwo views1.35
252
2.24
293
0.81
248
2.58
286
2.45
299
2.48
289
2.57
291
0.76
220
0.86
250
0.77
245
1.08
250
1.51
248
0.56
219
2.59
299
1.06
233
0.69
210
1.89
293
0.80
270
2.31
237
0.97
269
1.24
246
0.98
219
1.43
293
0.62
240
0.74
198
0.81
194
0.95
201
0.81
184
edge stereotwo views1.82
268
1.16
278
2.22
304
1.46
277
1.28
279
1.58
281
1.38
277
1.67
296
1.30
277
1.20
288
3.42
297
4.33
295
2.26
280
0.80
275
1.41
255
1.46
301
1.05
267
0.83
274
5.42
280
0.97
269
1.34
252
3.76
298
0.95
280
0.88
269
1.26
276
1.20
252
1.70
279
2.91
276
ADCPNettwo views2.08
275
0.77
241
0.87
254
0.83
239
1.21
277
0.85
242
1.59
279
1.02
263
1.35
280
0.83
260
1.97
283
1.01
218
7.76
308
0.75
273
2.35
305
1.16
280
0.95
259
0.71
251
4.05
272
0.97
269
1.30
249
1.61
263
0.72
262
0.76
258
1.52
286
1.96
292
1.21
240
16.04
323
SAMSARAtwo views1.50
255
0.79
245
1.00
267
0.93
250
0.88
257
0.86
245
0.93
258
1.57
290
1.25
275
0.96
274
1.09
251
1.27
237
2.59
285
0.83
277
2.58
310
1.19
284
1.04
265
0.91
278
2.56
248
0.99
272
1.77
270
2.23
279
0.56
252
0.98
276
2.63
299
2.81
304
2.62
302
2.56
271
STStereotwo views5.29
306
2.47
296
5.20
325
5.20
312
2.80
307
4.72
315
3.42
301
6.23
327
6.52
321
1.51
304
7.61
323
9.53
316
14.86
319
0.63
261
4.09
317
0.64
197
0.87
246
0.62
226
36.67
327
1.02
273
1.23
245
1.05
226
0.78
266
1.63
307
3.46
310
2.43
300
3.53
311
14.15
321
DAStwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
SepStereotwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
AMNettwo views1.02
237
0.98
269
0.95
259
0.98
253
1.01
264
1.03
255
0.96
262
0.87
244
0.93
259
0.97
275
1.02
247
1.10
229
0.74
238
1.06
287
0.99
225
1.09
272
1.17
271
1.04
287
1.08
185
1.05
276
1.13
240
1.04
225
0.82
271
0.98
276
1.01
256
1.07
241
1.20
239
1.27
230
FAT-Stereotwo views1.57
259
0.78
243
1.44
292
1.10
258
1.32
282
1.05
258
0.87
253
1.28
275
0.86
250
1.21
289
5.46
309
3.07
277
1.28
260
0.66
264
1.73
275
1.34
288
0.89
252
0.94
281
1.83
222
1.08
277
2.02
273
3.90
301
0.71
261
0.98
276
0.86
232
1.21
254
1.42
266
3.03
280
otakutwo views2.33
279
3.05
307
1.19
278
3.36
303
2.37
296
3.56
300
3.08
298
1.05
265
0.98
265
1.13
282
0.80
226
2.88
273
1.62
269
2.59
299
0.95
216
0.64
197
1.23
275
0.75
259
13.16
310
1.09
278
2.47
280
2.63
284
4.75
312
0.75
257
1.13
266
1.38
271
1.69
278
2.52
270
S-Stereotwo views1.54
257
0.81
249
0.83
251
1.15
262
1.16
275
1.29
273
1.56
278
1.02
263
1.09
269
1.25
292
4.20
301
4.10
293
1.10
252
0.66
264
2.16
293
1.63
305
0.90
253
1.05
288
2.20
234
1.10
279
1.26
247
3.12
292
1.31
292
1.17
291
0.84
229
1.18
251
1.21
240
2.18
260
ELAScopylefttwo views3.38
298
2.19
292
1.79
297
2.99
294
2.37
296
3.32
296
2.09
286
2.60
313
2.85
312
1.28
294
4.85
305
8.61
313
8.02
309
0.76
274
2.90
311
0.81
232
1.80
291
1.10
293
4.19
274
1.10
279
4.53
314
7.86
321
1.26
285
1.63
307
7.08
322
4.79
320
3.66
315
4.87
297
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MFN_U_SF_RVCtwo views1.68
265
1.06
274
0.88
255
1.25
268
1.01
264
1.53
280
2.07
285
1.38
283
1.17
272
1.51
304
2.95
293
2.00
262
1.57
268
2.05
297
2.38
306
0.98
256
0.87
246
0.82
271
6.78
289
1.11
281
2.21
276
2.38
282
0.65
259
1.11
286
1.23
270
1.33
268
1.28
250
1.69
248
Ntrotwo views2.32
276
3.40
315
1.53
294
3.55
304
2.52
301
3.71
305
3.36
300
1.11
271
1.05
267
1.16
286
0.90
236
2.93
275
1.24
258
2.72
305
1.00
226
0.64
197
1.40
280
0.82
271
10.96
305
1.14
282
2.72
284
3.19
293
4.26
308
0.73
253
1.24
273
1.59
282
1.56
273
2.31
263
ACVNet_1two views2.47
281
3.23
310
2.35
306
4.40
310
2.93
312
3.77
307
3.96
308
1.34
279
1.18
273
1.21
289
1.02
247
3.31
283
2.07
275
3.09
310
1.31
252
0.70
214
2.26
301
1.10
293
9.52
300
1.14
282
3.45
302
1.18
238
4.50
311
1.07
282
1.39
281
1.75
286
1.36
258
2.10
257
PVDtwo views1.47
254
1.04
273
1.44
292
1.10
258
1.09
273
1.19
266
1.07
266
1.91
303
2.05
297
0.79
252
1.49
271
1.54
251
1.91
274
0.89
282
2.26
300
1.35
291
1.39
279
1.09
292
2.41
245
1.14
282
1.51
257
1.98
274
0.79
267
1.08
284
1.49
285
1.82
287
1.67
277
2.10
257
MSC_U_SF_DS_RVCtwo views1.67
264
1.25
282
1.05
269
1.56
279
1.08
271
1.20
267
3.18
299
1.50
287
2.10
299
1.30
296
0.98
244
1.50
247
1.04
247
1.66
295
1.71
272
1.18
282
0.84
243
1.01
284
6.24
286
1.15
285
1.43
255
3.23
294
1.19
284
1.14
288
1.52
286
1.29
263
1.09
225
2.78
275
SFCPSMtwo views3.03
292
0.82
252
0.63
226
0.77
235
0.69
235
0.72
229
0.63
227
0.83
239
0.98
265
0.71
229
2.00
284
2.57
266
3.49
290
0.56
248
1.16
244
0.93
247
0.74
227
0.64
231
54.48
335
1.19
286
0.88
207
0.91
214
0.55
250
0.55
229
0.94
242
0.93
215
1.11
229
1.39
233
CBMV_ROBtwo views1.71
266
0.79
245
0.65
231
1.35
272
1.07
270
1.01
253
0.74
243
1.01
262
0.54
213
0.72
232
0.81
227
9.80
319
5.90
302
0.57
253
1.42
256
0.69
210
0.80
237
0.58
215
5.38
279
1.22
287
0.95
222
0.55
151
0.53
244
0.62
240
1.22
269
1.45
273
2.72
305
2.94
277
ACVNet-4btwo views2.35
280
2.75
301
1.60
296
3.13
297
2.29
295
3.52
299
3.67
306
1.35
280
1.35
280
1.27
293
0.72
212
3.26
281
2.62
287
3.04
308
0.98
222
0.78
228
2.13
297
1.02
285
9.04
299
1.23
288
2.74
285
3.39
297
4.08
305
0.92
271
1.24
273
1.29
263
1.46
269
2.48
269
MFMNet_retwo views1.51
256
1.18
279
1.12
277
1.29
270
1.16
275
1.63
283
1.32
275
1.30
278
1.63
289
1.14
285
1.38
267
2.64
270
1.63
270
0.90
283
2.27
301
1.35
291
1.58
284
1.32
306
3.69
268
1.24
289
2.10
274
1.26
243
1.16
283
1.24
293
1.11
264
1.02
237
1.59
274
1.60
241
ELAS_RVCcopylefttwo views3.22
294
2.01
290
1.85
299
2.66
288
2.07
292
5.08
318
2.06
284
2.41
310
1.89
294
1.74
314
4.78
303
8.00
311
8.02
309
0.74
272
2.38
306
0.81
232
1.75
290
1.14
297
3.97
270
1.27
290
4.64
316
7.61
320
1.26
285
1.74
312
6.58
321
3.21
310
3.39
310
3.80
290
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ADCStwo views1.88
270
1.06
274
0.98
262
0.93
250
1.10
274
1.09
260
1.14
267
1.27
273
2.49
305
0.89
267
1.36
266
1.51
248
2.92
289
0.86
280
3.30
313
2.26
314
1.46
283
1.26
301
3.10
264
1.29
291
2.48
281
2.88
287
0.80
269
1.10
285
1.33
279
4.48
319
1.41
265
6.08
305
DPSNettwo views2.61
282
0.83
254
0.77
245
1.21
267
1.24
278
1.34
275
0.93
258
1.08
269
1.49
286
0.78
249
0.86
233
6.91
306
3.85
291
0.58
256
4.58
318
2.54
315
1.43
282
1.24
299
14.95
314
1.34
292
4.83
317
8.01
322
1.75
296
1.40
299
1.47
283
1.95
291
1.60
276
1.66
246
SPS-STEREOcopylefttwo views1.93
272
1.27
283
1.21
280
1.60
281
1.34
283
1.44
278
1.17
270
1.66
293
1.36
282
1.38
299
3.67
298
3.02
276
1.29
261
1.05
286
1.85
281
1.83
310
1.58
284
1.37
308
8.86
298
1.34
292
3.07
294
1.47
255
1.27
289
1.37
296
1.42
282
1.28
262
2.02
289
1.89
251
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views3.17
293
2.98
304
2.25
305
4.72
311
2.88
309
3.50
297
3.48
302
1.58
291
1.33
278
1.29
295
1.10
253
3.22
280
2.45
283
2.67
304
1.29
250
0.86
237
7.26
317
1.02
285
22.14
318
1.37
294
3.22
297
1.25
241
4.24
306
1.37
296
1.93
293
1.92
288
1.83
283
2.36
265
SGM+DAISYtwo views3.81
300
1.38
284
1.26
285
1.80
284
1.47
287
1.93
287
1.71
281
1.47
286
1.33
278
1.34
298
6.67
321
9.59
318
12.99
316
1.20
290
1.73
275
1.47
302
1.42
281
1.24
299
11.11
306
1.37
294
3.07
294
2.13
277
1.27
289
1.42
302
1.69
289
1.26
260
2.90
307
26.50
329
WAO-7two views2.72
287
1.83
289
2.89
315
7.39
316
1.73
290
1.76
286
1.82
282
2.07
304
2.65
307
2.21
320
5.39
308
4.58
297
5.72
301
1.23
291
2.07
290
1.27
287
1.69
288
1.22
298
7.70
292
1.51
296
1.64
263
3.07
291
0.84
272
1.65
309
1.83
292
2.48
301
1.97
287
3.27
284
RainbowNettwo views2.32
276
2.93
303
1.87
300
3.34
302
2.57
302
3.50
297
3.49
303
1.29
276
0.92
257
1.53
307
0.89
235
3.18
279
2.31
281
2.94
306
1.30
251
0.90
241
1.61
287
1.00
283
5.61
281
1.51
296
2.82
288
4.18
303
4.25
307
0.97
274
1.32
277
1.58
281
1.71
280
3.00
279
IMH-64-1two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
IMH-64two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
WAO-6two views2.71
285
2.26
294
1.57
295
3.00
295
2.25
294
3.01
293
3.02
297
1.77
300
2.35
300
1.52
306
1.62
275
3.94
291
5.12
298
2.64
302
2.22
297
1.38
296
2.65
305
1.36
307
4.86
276
1.54
300
2.76
287
4.79
307
2.70
300
1.73
311
2.71
301
2.59
302
2.68
304
5.02
299
IMHtwo views3.24
295
2.76
302
2.37
309
3.26
300
2.74
306
3.73
306
4.10
311
1.72
298
2.58
306
1.17
287
1.24
257
3.92
289
10.58
311
6.80
326
1.57
267
1.11
275
2.25
300
1.30
303
6.28
287
1.56
301
2.97
291
4.14
302
4.90
317
1.45
303
3.01
307
2.36
299
2.47
299
5.19
301
AnyNet_C01two views2.06
274
1.08
276
1.06
271
1.14
261
1.08
271
1.01
253
2.69
292
1.69
297
2.66
308
1.21
289
1.67
276
2.90
274
2.60
286
0.95
285
3.65
314
4.02
321
2.09
296
2.21
322
3.08
263
1.56
301
3.30
300
2.89
288
1.26
285
1.15
289
1.80
291
1.43
272
1.51
271
3.90
291
LVEtwo views4.33
304
3.03
305
2.00
302
27.23
330
3.06
313
3.83
308
12.07
329
1.53
288
1.64
290
1.85
316
1.48
270
3.30
282
3.91
292
3.06
309
1.45
257
1.05
267
1.95
294
1.38
309
15.68
315
1.62
303
3.25
299
5.86
313
4.42
310
1.76
313
2.87
305
2.06
295
2.34
293
3.25
283
MADNet+two views1.96
273
1.18
279
1.26
285
1.45
276
1.28
279
1.10
261
2.21
287
1.88
301
1.41
283
1.33
297
1.32
263
2.29
264
2.23
277
1.25
292
4.58
318
1.87
311
2.55
304
1.13
296
2.73
254
1.63
304
3.69
306
3.33
295
1.26
285
2.09
318
1.93
293
1.47
274
1.59
274
2.77
274
PSMNet_ROBtwo views2.71
285
3.39
314
1.92
301
2.87
293
2.04
291
4.01
310
3.50
304
1.46
285
1.41
283
1.59
309
3.34
294
3.52
284
4.97
295
4.50
317
1.61
268
0.95
248
1.87
292
1.06
289
8.62
295
1.63
304
2.32
279
1.51
259
5.43
321
1.37
296
1.98
297
1.94
290
1.91
285
2.39
266
DGSMNettwo views2.66
284
0.96
266
1.36
291
1.03
255
0.99
263
1.12
263
1.05
265
1.36
281
0.94
262
2.15
319
13.54
330
1.71
257
1.85
272
0.93
284
2.50
309
3.85
320
5.34
313
1.61
313
5.07
277
1.68
306
7.04
322
8.02
323
0.96
281
1.19
292
1.01
256
1.33
268
1.40
264
1.88
250
Deantwo views2.84
289
3.23
310
1.81
298
6.04
314
3.38
318
3.63
302
3.67
306
1.88
301
1.97
296
1.47
301
1.30
261
3.69
287
4.10
293
2.97
307
1.45
257
0.97
253
2.41
302
1.29
302
5.94
282
1.74
307
3.20
296
4.23
304
4.79
314
1.55
304
2.65
300
2.27
298
2.56
300
2.64
272
ACV-stereotwo views8.39
320
1.01
272
0.97
261
1.29
270
0.73
244
1.48
279
0.95
261
0.88
247
1.10
270
1.07
280
1.33
265
1.06
225
23.12
322
0.52
240
4.00
316
3.78
318
1.05
267
0.79
268
168.94
339
1.91
308
3.64
305
1.44
251
0.72
262
0.74
256
0.74
198
0.90
209
1.43
267
1.03
207
STTRV1_RVCtwo views0.81
249
0.64
228
1.04
256
0.73
244
1.03
255
0.85
250
0.91
249
0.92
257
0.93
269
0.95
241
1.72
258
2.23
277
0.86
280
1.46
260
0.78
228
1.37
278
0.72
252
1.97
309
1.59
260
1.23
240
0.97
274
1.07
261
1.11
245
1.75
281
3.40
286
KSHMRtwo views8.16
317
4.16
318
2.96
316
25.39
329
3.92
319
5.08
318
5.53
313
2.62
314
2.40
302
2.23
321
2.26
286
4.37
296
77.17
339
5.23
320
2.24
298
1.71
306
2.79
308
1.98
316
31.04
324
2.02
310
4.59
315
5.35
308
7.54
328
1.89
317
3.30
308
2.91
306
3.01
308
6.51
308
notakertwo views5.52
307
5.55
325
3.76
321
13.97
325
5.34
323
5.44
322
7.16
317
2.36
308
2.68
309
2.06
318
1.80
280
12.90
326
23.86
323
3.98
314
2.04
286
1.73
307
3.45
311
2.12
319
17.08
316
2.15
311
6.10
321
5.87
314
6.15
325
2.12
319
1.79
290
2.08
296
2.31
292
3.29
285
LSM0two views8.30
319
1.08
276
0.95
259
1.66
282
1.42
285
1.59
282
1.96
283
2.27
307
2.36
301
1.66
311
3.94
299
4.10
293
6.30
306
0.63
261
62.38
339
74.74
339
1.69
288
1.06
289
12.18
308
2.23
312
4.96
318
9.29
326
0.92
277
1.29
295
1.95
295
2.97
307
3.66
315
14.83
322
ktntwo views8.45
321
3.18
308
2.84
314
6.37
315
3.26
315
4.31
313
10.28
327
2.15
305
10.13
326
2.27
322
1.83
281
42.17
334
55.84
335
3.93
313
2.34
304
2.09
313
9.85
320
2.17
320
33.98
325
2.24
313
3.24
298
3.03
290
4.78
313
2.25
321
2.59
298
2.81
304
3.18
309
5.04
300
PWCKtwo views5.04
305
3.03
305
2.21
303
3.61
305
2.60
303
4.41
314
5.09
312
2.45
311
2.76
310
3.31
325
4.34
302
10.15
322
5.13
299
1.74
296
1.99
284
1.38
296
2.41
302
1.45
310
51.59
334
2.35
314
3.70
307
2.69
286
2.65
299
1.78
315
2.97
306
3.21
310
2.43
297
4.77
296
JetBluetwo views6.09
311
3.85
317
3.31
320
5.99
313
4.13
320
6.22
324
7.94
319
3.42
319
2.89
313
1.47
301
1.46
269
8.10
312
1.90
273
5.39
323
11.86
326
3.22
317
3.30
310
2.99
323
5.32
278
2.40
315
9.74
326
10.03
329
4.93
318
2.18
320
7.39
323
17.16
328
3.72
317
24.15
326
WAO-8two views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
Venustwo views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
TorneroNet-64two views6.02
310
4.60
321
2.53
310
15.58
326
3.29
316
4.87
316
7.75
318
2.23
306
10.02
324
1.42
300
1.31
262
7.26
309
29.23
328
4.36
316
2.09
291
1.21
285
8.22
318
1.70
315
17.35
317
2.62
318
4.31
311
5.68
312
5.20
319
1.76
313
3.58
311
3.76
316
2.29
291
8.34
313
G-Nettwo views1.86
269
1.00
271
1.28
287
0.89
244
0.93
260
1.10
261
0.77
244
1.63
292
2.07
298
0.99
276
2.89
292
7.30
310
1.67
271
0.55
247
1.45
257
1.75
308
1.04
265
0.93
280
2.87
257
2.72
319
1.89
272
1.47
255
0.80
269
1.02
280
1.06
260
1.71
285
2.82
306
5.60
302
TorneroNettwo views8.11
316
4.28
320
2.58
311
27.50
331
3.31
317
5.00
317
6.00
316
2.62
314
10.13
326
1.49
303
2.57
290
11.07
324
68.61
338
4.25
315
1.77
279
1.18
282
5.78
314
1.62
314
23.67
319
2.83
320
4.30
310
5.47
309
5.37
320
1.65
309
3.72
312
3.14
309
2.59
301
6.36
307
DispFullNettwo views4.17
301
3.20
309
4.34
323
2.72
290
2.46
300
2.92
292
2.70
293
2.79
318
1.90
295
4.51
329
6.62
320
8.91
315
4.83
294
2.59
299
2.00
285
8.18
326
3.24
309
1.98
316
24.96
320
2.93
321
3.99
308
3.36
296
1.71
295
1.15
289
1.36
280
1.32
267
2.36
296
3.65
289
UNDER WATERtwo views7.55
314
4.74
322
3.06
317
10.46
322
5.92
325
6.35
325
8.05
320
4.32
320
3.69
317
1.97
317
2.14
285
10.53
323
62.60
337
4.83
318
2.25
299
1.59
304
12.22
328
2.08
318
9.67
301
3.97
322
5.27
319
6.65
317
8.86
331
2.65
324
3.82
313
5.62
321
3.62
314
7.03
310
JetRedtwo views7.85
315
5.29
324
6.07
327
3.75
306
5.00
322
6.95
327
10.20
326
4.64
324
3.42
315
2.92
324
2.39
288
6.71
305
2.25
279
7.15
327
10.26
323
7.34
325
8.59
319
7.11
327
4.82
275
4.08
323
10.76
330
9.27
325
7.85
329
3.34
325
10.96
325
24.25
332
11.90
326
24.57
327
UNDER WATER-64two views6.11
312
5.20
323
3.13
318
12.20
323
5.77
324
6.55
326
8.53
323
4.74
325
3.45
316
2.30
323
2.36
287
12.04
325
12.47
315
5.08
319
3.02
312
1.81
309
12.11
327
2.17
320
8.81
297
4.17
324
5.75
320
7.27
319
8.74
330
2.61
323
3.86
314
8.63
323
4.32
318
7.86
312
MADNet++two views5.64
308
3.51
316
3.77
322
2.84
292
4.62
321
3.02
294
3.65
305
4.36
321
5.03
320
4.18
328
5.07
307
6.45
303
5.92
303
6.18
325
7.04
321
6.82
324
4.71
312
4.00
326
8.03
293
5.83
325
9.92
327
16.38
331
2.32
298
4.34
327
3.95
315
11.38
326
4.93
319
4.01
292
LE_ROBtwo views17.44
326
1.82
288
6.12
328
9.40
317
53.85
340
8.01
328
46.26
336
11.27
332
28.12
333
1.80
315
7.03
322
38.62
332
49.53
334
0.34
186
1.76
278
0.55
170
0.78
232
0.59
220
36.68
328
6.72
326
2.92
290
0.85
207
29.06
335
12.10
333
26.35
330
25.49
333
27.84
334
37.03
335
DPSimNet_ROBtwo views18.93
330
32.01
333
5.97
326
12.40
324
11.35
331
6.13
323
28.07
333
15.03
333
35.64
336
3.96
327
78.33
339
18.15
327
35.00
329
5.44
324
12.19
328
10.36
328
13.57
329
3.64
325
87.52
337
6.87
327
14.36
333
9.97
327
4.40
309
7.14
329
5.17
319
9.85
324
5.93
323
32.56
331
PMLtwo views30.82
334
20.91
331
7.15
330
29.65
332
20.81
335
29.11
333
10.50
328
10.87
329
88.32
340
20.03
336
154.19
340
98.60
339
119.55
340
10.53
329
9.19
322
8.69
327
16.72
330
7.27
328
34.57
326
7.35
328
12.77
331
10.86
330
5.72
324
6.17
328
33.11
337
12.83
327
34.30
335
12.33
319
HanzoNettwo views19.12
331
15.23
328
6.99
329
35.06
334
14.35
332
40.77
335
42.46
335
17.81
334
22.51
332
3.55
326
8.29
324
41.30
333
56.30
336
43.04
338
5.72
320
4.37
322
37.83
337
3.30
324
49.59
333
8.93
329
10.30
329
6.85
318
14.15
334
3.46
326
5.94
320
5.80
322
5.29
322
7.13
311
DPSMNet_ROBtwo views12.40
325
5.97
327
17.46
333
4.21
309
7.87
327
5.15
320
8.18
321
4.56
322
11.65
329
4.54
331
8.87
326
5.17
299
22.69
321
13.00
331
14.98
330
14.62
331
6.90
316
15.82
331
14.07
313
12.05
330
9.09
325
21.75
333
5.68
323
11.54
331
11.87
327
31.03
336
12.99
328
33.06
332
DGTPSM_ROBtwo views12.12
324
5.96
326
17.45
332
4.20
308
7.86
326
5.15
320
8.18
321
4.56
322
11.64
328
4.52
330
8.72
325
5.01
298
17.08
320
12.98
330
14.91
329
14.58
330
6.85
315
15.76
330
12.78
309
12.05
330
9.07
324
21.74
332
5.67
322
11.54
331
11.84
326
31.02
335
12.98
327
33.06
332
DPSM_ROBtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
DPSMtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
LRCNet_RVCtwo views21.34
332
28.92
332
11.37
331
31.78
333
29.09
336
34.25
334
27.43
332
21.71
336
10.07
325
29.63
337
30.60
333
32.06
330
25.81
325
33.87
336
11.15
324
2.97
316
25.27
334
21.35
335
44.05
331
20.83
334
14.27
332
5.87
314
36.69
336
27.43
336
2.76
302
1.47
274
8.68
325
6.79
309
CasAABBNettwo views36.73
335
32.73
335
44.18
339
18.81
327
17.45
333
27.29
332
18.12
330
21.69
335
30.40
334
17.52
334
18.08
331
20.27
328
26.53
326
32.96
334
38.28
335
37.42
334
36.82
335
41.12
337
27.47
322
29.86
335
53.56
340
55.70
339
12.93
332
28.91
337
63.44
339
78.07
339
73.93
339
88.05
339
FlowAnythingtwo views36.80
336
32.68
334
44.29
340
18.93
328
17.69
334
27.11
331
18.38
331
21.83
337
30.48
335
17.53
335
18.21
332
20.29
329
26.54
327
33.31
335
37.97
334
37.86
335
36.82
335
40.93
336
27.35
321
30.03
336
53.34
339
55.72
340
12.99
333
29.50
338
63.36
338
78.25
340
73.99
340
88.17
340
BEATNet-Init1two views22.01
333
36.32
336
3.23
319
54.74
338
11.23
330
52.95
339
28.72
334
9.47
328
8.51
323
1.57
308
10.45
329
33.05
331
48.98
333
0.71
270
16.97
331
11.50
329
1.60
286
1.11
295
77.80
336
35.27
337
9.94
328
9.98
328
1.27
289
2.30
322
27.41
331
11.09
325
52.85
338
35.36
334
HaxPigtwo views41.43
337
43.85
337
40.81
336
44.90
335
47.49
338
44.66
336
46.30
337
46.31
338
45.63
338
49.00
338
49.30
335
47.24
335
43.73
331
42.64
337
40.44
337
39.13
337
48.37
338
51.07
338
43.33
329
42.25
338
42.88
336
36.52
336
50.75
338
43.02
340
27.54
332
19.97
330
20.68
330
20.75
325
AVERAGE_ROBtwo views41.98
338
44.82
338
42.27
337
45.98
336
46.88
337
45.60
337
46.56
338
47.04
339
43.89
337
49.19
339
49.91
336
47.25
336
43.00
330
49.19
339
40.14
336
38.38
336
49.01
339
51.31
339
43.98
330
42.43
339
43.31
337
38.64
337
49.42
337
42.83
339
28.65
333
20.44
331
23.41
332
19.88
324
MEDIAN_ROBtwo views44.95
339
47.36
339
44.12
338
48.52
337
49.78
339
48.21
338
49.25
339
49.72
340
46.35
339
52.53
340
53.59
337
50.59
337
45.49
332
49.36
340
43.27
338
41.36
338
51.85
340
54.40
340
47.03
332
45.93
340
45.78
338
40.06
338
52.67
339
45.67
341
31.00
334
26.54
334
25.33
333
27.95
330
ASD4two views8.34
330