This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
11
0.12
23
0.11
6
0.14
19
0.16
11
0.07
7
0.06
9
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
1
0.13
6
0.06
3
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
18
0.04
1
0.17
26
0.13
27
0.15
18
0.16
27
0.19
25
0.08
13
0.09
28
0.18
9
0.22
13
0.19
2
0.16
6
0.15
1
0.14
12
0.17
1
0.14
7
0.08
13
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
29
0.13
11
0.06
2
0.11
6
0.09
10
0.10
2
0.07
7
0.06
9
0.16
3
0.16
2
0.19
2
0.11
1
0.18
3
0.09
1
0.17
1
0.11
1
0.08
13
0.07
4
0.14
2
0.12
2
0.24
15
0.12
5
AIO-Stereopermissivetwo views0.15
14
0.17
23
0.12
25
0.17
41
0.10
21
0.12
23
0.06
15
0.11
2
0.08
7
0.10
4
0.14
19
0.12
4
0.09
18
0.08
22
0.20
13
0.21
10
0.20
4
0.20
17
0.21
11
0.17
24
0.23
12
0.20
23
0.07
10
0.11
25
0.17
13
0.16
11
0.23
12
0.12
5
MoCha-V2two views0.14
11
0.15
16
0.11
21
0.12
19
0.09
17
0.11
18
0.09
36
0.13
11
0.08
7
0.13
12
0.18
34
0.17
18
0.07
7
0.07
15
0.17
5
0.23
16
0.20
4
0.20
17
0.25
24
0.14
12
0.29
34
0.17
12
0.08
13
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
16
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
23
0.26
24
0.20
4
0.18
10
0.20
9
0.11
2
0.24
18
0.15
9
0.05
1
0.06
1
0.22
26
0.20
21
0.23
12
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
CoSvtwo views0.13
5
0.17
23
0.08
4
0.08
8
0.07
7
0.17
40
0.07
20
0.15
18
0.10
14
0.13
12
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
7
0.21
7
0.12
2
0.22
14
0.12
5
0.20
6
0.11
1
0.06
3
0.07
4
0.22
26
0.15
10
0.19
5
0.11
1
RSMtwo views0.15
14
0.16
19
0.12
25
0.14
26
0.09
17
0.14
28
0.06
15
0.10
1
0.08
7
0.09
3
0.15
22
0.14
8
0.10
23
0.07
15
0.22
18
0.25
20
0.21
7
0.20
17
0.18
3
0.17
24
0.25
21
0.18
16
0.08
13
0.10
17
0.16
8
0.16
11
0.27
21
0.15
13
111111two views0.13
5
0.16
19
0.08
4
0.12
19
0.10
21
0.07
3
0.06
15
0.12
6
0.12
23
0.07
1
0.10
15
0.15
9
0.09
18
0.05
4
0.19
10
0.21
10
0.22
9
0.18
10
0.19
6
0.13
9
0.23
12
0.18
16
0.10
30
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
23
0.09
10
0.17
18
0.06
1
0.05
4
0.16
3
0.18
4
0.22
9
0.19
14
0.22
14
0.12
5
0.23
12
0.11
1
0.06
3
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
18
0.07
5
0.16
11
0.06
1
0.05
4
0.17
5
0.18
4
0.22
9
0.19
14
0.19
6
0.12
5
0.21
9
0.12
5
0.06
3
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
IGEV-Stereo++two views0.16
20
0.24
37
0.09
14
0.13
22
0.13
28
0.10
16
0.05
6
0.15
18
0.13
27
0.12
9
0.16
27
0.16
11
0.11
28
0.07
15
0.21
16
0.22
13
0.22
9
0.18
10
0.21
11
0.16
19
0.22
11
0.27
44
0.09
22
0.08
7
0.17
13
0.18
17
0.25
17
0.18
24
ProNettwo views0.14
11
0.13
11
0.14
31
0.11
17
0.07
7
0.14
28
0.12
51
0.13
11
0.06
2
0.08
2
0.24
59
0.09
1
0.06
1
0.07
15
0.22
18
0.21
10
0.22
9
0.18
10
0.19
6
0.14
12
0.20
6
0.11
1
0.12
40
0.11
25
0.16
8
0.13
5
0.17
4
0.12
5
CroCo-Stereo Lap2two views0.14
11
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
6
0.06
2
0.22
37
0.07
5
0.16
11
0.07
7
0.04
1
0.20
13
0.26
24
0.22
9
0.19
14
0.26
28
0.11
2
0.28
30
0.16
10
0.06
3
0.08
7
0.22
26
0.23
37
0.20
7
0.16
19
GASTEREOtwo views0.16
20
0.16
19
0.10
16
0.14
26
0.10
21
0.11
18
0.07
20
0.12
6
0.15
35
0.14
14
0.09
10
0.18
23
0.11
28
0.06
9
0.24
23
0.24
19
0.23
15
0.20
17
0.23
18
0.16
19
0.23
12
0.23
36
0.11
36
0.10
17
0.19
17
0.22
29
0.28
23
0.14
10
MSCFtwo views0.16
20
0.15
16
0.09
14
0.14
26
0.09
17
0.11
18
0.07
20
0.11
2
0.15
35
0.14
14
0.09
10
0.17
18
0.11
28
0.06
9
0.25
26
0.23
16
0.23
15
0.20
17
0.23
18
0.15
17
0.24
18
0.21
28
0.11
36
0.10
17
0.19
17
0.22
29
0.27
21
0.15
13
LG-Stereotwo views0.15
14
0.11
8
0.08
4
0.09
12
0.11
26
0.11
18
0.05
6
0.15
18
0.11
16
0.19
30
0.12
16
0.26
33
0.09
18
0.06
9
0.19
10
0.20
7
0.23
15
0.16
6
0.18
3
0.14
12
0.23
12
0.20
23
0.05
1
0.08
7
0.17
13
0.18
17
0.24
15
0.15
13
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
29
0.14
30
0.15
18
0.06
3
0.13
6
0.06
1
0.07
15
0.15
1
0.15
1
0.23
15
0.15
4
0.21
11
0.12
5
0.18
4
0.18
16
0.08
13
0.08
7
0.15
4
0.11
1
0.28
23
0.15
13
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
18
0.11
16
0.16
23
0.07
5
0.15
9
0.06
1
0.07
15
0.17
5
0.18
4
0.23
15
0.17
9
0.22
14
0.14
12
0.20
6
0.14
7
0.08
13
0.08
7
0.16
8
0.13
5
0.25
17
0.15
13
RAFTtwo views0.17
24
0.13
11
0.10
16
0.16
34
0.07
7
0.21
54
0.05
6
0.25
35
0.12
23
0.14
14
0.15
22
0.16
11
0.10
23
0.05
4
0.21
16
0.20
7
0.23
15
0.15
4
0.28
30
0.13
9
0.21
9
0.17
12
0.07
10
0.10
17
0.26
30
0.24
41
0.33
33
0.23
32
GREAT-IGEVtwo views0.15
14
0.15
16
0.11
21
0.08
8
0.06
4
0.08
7
0.05
6
0.16
23
0.10
14
0.12
9
0.13
17
0.25
32
0.09
18
0.08
22
0.22
18
0.25
20
0.24
21
0.16
6
0.23
18
0.13
9
0.18
4
0.16
10
0.09
22
0.10
17
0.15
4
0.16
11
0.31
30
0.13
9
MM-Stereo_test2two views0.15
14
0.19
27
0.11
21
0.16
34
0.11
26
0.08
7
0.05
6
0.14
16
0.11
16
0.20
31
0.08
9
0.12
4
0.08
13
0.09
28
0.20
13
0.22
13
0.25
22
0.20
17
0.20
9
0.18
27
0.25
21
0.21
28
0.10
30
0.10
17
0.16
8
0.16
11
0.21
9
0.16
19
GIP-stereotwo views0.17
24
0.21
32
0.13
28
0.15
30
0.09
17
0.09
11
0.07
20
0.12
6
0.09
10
0.16
23
0.13
17
0.16
11
0.08
13
0.15
51
0.27
34
0.25
20
0.25
22
0.21
25
0.24
22
0.19
34
0.27
26
0.20
23
0.07
10
0.11
25
0.20
21
0.22
29
0.35
40
0.17
21
Occ-Gtwo views0.18
27
0.26
43
0.15
34
0.17
41
0.14
35
0.15
33
0.07
20
0.12
6
0.11
16
0.11
6
0.22
51
0.20
28
0.09
18
0.10
31
0.28
38
0.28
31
0.25
22
0.22
27
0.29
32
0.19
34
0.26
23
0.19
20
0.10
30
0.15
39
0.19
17
0.18
17
0.29
26
0.17
21
RSM++two views0.17
24
0.18
26
0.13
28
0.17
41
0.10
21
0.14
28
0.07
20
0.13
11
0.13
27
0.12
9
0.14
19
0.17
18
0.11
28
0.08
22
0.25
26
0.27
30
0.25
22
0.21
25
0.23
18
0.18
27
0.26
23
0.21
28
0.08
13
0.10
17
0.20
21
0.18
17
0.29
26
0.18
24
SM2two views0.24
34
0.35
72
0.15
34
0.23
69
0.20
62
0.14
28
0.10
42
0.26
37
0.23
62
0.35
50
0.24
59
0.34
46
0.15
44
0.13
42
0.22
18
0.32
48
0.26
26
0.20
17
0.25
24
0.16
19
0.26
23
0.27
44
0.09
22
0.13
31
0.37
82
0.31
60
0.35
40
0.42
81
Utwo views0.15
14
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
23
0.06
2
0.15
18
0.04
2
0.17
18
0.07
7
0.05
4
0.22
18
0.28
31
0.26
26
0.23
30
0.27
29
0.17
24
0.28
30
0.19
20
0.06
3
0.08
7
0.26
30
0.23
37
0.23
12
0.20
27
StereoVisiontwo views0.18
27
0.13
11
0.11
21
0.09
12
0.14
35
0.16
35
0.08
29
0.17
26
0.17
37
0.15
18
0.15
22
0.16
11
0.10
23
0.06
9
0.25
26
0.26
24
0.27
28
0.22
27
0.22
14
0.16
19
0.23
12
0.17
12
0.06
3
0.13
31
0.28
39
0.29
53
0.38
47
0.28
42
RYNettwo views0.27
46
0.23
35
0.18
49
0.15
30
0.17
49
0.19
49
0.13
55
0.25
35
0.31
135
0.17
28
0.20
43
0.19
25
0.14
38
0.13
42
0.80
175
0.28
31
0.27
28
0.41
109
0.28
30
0.19
34
0.27
26
0.21
28
0.29
177
0.18
52
0.27
35
0.76
183
0.34
37
0.23
32
AdaDepthtwo views0.18
27
0.19
27
0.10
16
0.12
19
0.14
35
0.12
23
0.09
36
0.16
23
0.14
30
0.14
14
0.17
31
0.19
25
0.10
23
0.08
22
0.26
32
0.29
36
0.28
30
0.23
30
0.25
24
0.16
19
0.24
18
0.20
23
0.09
22
0.11
25
0.19
17
0.20
21
0.32
31
0.25
36
RAStereotwo views0.19
30
0.16
19
0.10
16
0.08
8
0.07
7
0.09
11
0.06
15
0.21
31
0.09
10
0.45
72
0.09
10
0.26
33
0.08
13
0.07
15
0.25
26
0.26
24
0.28
30
0.25
34
0.33
39
0.15
17
0.35
42
0.18
16
0.08
13
0.10
17
0.28
39
0.23
37
0.25
17
0.24
35
MLG-Stereo_test2two views0.16
20
0.12
10
0.10
16
0.10
14
0.08
14
0.09
11
0.05
6
0.18
28
0.11
16
0.20
31
0.07
5
0.23
30
0.08
13
0.08
22
0.19
10
0.23
16
0.30
32
0.25
34
0.31
34
0.18
27
0.28
30
0.17
12
0.09
22
0.08
7
0.20
21
0.16
11
0.29
26
0.21
29
delettwo views0.24
34
0.25
40
0.22
79
0.24
74
0.20
62
0.28
94
0.16
84
0.21
31
0.18
41
0.23
39
0.26
66
0.26
33
0.15
44
0.25
136
0.32
52
0.28
31
0.31
33
0.27
38
0.24
22
0.24
56
0.31
35
0.20
23
0.16
62
0.19
55
0.28
39
0.25
45
0.32
31
0.31
48
AEACVtwo views0.19
30
0.31
55
0.14
31
0.17
41
0.13
28
0.12
23
0.07
20
0.15
18
0.07
6
0.16
23
0.15
22
0.18
23
0.11
28
0.11
35
0.25
26
0.25
20
0.32
34
0.23
30
0.35
43
0.18
27
0.27
26
0.22
35
0.11
36
0.11
25
0.20
21
0.22
29
0.25
17
0.18
24
anonymousdsptwo views0.25
37
0.23
35
0.19
51
0.16
34
0.14
35
0.18
44
0.10
42
0.37
50
0.19
46
0.32
48
0.22
51
0.32
41
0.12
34
0.14
47
0.29
39
0.32
48
0.32
34
0.28
41
0.39
47
0.22
46
0.46
79
0.31
53
0.12
40
0.15
39
0.26
30
0.20
21
0.52
81
0.20
27
TDLMtwo views0.24
34
0.29
49
0.22
79
0.22
56
0.27
104
0.23
72
0.18
92
0.26
37
0.19
46
0.18
29
0.38
107
0.29
37
0.21
74
0.15
51
0.24
23
0.28
31
0.32
34
0.28
41
0.25
24
0.21
43
0.28
30
0.19
20
0.16
62
0.21
62
0.24
29
0.20
21
0.28
23
0.25
36
MLG-Stereo_test3two views0.23
33
0.17
23
0.13
28
0.14
26
0.17
49
0.16
35
0.09
36
0.21
31
0.12
23
0.21
34
0.18
34
0.35
48
0.11
28
0.15
51
0.29
39
0.26
24
0.33
37
0.28
41
0.63
122
0.18
27
0.40
52
0.41
84
0.11
36
0.15
39
0.21
25
0.21
27
0.33
33
0.27
40
AIO_rvctwo views0.25
37
0.34
62
0.16
38
0.19
48
0.15
41
0.18
44
0.11
46
0.39
53
0.22
57
0.30
45
0.16
27
0.32
41
0.12
34
0.18
66
0.27
34
0.26
24
0.33
37
0.22
27
0.38
46
0.20
40
0.42
60
0.44
104
0.13
48
0.14
35
0.28
39
0.22
29
0.33
33
0.21
29
test_5two views0.29
55
0.39
91
0.16
38
0.22
56
0.15
41
0.21
54
0.13
55
0.54
94
0.20
49
0.38
57
0.19
38
0.44
82
0.34
158
0.10
31
0.43
80
0.38
66
0.33
37
0.32
55
0.33
39
0.20
40
0.32
36
0.35
61
0.09
22
0.21
62
0.28
39
0.30
56
0.51
70
0.32
52
AANet_RVCtwo views0.28
51
0.27
45
0.23
84
0.19
48
0.28
109
0.16
35
0.16
84
0.29
42
0.30
117
0.20
31
0.27
69
0.24
31
0.21
74
0.19
73
0.45
82
0.36
59
0.33
37
0.34
68
0.29
32
0.29
80
0.27
26
0.27
44
0.22
136
0.21
62
0.34
69
0.33
71
0.42
55
0.52
108
AIO_testtwo views0.27
46
0.39
91
0.19
51
0.29
97
0.19
56
0.18
44
0.14
68
0.42
60
0.23
62
0.33
49
0.19
38
0.37
58
0.18
57
0.18
66
0.25
26
0.29
36
0.34
41
0.24
33
0.39
47
0.21
43
0.49
96
0.46
113
0.13
48
0.15
39
0.30
49
0.28
51
0.41
54
0.21
29
DEFOM-Stereotwo views0.21
32
0.19
27
0.12
25
0.18
46
0.13
28
0.20
52
0.08
29
0.19
29
0.14
30
0.16
23
0.23
54
0.21
29
0.10
23
0.12
39
0.27
34
0.29
36
0.34
41
0.28
41
0.32
36
0.22
46
0.32
36
0.21
28
0.12
40
0.11
25
0.26
30
0.22
29
0.47
63
0.29
44
AASNettwo views0.28
51
0.34
62
0.22
79
0.25
80
0.26
94
0.34
121
0.25
135
0.32
44
0.17
37
0.29
43
0.36
98
0.26
33
0.18
57
0.24
120
0.36
58
0.31
45
0.34
41
0.32
55
0.32
36
0.28
75
0.35
42
0.28
48
0.17
78
0.22
76
0.30
49
0.28
51
0.35
40
0.25
36
CVANet_RVCtwo views0.31
64
0.40
98
0.30
107
0.40
149
0.29
116
0.37
132
0.23
127
0.41
56
0.23
62
0.31
46
0.49
137
0.37
58
0.26
95
0.19
73
0.29
39
0.33
52
0.34
41
0.32
55
0.32
36
0.25
62
0.34
41
0.25
39
0.18
90
0.25
107
0.30
49
0.25
45
0.34
37
0.30
46
LG-G_1two views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
LG-Gtwo views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
RAFT+CT+SAtwo views0.32
66
0.46
139
0.20
57
0.26
84
0.18
53
0.22
60
0.15
75
0.58
113
0.23
62
0.52
108
0.17
31
0.46
88
0.33
146
0.12
39
0.33
53
0.43
90
0.36
47
0.30
52
0.45
60
0.23
51
0.45
72
0.49
125
0.09
22
0.22
76
0.32
64
0.31
60
0.53
85
0.35
60
MMNettwo views0.29
55
0.29
49
0.22
79
0.26
84
0.26
94
0.26
82
0.18
92
0.33
45
0.23
62
0.24
40
0.28
72
0.35
48
0.15
44
0.32
181
0.39
64
0.31
45
0.36
47
0.34
68
0.41
52
0.27
72
0.32
36
0.21
28
0.17
78
0.23
88
0.32
64
0.30
56
0.46
61
0.32
52
MStwo views0.26
41
0.25
40
0.17
43
0.16
34
0.15
41
0.12
23
0.14
68
0.38
52
0.21
53
0.46
75
0.17
31
0.37
58
0.16
49
0.15
51
0.35
57
0.42
82
0.37
49
0.32
55
0.31
34
0.23
51
0.39
49
0.38
71
0.16
62
0.14
35
0.28
39
0.23
37
0.35
40
0.31
48
YMNettwo views0.30
59
0.31
55
0.23
84
0.27
89
0.23
74
0.26
82
0.25
135
0.36
47
0.37
172
0.25
41
0.19
38
0.40
65
0.27
102
0.29
164
0.38
61
0.47
126
0.37
49
0.28
41
0.43
58
0.19
34
0.35
42
0.33
56
0.16
62
0.19
55
0.36
80
0.29
53
0.39
49
0.35
60
RAFT_CTSACEtwo views0.30
59
0.37
78
0.15
34
0.15
30
0.15
41
0.25
80
0.18
92
0.53
89
0.20
49
0.55
127
0.18
34
0.44
82
0.29
109
0.16
59
0.29
39
0.30
41
0.37
49
0.27
38
0.37
45
0.18
27
0.38
47
0.45
108
0.10
30
0.17
49
0.30
49
0.31
60
0.60
107
0.26
39
AFF-stereotwo views0.30
59
0.34
62
0.26
95
0.18
46
0.17
49
0.33
114
0.11
46
0.50
81
0.23
62
0.46
75
0.28
72
0.40
65
0.16
49
0.12
39
0.27
34
0.35
53
0.37
49
0.25
34
0.57
104
0.23
51
0.38
47
0.25
39
0.17
78
0.17
49
0.37
82
0.37
87
0.48
66
0.32
52
DFGA-Nettwo views0.28
51
0.37
78
0.16
38
0.26
84
0.15
41
0.22
60
0.15
75
0.40
54
0.21
53
0.41
59
0.24
59
0.31
40
0.17
53
0.13
42
0.42
78
0.39
70
0.38
53
0.30
52
0.42
56
0.21
43
0.36
46
0.29
49
0.13
48
0.21
62
0.31
59
0.27
48
0.51
70
0.28
42
LGtest1two views0.26
41
0.19
27
0.20
57
0.16
34
0.18
53
0.16
35
0.09
36
0.28
39
0.17
37
0.22
37
0.27
69
0.29
37
0.13
37
0.14
47
0.30
45
0.31
45
0.38
53
0.33
64
0.49
67
0.25
62
0.41
54
0.41
84
0.13
48
0.16
47
0.30
49
0.24
41
0.39
49
0.31
48
HUFtwo views0.29
55
0.34
62
0.20
57
0.22
56
0.21
66
0.19
49
0.11
46
0.51
83
0.22
57
0.42
61
0.18
34
0.35
48
0.22
78
0.19
73
0.30
45
0.32
48
0.38
53
0.26
37
0.52
77
0.25
62
0.52
116
0.43
98
0.16
62
0.18
52
0.30
49
0.22
29
0.38
47
0.29
44
iRaftStereo_RVCtwo views0.26
41
0.27
45
0.16
38
0.13
22
0.14
35
0.18
44
0.09
36
0.44
65
0.14
30
0.36
52
0.36
98
0.32
41
0.16
49
0.13
42
0.29
39
0.29
36
0.38
53
0.28
41
0.34
42
0.22
46
0.41
54
0.38
71
0.12
40
0.17
49
0.27
35
0.29
53
0.42
55
0.27
40
HCRNettwo views0.32
66
0.38
86
0.20
57
0.39
143
0.17
49
0.29
97
0.18
92
0.40
54
0.18
41
0.80
253
0.40
116
0.49
98
0.18
57
0.22
96
0.38
61
0.30
41
0.38
53
0.29
49
0.40
49
0.19
34
0.33
39
0.23
36
0.19
98
0.16
47
0.26
30
0.31
60
0.51
70
0.31
48
LG-Stereo_L2two views0.26
41
0.31
55
0.17
43
0.13
22
0.13
28
0.14
28
0.07
20
0.42
60
0.20
49
0.48
85
0.22
51
0.40
65
0.14
38
0.17
63
0.30
45
0.37
63
0.39
58
0.28
41
0.40
49
0.19
34
0.45
72
0.35
61
0.09
22
0.14
35
0.30
49
0.22
29
0.33
33
0.33
55
LG-Stereo_L1two views0.27
46
0.30
53
0.17
43
0.13
22
0.13
28
0.15
33
0.08
29
0.42
60
0.21
53
0.49
94
0.20
43
0.39
64
0.15
44
0.15
51
0.30
45
0.38
66
0.39
58
0.29
49
0.40
49
0.18
27
0.47
86
0.35
61
0.08
13
0.14
35
0.30
49
0.21
27
0.37
46
0.36
63
MaDis-Stereotwo views0.26
41
0.20
31
0.16
38
0.10
14
0.10
21
0.10
16
0.08
29
0.24
34
0.14
30
0.36
52
0.16
27
0.36
56
0.12
34
0.08
22
0.33
53
0.35
53
0.39
58
0.35
77
0.53
85
0.20
40
0.40
52
0.26
41
0.13
48
0.15
39
0.39
90
0.39
94
0.40
53
0.49
95
IGEV-Stereo+two views0.27
46
0.25
40
0.14
31
0.22
56
0.14
35
0.13
27
0.07
20
0.36
47
0.20
49
0.55
127
0.23
54
0.38
61
0.14
38
0.16
59
0.26
32
0.35
53
0.40
61
0.35
77
0.48
65
0.24
56
0.44
68
0.51
137
0.12
40
0.13
31
0.28
39
0.20
21
0.34
37
0.23
32
DMCAtwo views0.32
66
0.31
55
0.30
107
0.24
74
0.25
84
0.27
87
0.22
117
0.36
47
0.33
148
0.31
46
0.40
116
0.40
65
0.23
84
0.25
136
0.41
72
0.37
63
0.40
61
0.39
92
0.36
44
0.28
75
0.41
54
0.27
44
0.25
157
0.25
107
0.31
59
0.35
76
0.39
49
0.37
64
GANettwo views0.32
66
0.29
49
0.27
97
0.34
121
0.33
133
0.38
137
0.29
153
0.44
65
0.24
73
0.35
50
0.30
80
0.46
88
0.22
78
0.21
90
0.31
49
0.32
48
0.40
61
0.43
122
0.33
39
0.22
46
0.33
39
0.29
49
0.22
136
0.24
97
0.31
59
0.27
48
0.42
55
0.34
57
RAFT-Stereo + iAFFtwo views0.35
76
0.41
102
0.32
115
0.24
74
0.19
56
0.28
94
0.13
55
0.58
113
0.24
73
0.46
75
0.35
97
0.49
98
0.19
63
0.15
51
0.34
56
0.35
53
0.41
64
0.28
41
0.65
127
0.28
75
0.44
68
0.33
56
0.19
98
0.22
76
0.51
128
0.37
87
0.58
99
0.44
86
RAFT + AFFtwo views0.27
46
0.26
43
0.17
43
0.21
53
0.13
28
0.19
49
0.13
55
0.41
56
0.18
41
0.44
70
0.19
38
0.42
74
0.14
38
0.09
28
0.86
193
0.29
36
0.41
64
0.20
17
0.55
94
0.23
51
0.47
86
0.21
28
0.12
40
0.15
39
0.28
39
0.20
21
0.21
9
0.17
21
UniTT-Stereotwo views0.28
51
0.27
45
0.15
34
0.15
30
0.13
28
0.17
40
0.09
36
0.35
46
0.19
46
0.49
94
0.21
47
0.41
72
0.18
57
0.14
47
0.40
66
0.39
70
0.42
66
0.34
68
0.56
100
0.25
62
0.43
62
0.24
38
0.13
48
0.19
55
0.31
59
0.41
99
0.30
29
0.37
64
raft+_RVCtwo views0.35
76
0.34
62
0.26
95
0.25
80
0.23
74
0.25
80
0.18
92
0.54
94
0.26
89
0.52
108
0.43
121
0.46
88
0.23
84
0.18
66
0.42
78
0.38
66
0.43
67
0.34
68
0.61
120
0.26
69
0.43
62
0.38
71
0.13
48
0.20
60
0.39
90
0.39
94
0.58
99
0.42
81
MIM_Stereotwo views0.32
66
0.40
98
0.25
92
0.28
92
0.20
62
0.27
87
0.14
68
0.45
71
0.18
41
0.48
85
0.25
63
0.42
74
0.18
57
0.16
59
0.36
58
0.42
82
0.44
68
0.36
81
0.47
62
0.28
75
0.47
86
0.36
65
0.12
40
0.23
88
0.29
48
0.27
48
0.47
63
0.33
55
anonymousdsp2two views0.38
80
0.46
139
0.30
107
0.25
80
0.23
74
0.32
107
0.18
92
0.58
113
0.23
62
0.47
79
0.38
107
0.48
94
0.23
84
0.18
66
0.40
66
0.39
70
0.44
68
0.33
64
0.88
169
0.31
89
0.48
92
0.52
142
0.17
78
0.23
88
0.41
96
0.33
71
0.61
110
0.42
81
HITNettwo views0.38
80
0.37
78
0.28
99
0.34
121
0.29
116
0.26
82
0.19
103
0.58
113
0.32
143
0.57
140
0.45
127
0.55
121
0.30
119
0.22
96
0.51
96
0.35
53
0.44
68
0.39
92
0.41
52
0.29
80
0.41
54
0.38
71
0.20
114
0.25
107
0.39
90
0.37
87
0.70
141
0.52
108
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IGEV-BASED-STEREO-two views0.30
59
0.24
37
0.17
43
0.23
69
0.19
56
0.18
44
0.08
29
0.49
80
0.25
79
0.54
120
0.21
47
0.32
41
0.17
53
0.17
63
0.29
39
0.39
70
0.45
71
0.36
81
0.50
69
0.26
69
0.56
133
0.49
125
0.13
48
0.13
31
0.31
59
0.26
47
0.45
59
0.30
46
plaintwo views0.31
64
0.43
114
0.20
57
0.20
52
0.16
47
0.20
52
0.10
42
0.41
56
0.18
41
0.48
85
0.19
38
0.34
46
0.17
53
0.10
31
0.41
72
0.44
95
0.45
71
0.40
104
0.55
94
0.24
56
0.41
54
0.34
59
0.14
56
0.21
62
0.32
64
0.33
71
0.39
49
0.48
93
CASnettwo views0.40
86
0.52
190
0.23
84
0.27
89
0.27
104
0.30
103
0.14
68
0.62
140
0.29
109
0.61
167
0.44
124
0.64
150
0.28
107
0.23
109
0.55
101
0.36
59
0.45
71
0.31
54
0.73
146
0.27
72
0.63
158
0.39
78
0.21
123
0.24
97
0.42
97
0.32
66
0.61
110
0.56
123
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
TESTrafttwo views0.37
78
0.46
139
0.21
70
0.21
53
0.23
74
0.21
54
0.16
84
0.54
94
0.31
135
0.51
101
0.23
54
0.36
56
0.36
170
0.11
35
0.85
191
0.48
132
0.45
71
0.32
55
0.48
65
0.24
56
0.46
79
0.65
171
0.12
40
0.23
88
0.37
82
0.43
102
0.57
91
0.39
69
test_4two views0.34
73
0.33
59
0.27
97
0.21
53
0.18
53
0.16
35
0.11
46
0.59
120
0.26
89
0.58
152
0.25
63
0.50
104
0.20
66
0.19
73
0.33
53
0.40
74
0.45
71
0.34
68
0.41
52
0.29
80
0.45
72
0.41
84
0.16
62
0.24
97
0.38
87
0.40
98
0.59
106
0.42
81
SGD-Stereotwo views0.29
55
0.24
37
0.17
43
0.16
34
0.15
41
0.22
60
0.08
29
0.29
42
0.22
57
0.29
43
0.15
22
0.45
86
0.20
66
0.10
31
0.71
162
0.45
106
0.46
76
0.27
38
0.47
62
0.22
46
0.41
54
0.36
65
0.19
98
0.19
55
0.28
39
0.32
66
0.46
61
0.40
74
MIF-Stereo (partial)two views0.30
59
0.44
119
0.18
49
0.16
34
0.16
47
0.21
54
0.11
46
0.37
50
0.22
57
0.37
55
0.24
59
0.32
41
0.17
53
0.13
42
0.39
64
0.45
106
0.46
76
0.38
90
0.42
56
0.25
62
0.43
62
0.35
61
0.18
90
0.21
62
0.35
79
0.32
66
0.50
69
0.44
86
LoS_RVCtwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
tt_lltwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
TestStereo1two views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
SA-5Ktwo views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
UPFNettwo views0.38
80
0.34
62
0.34
124
0.32
113
0.33
133
0.39
139
0.29
153
0.47
76
0.33
148
0.43
63
0.41
118
0.40
65
0.30
119
0.34
186
0.61
125
0.40
74
0.46
76
0.41
109
0.52
77
0.35
118
0.35
42
0.34
59
0.25
157
0.27
116
0.38
87
0.35
76
0.55
87
0.37
64
AF-Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
Nwc_Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
PA-Nettwo views0.64
173
0.67
230
0.66
232
0.50
179
0.66
232
0.50
179
0.64
229
0.65
168
0.73
236
0.54
120
0.52
151
0.58
130
0.58
225
0.59
258
0.93
210
0.57
176
0.46
76
0.54
197
0.61
120
0.54
188
0.49
96
0.66
174
0.36
199
0.52
224
0.64
175
1.24
256
0.64
120
1.32
231
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
DEFOM-Stereo_RVCtwo views0.33
71
0.36
76
0.20
57
0.23
69
0.20
62
0.17
40
0.10
42
0.48
78
0.23
62
0.55
127
0.32
85
0.40
65
0.19
63
0.15
51
0.48
92
0.36
59
0.47
86
0.33
64
0.51
72
0.27
72
0.50
100
0.42
91
0.16
62
0.18
52
0.30
49
0.31
60
0.48
66
0.53
112
LL-Strereo2two views0.34
73
0.29
49
0.21
70
0.24
74
0.19
56
0.17
40
0.13
55
0.63
154
0.26
89
0.58
152
0.23
54
0.44
82
0.22
78
0.14
47
0.41
72
0.41
78
0.47
86
0.35
77
0.73
146
0.31
89
0.47
86
0.36
65
0.21
123
0.20
60
0.32
64
0.34
75
0.51
70
0.35
60
IERtwo views0.41
90
0.37
78
0.31
112
0.30
105
0.28
109
0.35
127
0.24
130
0.47
76
0.28
102
0.44
70
0.59
169
0.77
186
0.29
109
0.35
192
0.63
133
0.42
82
0.47
86
0.42
117
0.44
59
0.34
101
0.42
60
0.36
65
0.28
172
0.26
113
0.40
94
0.47
121
0.52
81
0.52
108
DMCA-RVCcopylefttwo views0.44
111
0.37
78
0.35
126
0.33
119
0.37
157
0.32
107
0.41
184
0.46
74
0.52
209
0.43
63
0.48
133
0.68
158
0.33
146
0.29
164
0.65
142
0.46
115
0.47
86
0.44
127
0.49
67
0.38
130
0.49
96
0.48
124
0.29
177
0.32
148
0.38
87
0.37
87
0.57
91
0.62
141
NLCA_NET_v2_RVCtwo views0.51
134
0.52
190
0.48
189
0.43
163
0.57
213
0.42
153
0.62
226
0.56
107
0.62
227
0.52
108
0.51
148
0.67
156
0.34
158
0.58
256
0.78
169
0.42
82
0.47
86
0.42
117
0.57
104
0.38
130
0.46
79
0.42
91
0.30
180
0.32
148
0.48
113
0.76
183
0.62
113
0.64
147
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
FINETtwo views0.40
86
0.38
86
0.39
147
0.43
163
0.30
123
0.34
121
0.35
168
0.44
65
0.36
163
0.47
79
0.32
85
0.47
91
0.30
119
0.28
157
0.66
143
0.50
143
0.48
91
0.36
81
0.60
116
0.33
95
0.46
79
0.37
70
0.30
180
0.30
135
0.43
99
0.35
76
0.56
89
0.42
81
RASNettwo views0.42
95
0.45
127
0.43
169
0.33
119
0.33
133
0.37
132
0.27
141
0.58
113
0.34
153
0.47
79
0.43
121
0.49
98
0.33
146
0.25
136
0.41
72
0.41
78
0.48
91
0.39
92
0.47
62
0.30
84
0.49
96
0.40
81
0.19
98
0.44
204
0.40
94
0.46
119
0.75
153
0.63
145
CFNettwo views0.45
116
0.44
119
0.33
118
0.48
174
0.40
170
0.39
139
0.30
160
0.53
89
0.32
143
0.48
85
0.50
142
0.68
158
0.40
183
0.30
167
0.56
103
0.37
63
0.48
91
0.43
122
0.52
77
0.33
95
0.46
79
0.30
52
0.23
146
0.31
143
0.61
163
0.52
139
0.69
136
0.71
167
4D-IteraStereotwo views0.40
86
0.28
48
0.33
118
0.35
131
0.24
82
0.24
77
0.15
75
0.63
154
0.28
102
0.61
167
0.39
113
0.51
109
0.22
78
0.22
96
0.48
92
0.43
90
0.49
94
0.43
122
0.66
129
0.34
101
0.63
158
0.70
186
0.14
56
0.22
76
0.39
90
0.47
121
0.63
116
0.39
69
RALAANettwo views0.41
90
0.41
102
0.37
136
0.28
92
0.28
109
0.33
114
0.24
130
0.54
94
0.27
95
0.48
85
0.48
133
0.43
79
0.25
92
0.20
84
0.57
106
0.41
78
0.49
94
0.50
173
0.71
142
0.40
148
0.52
116
0.46
113
0.21
123
0.29
127
0.46
108
0.45
112
0.70
141
0.47
91
ADLNettwo views0.46
121
0.53
196
0.37
136
0.41
154
0.41
176
0.44
159
0.40
182
0.54
94
0.35
159
0.45
72
0.53
155
0.76
183
0.36
170
0.62
259
0.58
110
0.42
82
0.49
94
0.42
117
0.50
69
0.37
126
0.43
62
0.44
104
0.34
194
0.25
107
0.47
110
0.55
147
0.57
91
0.45
88
DSFCAtwo views0.45
116
0.50
176
0.40
152
0.40
149
0.37
157
0.44
159
0.34
166
0.46
74
0.39
180
0.40
58
0.57
166
0.49
98
0.29
109
0.24
120
0.61
125
0.44
95
0.49
94
0.49
167
0.64
123
0.39
143
0.50
100
0.51
137
0.33
192
0.35
170
0.49
121
0.50
135
0.57
91
0.58
127
STTStereotwo views0.53
141
0.56
204
0.54
205
0.44
168
0.52
202
0.43
156
0.59
214
0.52
85
0.46
202
0.47
79
0.55
163
0.71
166
0.42
187
0.56
248
0.87
199
0.44
95
0.49
94
0.51
180
0.54
91
0.37
126
0.51
106
0.40
81
0.32
190
0.35
170
0.52
132
0.66
163
0.68
133
0.99
203
coex_refinementtwo views0.45
116
0.43
114
0.33
118
0.35
131
0.35
146
0.44
159
0.22
117
0.55
101
0.50
206
0.50
96
0.60
171
0.54
115
0.27
102
0.28
157
0.58
110
0.45
106
0.50
99
0.44
127
0.54
91
0.33
95
0.45
72
0.39
78
0.28
172
0.31
143
0.52
132
0.53
141
0.67
131
0.78
181
G2L-Stereotwo views0.42
95
0.39
91
0.28
99
0.35
131
0.40
170
0.34
121
0.22
117
0.54
94
0.34
153
0.52
108
0.61
178
0.50
104
0.38
177
0.26
147
0.61
125
0.44
95
0.50
99
0.40
104
0.46
61
0.33
95
0.43
62
0.39
78
0.28
172
0.27
116
0.49
121
0.54
144
0.69
136
0.49
95
CAStwo views0.38
80
0.45
127
0.25
92
0.29
97
0.29
116
0.23
72
0.13
55
0.41
56
0.27
95
0.41
59
0.54
161
0.35
48
0.35
165
0.21
90
0.52
98
0.38
66
0.50
99
0.34
68
0.52
77
0.26
69
0.43
62
0.41
84
0.19
98
0.23
88
0.51
128
0.52
139
0.62
113
0.77
178
GMOStereotwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
error versiontwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-vtwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-2two views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
CFNet_pseudotwo views0.51
134
0.44
119
0.43
169
0.54
193
0.43
182
0.53
188
0.34
166
0.62
140
0.36
163
0.61
167
0.64
187
0.57
125
0.52
212
0.35
192
0.90
204
0.50
143
0.50
99
0.47
154
0.67
132
0.36
120
0.47
86
0.42
91
0.26
165
0.33
162
0.57
148
0.60
156
0.68
133
0.73
172
ARAFTtwo views0.34
73
0.38
86
0.23
84
0.26
84
0.21
66
0.27
87
0.14
68
0.44
65
0.24
73
0.50
96
0.30
80
0.41
72
0.16
49
0.15
51
0.67
148
0.42
82
0.50
99
0.47
154
0.51
72
0.23
51
0.53
123
0.32
55
0.16
62
0.19
55
0.43
99
0.30
56
0.52
81
0.37
64
UCFNet_RVCtwo views0.56
155
0.78
243
0.45
181
0.59
203
0.55
209
0.52
185
0.39
180
0.58
113
0.40
182
0.59
157
0.60
171
0.82
192
0.45
197
0.32
181
0.70
158
0.42
82
0.50
99
0.50
173
0.67
132
0.45
164
0.56
133
0.47
118
0.38
206
0.41
192
0.77
210
0.71
170
0.65
124
0.86
190
iResNetv2_ROBtwo views0.52
138
0.45
127
0.32
115
0.48
174
0.39
165
0.48
173
0.28
146
0.64
161
0.34
153
0.52
108
0.66
195
0.70
164
0.55
217
0.28
157
0.67
148
0.47
126
0.50
99
0.46
148
1.12
191
0.45
164
0.57
143
0.47
118
0.29
177
0.40
189
0.55
143
0.51
137
0.81
168
0.58
127
Former-RAFT_DAM_RVCtwo views0.41
90
0.33
59
0.29
103
0.29
97
0.24
82
0.26
82
0.16
84
0.55
101
0.40
182
0.55
127
0.49
137
0.49
98
0.27
102
0.23
109
0.58
110
0.45
106
0.51
110
0.40
104
0.50
69
0.36
120
0.46
79
0.50
130
0.16
62
0.23
88
0.49
121
0.75
180
0.44
58
0.56
123
rafts_anoytwo views0.41
90
0.51
181
0.35
126
0.29
97
0.30
123
0.33
114
0.22
117
0.59
120
0.25
79
0.51
101
0.50
142
0.48
94
0.23
84
0.17
63
0.57
106
0.46
115
0.51
110
0.50
173
0.58
108
0.34
101
0.50
100
0.43
98
0.19
98
0.28
122
0.50
125
0.47
121
0.52
81
0.53
112
raftrobusttwo views0.43
108
0.33
59
0.36
132
0.28
92
0.28
109
0.27
87
0.18
92
0.64
161
0.25
79
0.63
183
0.53
155
0.51
109
0.25
92
0.22
96
0.63
133
0.48
132
0.51
110
0.41
109
0.96
180
0.38
130
0.53
123
0.46
113
0.20
114
0.24
97
0.57
148
0.54
144
0.54
86
0.52
108
FADNettwo views0.65
174
0.55
199
0.41
161
0.53
191
0.42
179
0.49
175
0.65
234
0.74
213
0.42
193
0.66
205
0.64
187
0.81
190
0.50
207
0.36
194
1.17
245
0.51
150
0.51
110
0.53
191
1.61
215
0.53
182
0.69
179
0.59
153
0.35
198
0.41
192
0.72
191
0.88
205
0.78
163
1.06
209
MGS-Stereotwo views0.37
78
0.46
139
0.21
70
0.22
56
0.19
56
0.22
60
0.15
75
0.45
71
0.17
37
0.36
52
0.26
66
0.29
37
0.19
63
0.23
109
1.37
254
0.40
74
0.52
114
0.45
137
0.55
94
0.33
95
0.50
100
0.41
84
0.21
123
0.22
76
0.33
68
0.30
56
0.47
63
0.45
88
iinet-ftwo views0.52
138
0.43
114
0.36
132
0.34
121
0.25
84
0.47
171
0.25
135
0.43
63
0.27
95
0.52
108
0.94
239
0.61
140
0.44
196
0.25
136
1.06
233
0.57
176
0.52
114
0.39
92
1.51
207
0.50
176
0.58
147
0.75
194
0.26
165
0.25
107
0.52
132
0.38
91
0.76
156
0.53
112
SAtwo views0.42
95
0.47
146
0.21
70
0.25
80
0.23
74
0.31
104
0.13
55
0.64
161
0.32
143
0.61
167
0.26
66
0.54
115
0.21
74
0.16
59
0.63
133
0.47
126
0.52
114
0.41
109
0.60
116
0.29
80
0.46
79
0.61
162
0.15
58
0.27
116
0.45
105
0.58
152
0.96
204
0.47
91
CIPLGtwo views0.42
95
0.47
146
0.24
90
0.32
113
0.22
68
0.32
107
0.19
103
0.63
154
0.24
73
0.55
127
0.50
142
0.60
139
0.30
119
0.41
206
0.93
210
0.44
95
0.52
114
0.37
86
0.56
100
0.38
130
0.56
133
0.45
108
0.19
98
0.24
97
0.44
101
0.31
60
0.57
91
0.38
68
IPLGR_Ctwo views0.42
95
0.47
146
0.23
84
0.31
111
0.22
68
0.32
107
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.31
131
0.41
206
0.87
199
0.45
106
0.52
114
0.37
86
0.55
94
0.38
130
0.56
133
0.46
113
0.19
98
0.24
97
0.44
101
0.33
71
0.58
99
0.40
74
ACREtwo views0.42
95
0.47
146
0.22
79
0.32
113
0.22
68
0.33
114
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.30
119
0.41
206
0.91
205
0.45
106
0.52
114
0.36
81
0.55
94
0.38
130
0.57
143
0.44
104
0.19
98
0.23
88
0.44
101
0.32
66
0.58
99
0.39
69
ADCP+two views0.92
224
0.59
211
0.62
222
0.44
168
0.45
185
0.55
194
0.85
250
0.65
168
1.81
292
0.48
85
1.10
253
1.62
254
0.33
146
0.42
216
1.03
230
0.52
158
0.52
114
0.48
160
1.19
195
0.38
130
0.58
147
0.60
157
0.32
190
0.30
135
0.66
178
3.45
314
0.77
158
4.14
294
CFNet_RVCtwo views0.51
134
0.51
181
0.47
186
0.50
179
0.48
194
0.48
173
0.32
162
0.53
89
0.37
172
0.51
101
0.65
192
0.57
125
0.34
158
0.30
167
0.69
153
0.44
95
0.52
114
0.47
154
0.57
104
0.42
157
0.56
133
0.49
125
0.27
169
0.35
170
0.65
177
0.74
176
0.80
165
0.75
175
PS-NSSStwo views0.60
169
0.81
249
0.44
177
0.89
244
0.54
206
0.71
228
0.63
227
0.64
161
0.38
177
0.64
190
0.41
118
1.52
250
0.47
202
0.41
206
0.59
114
0.42
82
0.52
114
0.45
137
0.94
177
0.42
157
0.44
68
0.29
49
0.36
199
0.34
166
0.63
172
0.69
165
0.70
141
0.80
182
EGLCR-Stereotwo views0.47
123
0.49
161
0.41
161
0.29
97
0.30
123
0.44
159
0.14
68
0.57
109
0.26
89
0.57
140
0.27
69
0.58
130
0.23
84
0.21
90
0.36
58
0.47
126
0.53
123
0.45
137
0.75
153
0.32
93
0.69
179
0.93
215
0.19
98
0.24
97
0.48
113
0.49
131
1.30
251
0.70
166
RPtwo views0.58
161
0.57
209
0.72
240
0.62
211
0.56
210
0.57
198
0.64
229
0.63
154
0.61
225
0.42
61
0.81
227
0.78
187
0.53
214
0.43
219
0.68
151
0.48
132
0.53
123
0.44
127
0.64
123
0.45
164
0.51
106
0.54
147
0.37
204
0.44
204
0.62
168
0.59
153
0.83
178
0.77
178
S2M2_XLtwo views0.33
71
0.30
53
0.30
107
0.17
41
0.19
56
0.23
72
0.21
111
0.53
89
0.26
89
0.47
79
0.25
63
0.48
94
0.18
57
0.22
96
0.38
61
0.36
59
0.54
125
0.29
49
0.41
52
0.28
75
0.50
100
0.31
53
0.21
123
0.21
62
0.34
69
0.32
66
0.45
59
0.51
106
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
raft_robusttwo views0.49
130
0.44
119
0.24
90
0.38
140
0.29
116
0.32
107
0.21
111
0.73
208
0.35
159
0.69
223
0.34
94
0.57
125
0.31
131
0.24
120
0.59
114
0.53
160
0.54
125
0.46
148
0.98
181
0.37
126
0.69
179
0.94
216
0.20
114
0.28
122
0.55
143
0.69
165
0.69
136
0.60
135
AnonymousMtwo views0.79
212
0.34
62
0.20
57
0.24
74
0.22
68
0.21
54
0.15
75
0.58
113
0.21
53
0.57
140
0.39
113
0.45
86
0.15
44
0.19
73
0.56
103
0.54
168
0.54
125
0.40
104
0.53
85
0.30
84
0.65
166
0.54
147
0.20
114
0.22
76
0.30
49
0.39
94
1.31
252
11.04
317
TestStereotwo views0.45
116
0.51
181
0.38
145
0.42
158
0.30
123
0.44
159
0.26
139
0.71
198
0.28
102
0.76
243
0.32
85
0.64
150
0.32
140
0.24
120
0.47
85
0.35
53
0.54
125
0.33
64
0.78
158
0.38
130
0.63
158
0.42
91
0.24
154
0.30
135
0.53
135
0.43
102
0.75
153
0.55
122
RALCasStereoNettwo views0.42
95
0.50
176
0.35
126
0.35
131
0.30
123
0.31
104
0.24
130
0.60
126
0.25
79
0.56
136
0.49
137
0.58
130
0.26
95
0.18
66
0.57
106
0.46
115
0.54
125
0.49
167
0.51
72
0.34
101
0.51
106
0.41
84
0.21
123
0.31
143
0.53
135
0.49
131
0.48
66
0.58
127
GMStereopermissivetwo views0.41
90
0.48
158
0.25
92
0.32
113
0.32
132
0.37
132
0.28
146
0.59
120
0.30
117
0.45
72
0.36
98
0.61
140
0.31
131
0.24
120
0.45
82
0.41
78
0.54
125
0.35
77
0.73
146
0.39
143
0.51
106
0.33
56
0.23
146
0.28
122
0.48
113
0.36
79
0.68
133
0.41
76
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UNettwo views0.44
111
0.42
109
0.40
152
0.37
137
0.36
150
0.41
147
0.28
146
0.57
109
0.35
159
0.50
96
0.49
137
0.47
91
0.34
158
0.37
198
0.53
100
0.43
90
0.54
125
0.46
148
0.56
100
0.39
143
0.47
86
0.44
104
0.27
169
0.34
166
0.44
101
0.48
126
0.58
99
0.57
125
FADNet-RVCtwo views0.58
161
0.50
176
0.37
136
0.51
185
0.42
179
0.39
139
0.56
209
0.68
182
0.36
163
0.64
190
0.50
142
1.13
232
0.45
197
0.34
186
0.91
205
0.53
160
0.54
125
0.45
137
1.20
197
0.51
179
0.54
126
0.52
142
0.33
192
0.51
222
0.57
148
0.75
180
0.64
120
0.81
184
PDISCO_ROBtwo views0.48
127
0.40
98
0.39
147
0.38
140
0.34
142
0.39
139
0.28
146
0.50
81
0.35
159
0.37
55
0.52
151
0.49
98
0.35
165
0.31
174
0.63
133
0.58
181
0.54
125
0.68
245
0.59
109
0.44
162
0.62
155
0.67
179
0.24
154
0.34
166
0.54
139
0.53
141
0.85
182
0.58
127
S2M2_Ltwo views0.40
86
0.42
109
0.41
161
0.24
74
0.27
104
0.35
127
0.22
117
0.51
83
0.24
73
0.61
167
0.23
54
0.43
79
0.21
74
0.31
174
0.59
114
0.49
139
0.55
134
0.36
81
0.53
85
0.34
101
0.55
128
0.38
71
0.28
172
0.27
116
0.42
97
0.43
102
0.63
116
0.66
150
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
test-3two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.65
168
0.27
95
0.61
167
0.34
94
0.90
206
0.31
131
0.21
90
0.60
120
0.44
95
0.55
134
0.42
117
2.59
251
0.38
130
0.56
133
1.37
248
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
test_1two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.66
172
0.27
95
0.62
177
0.34
94
0.90
206
0.31
131
0.21
90
0.61
125
0.44
95
0.55
134
0.42
117
2.58
250
0.38
130
0.56
133
1.38
250
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
HGLStereotwo views0.43
108
0.43
114
0.37
136
0.34
121
0.37
157
0.39
139
0.23
127
0.48
78
0.31
135
0.47
79
0.72
212
0.42
74
0.29
109
0.32
181
0.51
96
0.49
139
0.55
134
0.50
173
0.55
94
0.39
143
0.51
106
0.43
98
0.22
136
0.33
162
0.51
128
0.51
137
0.57
91
0.45
88
DISCOtwo views0.45
116
0.44
119
0.29
103
0.40
149
0.38
163
0.49
175
0.43
187
0.45
71
0.43
197
0.50
96
0.57
166
0.40
65
0.29
109
0.30
167
0.61
125
0.43
90
0.55
134
0.46
148
0.69
139
0.41
151
0.48
92
0.43
98
0.26
165
0.32
148
0.47
110
0.50
135
0.62
113
0.50
104
SGM-Foresttwo views0.73
191
0.71
236
0.40
152
1.13
260
0.64
226
0.74
234
0.45
189
0.68
182
0.39
180
0.61
167
0.44
124
1.16
233
1.06
248
0.49
230
0.86
193
0.61
189
0.55
134
0.46
148
0.68
134
0.44
162
0.61
153
0.49
125
0.45
219
0.44
204
0.90
235
0.86
200
1.95
286
1.47
236
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
MyStereo04two views0.68
183
0.52
190
0.57
211
0.44
168
0.37
157
0.35
127
0.26
139
0.68
182
0.45
198
0.62
177
0.45
127
0.68
158
0.34
158
0.25
136
1.00
226
0.68
209
0.56
140
0.53
191
3.39
267
0.56
197
0.92
212
0.64
169
0.27
169
0.41
192
0.77
210
0.92
212
0.96
204
0.66
150
UDGNettwo views0.67
178
0.66
228
0.42
164
1.35
272
1.02
267
1.21
268
0.91
256
0.60
126
0.41
186
0.52
108
0.60
171
0.56
123
0.23
84
1.19
289
0.66
143
0.45
106
0.56
140
0.51
180
0.73
146
0.53
182
0.64
165
0.67
179
0.79
267
0.29
127
0.72
191
0.55
147
0.63
116
0.66
150
IPLGtwo views0.47
123
0.45
127
0.32
115
0.28
92
0.27
104
0.32
107
0.21
111
0.63
154
0.22
57
0.51
101
0.38
107
0.56
123
0.29
109
0.31
174
1.64
269
0.44
95
0.56
140
0.48
160
0.56
100
0.41
151
0.45
72
0.75
194
0.18
90
0.28
122
0.45
105
0.59
153
0.65
124
0.51
106
IPLGRtwo views0.57
159
0.55
199
0.37
136
0.43
163
0.38
163
0.36
130
0.23
127
0.62
140
0.30
117
0.56
136
0.68
205
0.61
140
0.32
140
0.29
164
1.73
275
0.47
126
0.56
140
0.56
205
1.09
186
0.54
188
0.53
123
0.81
204
0.20
114
0.32
148
0.71
188
0.97
225
0.73
149
0.57
125
test_3two views0.56
155
0.38
86
0.36
132
0.34
121
0.33
133
0.33
114
0.21
111
0.68
182
0.29
109
0.65
195
0.33
92
0.92
208
0.35
165
0.21
90
0.60
120
0.44
95
0.56
140
0.45
137
2.68
253
0.39
143
0.55
128
1.35
246
0.15
58
0.32
148
0.51
128
0.47
121
0.67
131
0.50
104
FADNet-RVC-Resampletwo views0.57
159
0.52
190
0.42
164
0.46
171
0.39
165
0.41
147
0.40
182
0.72
205
0.42
193
0.68
215
0.51
148
1.04
224
0.43
191
0.43
219
0.96
219
0.48
132
0.56
140
0.61
225
0.85
167
0.55
193
0.52
116
0.63
165
0.34
194
0.60
237
0.58
152
0.71
170
0.55
87
0.77
178
stereogantwo views0.67
178
0.67
230
0.62
222
0.68
224
0.73
244
0.75
235
0.64
229
0.70
195
0.57
220
0.51
101
0.64
187
1.08
226
0.62
227
0.44
222
0.83
183
0.55
170
0.56
140
0.51
180
0.91
172
0.59
209
0.59
151
0.69
184
0.47
222
0.46
211
0.59
159
0.67
164
1.16
234
0.87
192
NaN_ROBtwo views0.73
191
0.59
211
0.61
221
0.64
215
0.78
252
0.53
188
0.48
194
0.87
244
0.63
228
0.73
235
0.61
178
1.96
260
0.62
227
0.45
224
0.84
187
0.55
170
0.56
140
0.54
197
0.73
146
0.55
193
0.52
116
0.51
137
0.38
206
0.64
243
0.83
225
1.11
245
0.94
199
1.64
244
PWCDC_ROBbinarytwo views0.67
178
0.35
72
0.39
147
0.29
97
0.43
182
0.34
121
0.36
172
0.43
63
1.25
275
0.27
42
0.72
212
0.44
82
2.38
282
0.57
253
1.11
239
0.76
223
0.56
140
0.56
205
0.64
123
0.55
193
0.63
158
2.08
276
0.46
221
0.40
189
0.36
80
0.63
157
0.51
70
0.67
154
TRStereotwo views0.75
197
0.83
254
1.19
278
0.56
197
0.34
142
1.42
277
0.48
194
0.68
182
0.28
102
0.65
195
0.46
131
1.10
229
0.27
102
0.22
96
0.70
158
0.85
236
0.57
149
0.48
160
1.85
224
0.50
176
0.73
188
0.87
210
0.18
90
0.27
116
0.78
212
1.22
255
1.78
282
1.09
211
PMTNettwo views0.48
127
0.48
158
0.43
169
0.31
111
0.30
123
0.27
87
0.22
117
0.54
94
0.29
109
0.57
140
0.39
113
0.59
135
0.23
84
0.23
109
0.64
139
0.59
184
0.57
149
0.37
86
1.17
194
0.33
95
0.67
173
0.40
81
0.20
114
0.21
62
0.79
215
0.59
153
0.65
124
0.92
196
DLCB_ROBtwo views0.53
141
0.50
176
0.48
189
0.41
154
0.45
185
0.43
156
0.39
180
0.55
101
0.45
198
0.57
140
0.61
178
0.70
164
0.52
212
0.41
206
0.60
120
0.47
126
0.57
149
0.48
160
0.52
77
0.43
161
0.55
128
0.47
118
0.38
206
0.42
195
0.96
246
0.79
191
0.70
141
0.62
141
iResNet_ROBtwo views0.50
131
0.49
161
0.42
164
0.42
158
0.30
123
0.42
153
0.32
162
0.60
126
0.33
148
0.52
108
0.59
169
0.47
91
0.56
219
0.25
136
0.81
178
0.46
115
0.57
149
0.49
167
1.19
195
0.36
120
0.48
92
0.36
65
0.25
157
0.37
182
0.57
148
0.54
144
0.75
153
0.61
137
LG-Stereo_Zeroshottwo views0.66
175
0.37
78
0.23
84
0.51
185
0.74
248
0.89
247
0.49
197
0.62
140
0.26
89
1.60
310
0.31
83
2.57
266
0.26
95
0.22
96
0.46
84
0.48
132
0.58
153
0.45
137
0.93
174
0.37
126
0.63
158
0.71
187
0.19
98
0.23
88
0.58
152
0.49
131
0.89
191
1.91
254
Reg-Stereo(zero)two views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
HItwo views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
castereo++two views0.44
111
0.35
72
0.33
118
0.43
163
0.23
74
0.21
54
0.17
90
0.59
120
0.30
117
0.63
183
0.37
104
0.73
171
0.22
78
0.22
96
0.44
81
0.53
160
0.58
153
0.41
109
0.66
129
0.34
101
0.81
199
0.69
184
0.20
114
0.28
122
0.48
113
0.56
151
0.76
156
0.48
93
trnettwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.27
87
0.14
68
0.62
140
0.30
117
0.60
163
0.36
98
0.73
171
0.33
146
0.24
120
0.56
103
0.57
176
0.58
153
0.34
68
0.52
77
0.31
89
0.57
143
0.42
91
0.17
78
0.30
135
0.54
139
0.48
126
0.65
124
0.69
160
CEStwo views0.46
121
0.35
72
0.30
107
0.27
89
0.27
104
0.29
97
0.12
51
1.05
265
0.27
95
0.54
120
0.66
195
0.53
113
0.25
92
0.23
109
0.62
130
0.65
203
0.58
153
0.37
86
0.54
91
0.34
101
0.84
204
0.53
145
0.23
146
0.23
88
0.56
147
0.44
106
0.57
91
0.69
160
AACVNettwo views0.55
148
0.47
146
0.40
152
0.58
200
0.61
219
0.53
188
0.37
174
0.61
133
0.40
182
0.59
157
0.64
187
0.58
130
0.33
146
0.36
194
0.69
153
0.54
168
0.58
153
0.54
197
0.69
139
0.52
181
0.54
126
0.52
142
0.36
199
0.44
204
0.59
159
0.69
165
0.82
171
0.83
186
ICVPtwo views0.58
161
0.49
161
0.67
235
0.50
179
0.48
194
0.52
185
0.36
172
0.60
126
0.45
198
0.61
167
0.58
168
0.61
140
0.56
219
0.30
167
0.67
148
0.64
197
0.58
153
0.51
180
0.72
145
0.51
179
0.58
147
0.74
193
0.59
255
0.47
214
0.60
162
0.75
180
0.74
151
0.72
169
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views0.53
141
0.40
98
0.34
124
0.39
143
0.36
150
0.32
107
0.27
141
0.64
161
0.41
186
0.66
205
0.45
127
0.62
148
0.39
180
0.24
120
0.83
183
0.63
191
0.58
153
0.58
215
0.57
104
0.36
120
0.90
211
1.52
260
0.25
157
0.36
177
0.46
108
0.44
106
0.77
158
0.60
135
NCC-stereotwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Abc-Nettwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
DeepPrunerFtwo views1.22
247
0.49
161
0.39
147
0.58
200
2.86
308
0.49
175
0.55
207
0.52
85
0.58
223
0.43
63
0.67
202
0.43
79
0.32
140
0.42
216
1.64
269
0.75
222
0.58
153
0.46
148
0.93
174
0.46
169
0.61
153
0.53
145
0.40
211
0.35
170
15.32
329
0.82
197
0.65
124
0.62
141
NVstereo2Dtwo views0.55
148
0.47
146
0.40
152
0.52
188
0.48
194
0.66
220
0.64
229
0.60
126
0.38
177
0.48
85
0.61
178
0.53
113
0.30
119
0.63
261
1.53
263
0.61
189
0.58
153
0.55
203
0.53
85
0.41
151
0.50
100
0.38
71
0.54
248
0.43
198
0.64
175
0.48
126
0.56
89
0.53
112
DN-CSS_ROBtwo views0.52
138
0.43
114
0.46
182
0.41
154
0.40
170
0.34
121
0.22
117
0.69
189
0.34
153
0.59
157
0.79
222
0.66
154
0.47
202
0.24
120
0.63
133
0.40
74
0.58
153
0.43
122
1.74
218
0.38
130
0.63
158
0.38
71
0.31
185
0.47
214
0.53
135
0.43
102
0.66
130
0.54
119
LoStwo views0.55
148
0.44
119
0.29
103
0.36
136
0.37
157
0.40
145
0.20
110
1.37
282
0.31
135
0.86
264
0.78
221
0.68
158
0.37
174
0.24
120
0.58
110
0.72
216
0.59
167
0.40
104
0.75
153
0.35
118
1.03
230
0.65
171
0.21
123
0.24
97
0.79
215
0.64
160
0.64
120
0.68
158
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
Sa-1000two views0.48
127
0.47
146
0.21
70
0.26
84
0.26
94
0.31
104
0.15
75
0.65
168
0.36
163
0.63
183
0.33
92
0.50
104
0.26
95
0.30
167
0.94
214
0.49
139
0.59
167
0.45
137
0.90
171
0.32
93
0.52
116
0.75
194
0.17
78
0.27
116
0.72
191
0.53
141
1.00
216
0.49
95
iRaft-Stereo_20wtwo views1.06
239
0.49
161
1.34
290
1.18
264
0.46
188
0.78
239
0.46
191
0.76
220
0.37
172
0.74
236
6.16
316
0.84
198
0.29
109
0.26
147
0.81
178
0.97
253
0.59
167
0.44
127
1.72
217
0.61
223
1.04
231
1.56
261
0.21
123
0.25
107
0.92
238
1.31
265
1.45
268
2.71
273
MIPNettwo views0.51
134
0.51
181
0.33
118
0.32
113
0.30
123
0.37
132
0.25
135
0.62
140
0.24
73
0.50
96
0.52
151
0.61
140
0.41
186
0.30
167
1.01
229
0.51
150
0.59
167
0.50
173
0.76
156
0.47
173
0.44
68
0.85
207
0.20
114
0.26
113
0.66
178
0.98
226
0.71
145
0.61
137
pcwnet_v2two views0.62
170
0.46
139
0.50
195
0.62
211
0.49
197
0.61
207
0.46
191
0.66
172
0.45
198
0.65
195
0.79
222
0.64
150
0.86
244
0.53
243
1.15
243
0.55
170
0.59
167
0.51
180
0.83
163
0.41
151
0.55
128
0.47
118
0.34
194
0.43
198
0.75
203
0.76
183
0.85
182
0.95
197
psm_uptwo views0.56
155
0.51
181
0.53
202
0.56
197
0.45
185
0.58
201
0.35
168
0.71
198
0.66
232
0.55
127
0.53
155
0.59
135
0.50
207
0.40
203
0.63
133
0.50
143
0.59
167
0.49
167
0.84
166
0.46
169
0.51
106
0.45
108
0.31
185
0.51
222
0.70
185
0.78
187
0.80
165
0.67
154
CREStereotwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.28
94
0.15
75
0.61
133
0.30
117
0.58
152
0.36
98
0.72
168
0.33
146
0.24
120
0.59
114
0.59
184
0.59
167
0.34
68
0.52
77
0.31
89
0.59
151
0.42
91
0.18
90
0.30
135
0.54
139
0.48
126
0.64
120
0.69
160
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
zero-FEtwo views9.08
322
0.42
109
0.28
99
61.19
339
0.56
210
106.36
340
1.24
273
0.72
205
0.30
117
0.66
205
0.56
164
61.54
338
0.66
233
0.25
136
0.59
114
0.53
160
0.60
174
0.47
154
2.54
247
0.38
130
1.35
253
0.96
217
0.25
157
0.24
97
0.45
105
0.44
106
0.91
193
0.66
150
IGEV_Zeroshot_testtwo views0.95
229
0.47
146
1.24
283
1.15
262
0.46
188
0.60
204
0.65
234
0.81
236
0.36
163
0.66
205
1.86
282
0.94
209
0.30
119
0.26
147
0.66
143
1.14
277
0.60
174
0.48
160
2.56
248
0.63
231
2.23
277
2.36
281
0.21
123
0.37
182
1.00
254
1.03
238
1.17
236
1.48
238
Any-RAFTtwo views0.69
184
0.47
146
0.85
252
0.53
191
0.40
170
0.38
137
0.27
141
0.64
161
0.32
143
0.57
140
0.76
219
0.86
203
0.24
91
0.22
96
0.57
106
0.76
223
0.60
174
0.45
137
2.19
233
0.45
164
1.20
243
0.71
187
0.22
136
0.31
143
0.99
251
1.24
256
0.73
149
1.65
245
anonymitytwo views3.27
296
0.41
102
1.09
275
0.58
200
0.41
176
0.47
171
0.30
160
0.79
229
0.33
148
0.61
167
69.49
338
0.85
199
0.30
119
0.24
120
0.59
114
1.02
264
0.60
174
0.43
122
1.35
202
0.60
214
0.73
188
1.82
273
0.24
154
0.29
127
1.00
254
1.24
256
1.08
223
1.47
236
XX-Stereotwo views9.49
323
0.38
86
0.36
132
0.63
213
0.28
109
0.54
192
0.28
146
0.69
189
0.28
102
0.69
223
6.24
317
1.00
215
0.29
109
0.23
109
0.70
158
1.08
270
0.60
174
0.52
187
1.58
212
0.53
182
0.76
192
0.65
171
0.18
90
0.26
113
233.61
340
0.88
205
1.01
217
1.90
253
EAI-Stereotwo views0.75
197
0.49
161
0.50
195
0.51
185
0.46
188
0.56
197
0.60
218
0.73
208
0.32
143
0.63
183
0.72
212
0.82
192
0.26
95
0.24
120
1.05
231
0.96
251
0.60
174
0.49
167
3.00
261
0.62
227
0.82
200
1.13
232
0.19
98
0.31
143
0.78
212
0.70
169
1.55
272
1.17
223
castereotwo views0.47
123
0.36
76
0.35
126
0.34
121
0.26
94
0.26
82
0.17
90
0.56
107
0.29
109
0.60
163
0.45
127
0.68
158
0.22
78
0.20
84
0.52
98
0.58
181
0.61
180
0.39
92
0.92
173
0.36
120
0.96
223
0.76
197
0.19
98
0.24
97
0.54
139
0.64
160
0.57
91
0.58
127
gcap-zeroshottwo views1.75
267
0.44
119
0.89
256
0.59
203
0.36
150
0.55
194
0.29
153
0.74
213
0.29
109
0.74
236
0.76
219
1.18
235
0.33
146
0.24
120
0.78
169
0.97
253
0.61
180
0.53
191
29.80
323
0.80
253
1.04
231
1.45
253
0.23
146
0.34
166
0.75
203
0.99
228
0.96
204
0.75
175
HHtwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
HanStereotwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
CREStereo++_RVCtwo views0.43
108
0.42
109
0.39
147
0.30
105
0.33
133
0.27
87
0.19
103
0.57
109
0.31
135
0.58
152
0.36
98
0.58
130
0.56
219
0.23
109
0.48
92
0.50
143
0.61
180
0.34
68
0.52
77
0.30
84
0.56
133
0.42
91
0.16
62
0.29
127
0.49
121
0.44
106
0.79
164
0.69
160
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
ADCReftwo views1.01
236
0.65
225
0.48
189
0.39
143
0.47
191
0.65
217
0.68
238
0.61
133
1.08
268
0.52
108
0.64
187
0.75
175
0.43
191
0.38
199
1.56
265
0.72
216
0.61
180
0.59
220
1.53
210
0.58
205
0.66
169
0.71
187
0.50
233
0.43
198
0.75
203
1.25
259
0.82
171
8.96
315
RAFT-Testtwo views0.72
190
0.50
176
0.46
182
0.52
188
0.34
142
0.41
147
0.29
153
0.73
208
0.30
117
0.62
177
0.72
212
0.68
158
0.31
131
0.22
96
0.71
162
1.03
265
0.62
186
0.50
173
2.89
259
0.66
235
1.72
265
1.14
234
0.23
146
0.29
127
0.80
219
0.96
220
0.95
201
0.91
195
LMCR-Stereopermissivemany views0.50
131
0.46
139
0.33
118
0.32
113
0.33
133
0.42
153
0.24
130
0.57
109
0.37
172
0.55
127
0.46
131
0.65
153
0.40
183
0.26
147
0.69
153
0.49
139
0.62
186
0.49
167
1.11
190
0.57
202
0.66
169
0.64
169
0.25
157
0.32
148
0.48
113
0.49
131
0.63
116
0.65
149
s12784htwo views0.62
170
0.68
232
0.47
186
0.65
218
0.44
184
0.34
121
0.24
130
0.61
133
0.31
135
0.60
163
0.44
124
0.81
190
0.55
217
0.25
136
0.62
130
0.50
143
0.62
186
0.38
90
0.74
152
0.36
120
1.26
247
0.47
118
0.18
90
0.30
135
0.70
185
0.74
176
1.39
260
2.07
256
RGCtwo views0.76
201
0.72
237
0.99
263
0.70
225
0.71
242
0.76
238
0.57
212
0.74
213
0.74
239
0.56
136
0.96
242
0.83
196
0.85
243
0.56
248
0.93
210
0.60
186
0.62
186
0.56
205
0.93
174
0.61
223
0.66
169
0.71
187
0.51
241
0.56
230
0.81
220
1.01
233
0.99
211
1.19
225
DeepPruner_ROBtwo views0.59
167
0.44
119
0.54
205
0.52
188
0.54
206
0.49
175
0.37
174
0.61
133
0.46
202
0.60
163
0.70
206
0.61
140
0.51
211
0.32
181
1.06
233
0.58
181
0.62
186
0.59
220
0.66
129
0.47
173
0.97
226
0.72
191
0.36
199
0.44
204
0.61
163
1.00
230
0.72
146
0.58
127
cross-rafttwo views0.73
191
0.56
204
0.46
182
0.43
163
0.33
133
0.40
145
0.27
141
0.73
208
0.33
148
0.65
195
0.60
171
0.74
174
0.30
119
0.23
109
0.76
168
0.96
251
0.63
191
0.48
160
2.91
260
0.59
209
1.81
271
1.31
245
0.22
136
0.32
148
0.82
223
0.94
216
0.93
197
1.01
205
test-1two views0.84
216
0.34
62
0.50
195
0.37
137
0.40
170
0.60
204
0.37
174
0.73
208
0.38
177
0.68
215
0.71
207
1.08
226
0.40
183
0.25
136
0.79
173
0.91
242
0.63
191
0.58
215
2.22
235
0.58
205
1.17
242
3.78
300
0.22
136
0.36
177
0.81
220
1.15
249
1.10
228
1.59
240
MSMDNettwo views0.73
191
0.52
190
0.48
189
0.35
131
0.34
142
0.45
164
0.33
165
0.69
189
0.30
117
0.63
183
0.60
171
0.71
166
0.35
165
0.23
109
0.78
169
1.05
267
0.63
191
0.50
173
2.88
258
0.81
257
1.59
260
1.80
272
0.23
146
0.29
127
0.74
198
0.89
207
0.85
182
0.76
177
MSKI-zero shottwo views0.84
216
0.49
161
0.43
169
0.41
154
0.35
146
0.46
170
0.32
162
0.76
220
0.30
117
0.65
195
0.92
238
0.83
196
0.32
140
0.22
96
0.62
130
1.08
270
0.64
194
0.47
154
3.14
265
0.61
223
2.23
277
1.58
262
0.20
114
0.38
184
0.96
246
1.47
274
1.24
245
1.60
241
SACVNettwo views0.62
170
0.53
196
0.51
199
0.55
196
0.57
213
0.52
185
0.60
218
0.69
189
0.56
219
0.67
213
0.54
161
0.59
135
0.37
174
0.41
206
0.71
162
0.60
186
0.64
194
0.57
210
0.95
178
0.64
232
0.67
173
0.78
201
0.36
199
0.47
214
0.75
203
0.77
186
0.84
180
0.84
187
HSM-Net_RVCpermissivetwo views0.75
197
0.53
196
0.60
219
0.77
235
0.62
225
0.61
207
0.37
174
0.76
220
0.49
205
0.74
236
1.71
278
1.32
241
0.80
240
0.36
194
0.72
165
0.55
170
0.64
194
0.53
191
0.78
158
0.53
182
0.67
173
0.89
213
0.43
217
0.64
243
0.94
242
1.09
242
1.07
222
1.04
208
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HSMtwo views0.54
146
0.49
161
0.47
186
0.48
174
0.47
191
0.41
147
0.37
174
0.71
198
0.37
172
0.61
167
0.65
192
0.59
135
0.48
205
0.31
174
0.70
158
0.48
132
0.64
194
0.47
154
0.75
153
0.48
175
0.63
158
0.49
125
0.26
165
0.42
195
0.62
168
0.72
173
0.87
189
0.67
154
MLCVtwo views0.70
187
0.49
161
0.53
202
0.73
230
0.50
198
0.65
217
0.43
187
0.81
236
0.41
186
0.71
229
0.88
234
1.01
218
0.81
241
0.28
157
0.92
208
0.43
90
0.65
198
0.52
187
2.47
246
0.45
164
0.55
128
0.72
191
0.39
210
0.54
227
0.69
182
0.80
192
0.83
178
0.72
169
NCCL2two views0.69
184
0.73
239
0.66
232
0.57
199
0.56
210
0.51
182
0.45
189
0.70
195
0.57
220
0.68
215
0.71
207
0.66
154
0.48
205
0.39
200
0.93
210
0.72
216
0.65
198
0.57
210
0.76
156
0.57
202
0.74
190
0.88
211
0.49
229
0.60
237
0.98
248
0.95
217
0.85
182
1.16
222
MDST_ROBtwo views3.33
297
2.32
295
0.75
243
3.90
307
1.47
287
2.61
291
1.00
264
1.12
272
0.72
235
0.78
249
0.67
202
1.54
251
25.37
324
0.34
186
2.11
292
0.53
160
0.65
198
0.48
160
3.69
268
0.58
205
0.88
207
0.59
153
0.58
254
0.68
247
7.85
324
3.03
308
17.15
329
8.63
314
GLC_STEREOtwo views0.47
123
0.51
181
0.40
152
0.38
140
0.37
157
0.37
132
0.28
146
0.64
161
0.29
109
0.62
177
0.53
155
0.55
121
0.28
107
0.30
167
0.49
95
0.48
132
0.66
201
0.41
109
0.65
127
0.41
151
0.70
182
0.60
157
0.23
146
0.30
135
0.47
110
0.36
79
0.84
180
0.53
112
TANstereotwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
XX-TBDtwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
R-Stereo Traintwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
ADCLtwo views1.27
249
0.82
252
0.64
228
0.60
206
0.53
203
0.73
230
0.91
256
0.75
217
2.78
311
0.68
215
1.01
246
0.86
203
0.50
207
0.50
234
1.27
249
0.64
197
0.66
201
0.57
210
1.20
197
0.60
214
0.98
227
0.88
211
0.50
233
0.47
214
1.60
288
1.50
279
0.88
190
11.30
318
RAFT-Stereopermissivetwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
GEStwo views0.59
167
0.52
190
0.37
136
0.39
143
0.40
170
0.53
188
0.37
174
0.59
120
0.40
182
0.56
136
0.60
171
0.50
104
0.30
119
0.41
206
0.98
222
0.63
191
0.67
207
0.55
203
2.28
236
0.56
197
0.70
182
0.56
152
0.31
185
0.42
195
0.48
113
0.48
126
0.65
124
0.68
158
GANetREF_RVCpermissivetwo views0.77
209
0.74
240
0.68
237
0.76
234
0.65
227
0.69
225
0.60
218
0.99
258
0.73
236
0.93
269
0.52
151
1.33
242
0.72
237
0.44
222
0.85
191
0.57
176
0.67
207
0.63
227
1.13
192
0.61
223
0.77
193
0.63
165
0.59
255
0.71
249
0.89
234
0.90
209
1.15
231
0.99
203
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AIO-Stereo-zeroshotpermissivetwo views1.21
246
0.49
161
1.28
287
0.75
231
0.41
176
1.04
257
0.67
236
0.77
225
0.52
209
0.78
249
5.67
312
1.03
220
0.35
165
0.26
147
0.86
193
1.39
298
0.68
209
0.70
249
2.61
252
0.64
232
2.89
289
2.21
278
0.19
98
0.43
198
1.03
259
1.15
249
1.35
256
2.41
267
AE-Stereotwo views0.54
146
0.48
158
0.44
177
0.50
179
0.35
146
0.36
130
0.28
146
0.55
101
0.29
109
0.64
190
0.31
83
0.89
205
0.31
131
0.24
120
0.55
101
0.65
203
0.68
209
0.52
187
0.87
168
0.53
182
0.72
185
0.81
204
0.21
123
0.47
214
0.79
215
0.69
165
0.94
199
0.62
141
EKT-Stereotwo views0.75
197
0.64
224
0.54
205
0.59
203
0.47
191
0.60
204
0.73
241
0.71
198
0.29
109
0.63
183
0.66
195
0.73
171
0.30
119
0.26
147
0.86
193
1.22
286
0.68
209
0.76
262
1.46
206
0.60
214
1.75
268
1.74
270
0.21
123
0.32
148
0.93
239
0.81
194
1.06
221
0.72
169
PSMNet-ADLtwo views0.96
232
0.62
221
0.66
232
0.67
221
0.70
241
0.66
220
0.58
213
0.74
213
0.60
224
0.85
263
5.03
306
0.95
212
1.26
259
0.45
224
0.89
202
1.03
265
0.68
209
0.54
197
2.03
229
0.68
241
0.84
204
0.79
203
0.54
248
0.47
214
0.73
196
0.95
217
1.32
253
0.63
145
GANet-ADLtwo views0.70
187
0.59
211
0.52
200
0.60
206
0.57
213
0.61
207
0.46
191
0.68
182
0.52
209
0.65
195
0.67
202
0.76
183
0.43
191
0.39
200
1.08
236
0.79
231
0.68
209
0.52
187
1.84
223
0.64
232
0.66
169
0.86
209
0.42
216
0.43
198
0.70
185
0.87
203
0.97
207
0.89
194
ccs_robtwo views1.25
248
0.79
245
0.64
228
0.86
241
0.60
218
0.89
247
0.83
249
0.99
258
0.51
208
0.77
245
6.27
318
5.90
300
1.10
252
0.51
236
1.08
236
1.10
273
0.68
209
0.66
237
1.15
193
0.70
245
1.56
258
1.66
266
0.50
233
0.54
227
0.69
182
0.78
187
0.86
187
1.20
226
model_zeroshottwo views0.80
215
0.46
139
0.42
164
0.42
158
0.39
165
0.43
156
0.27
141
0.72
205
0.36
163
0.64
190
0.66
195
0.97
213
0.29
109
0.24
120
1.05
231
0.92
243
0.69
215
0.54
197
3.03
262
0.73
248
1.21
244
1.20
239
0.22
136
0.38
184
0.84
229
1.14
248
1.08
223
2.21
262
DCVSM-stereotwo views1.13
243
0.66
228
0.79
246
0.89
244
0.65
227
1.15
264
0.73
241
0.95
251
0.82
248
1.04
279
4.18
300
3.75
288
1.45
264
0.49
230
0.83
183
0.86
237
0.69
215
0.60
223
2.08
230
0.87
262
1.06
235
0.77
199
0.84
272
0.72
252
0.74
198
0.89
207
0.98
210
1.09
211
AIO-Stereo-zeroshot1permissivetwo views5.67
309
0.56
204
1.25
284
0.75
231
0.69
235
1.17
265
0.81
246
0.82
238
0.80
244
0.81
255
4.78
303
1.00
215
0.37
174
0.27
154
1.13
241
1.54
303
0.70
217
0.60
223
124.50
338
0.54
188
1.43
255
2.64
285
0.22
136
0.36
177
0.91
236
1.13
247
1.13
230
2.18
260
HBP-ISPtwo views1.60
260
0.86
260
0.90
257
0.98
253
0.69
235
0.85
242
0.56
209
0.89
248
0.48
204
0.82
258
0.79
222
0.97
213
0.36
170
0.69
268
11.97
327
5.83
323
0.70
217
0.67
239
0.70
141
0.62
227
1.05
233
5.90
316
0.50
233
0.62
240
0.82
223
1.01
233
2.01
288
1.06
209
ddtwo views0.50
131
0.51
181
0.28
99
0.91
247
0.31
131
0.65
217
0.29
153
0.59
120
0.23
62
0.54
120
0.30
80
0.75
175
0.27
102
0.26
147
0.84
187
0.46
115
0.70
217
0.39
92
1.05
184
0.38
130
0.48
92
0.43
98
0.23
146
0.30
135
0.53
135
0.39
94
0.74
151
0.58
127
sAnonymous2two views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
CroCo_RVCtwo views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
MFN_U_SF_DS_RVCtwo views1.33
250
0.90
261
0.63
226
1.27
269
0.90
258
1.21
268
2.21
287
1.27
273
1.18
273
1.00
277
0.91
237
1.80
259
1.16
255
1.07
288
1.48
261
0.77
225
0.70
217
0.58
215
2.75
256
0.67
239
1.39
254
2.93
289
0.85
274
0.73
253
1.47
283
1.68
284
1.33
254
2.96
278
APVNettwo views0.56
155
0.47
146
0.38
145
0.46
171
0.50
198
0.57
198
0.53
202
0.60
126
0.42
193
0.46
75
0.65
192
0.50
104
0.30
119
0.36
194
0.74
166
0.71
215
0.71
223
0.64
231
0.95
178
0.53
182
0.57
143
0.77
199
0.34
194
0.46
211
0.59
159
0.46
119
0.82
171
0.58
127
CC-Net-ROBtwo views0.96
232
1.18
279
0.70
238
1.56
279
1.06
269
1.63
283
1.20
272
0.79
229
0.61
225
0.81
255
0.56
164
3.07
277
0.57
223
0.85
279
0.68
151
0.44
95
0.71
223
0.63
227
1.40
204
0.57
202
0.58
147
0.43
98
1.91
297
0.46
211
0.83
225
0.83
198
0.77
158
1.20
226
GwcNet-ADLtwo views0.97
234
0.83
254
0.81
248
0.91
247
0.68
233
0.70
226
0.53
202
0.77
225
0.50
206
0.72
232
5.46
309
1.20
236
0.65
232
0.46
226
0.81
178
0.95
248
0.72
225
0.56
205
1.26
199
0.71
246
0.67
173
0.78
201
0.59
255
0.56
230
0.79
215
0.98
226
0.85
182
1.75
249
DDVStwo views2.32
276
0.70
234
0.82
250
0.70
225
0.74
248
0.73
230
0.59
214
1.09
270
0.88
252
0.80
253
34.26
334
3.93
290
1.16
255
0.52
240
1.09
238
1.35
291
0.73
226
0.65
235
1.95
227
0.95
266
1.67
264
2.27
280
0.48
227
0.56
230
0.69
182
0.84
199
1.21
240
1.35
232
SFCPSMtwo views3.03
292
0.82
252
0.63
226
0.77
235
0.69
235
0.72
229
0.63
227
0.83
239
0.98
265
0.71
229
2.00
284
2.57
266
3.49
290
0.56
248
1.16
244
0.93
247
0.74
227
0.64
231
54.48
335
1.19
286
0.88
207
0.91
214
0.55
250
0.55
229
0.94
242
0.93
215
1.11
229
1.39
233
CSANtwo views0.93
227
0.83
254
0.75
243
0.86
241
0.82
253
0.73
230
0.61
223
0.97
257
0.94
262
0.94
273
0.73
217
1.96
260
1.56
267
0.49
230
0.98
222
0.63
191
0.74
227
0.66
237
1.09
186
0.71
246
0.78
194
0.63
165
0.53
244
0.76
258
0.98
248
1.49
278
1.21
240
1.63
243
sCroCo_RVCtwo views0.58
161
0.42
109
0.29
103
0.28
92
0.29
116
0.39
139
0.22
117
0.60
126
0.41
186
0.53
119
0.43
121
0.48
94
0.50
207
0.24
120
0.75
167
0.99
260
0.75
229
0.63
227
1.02
183
0.56
197
1.10
238
1.36
247
0.28
172
0.39
186
0.63
172
0.63
157
0.93
197
0.64
147
iResNettwo views0.92
224
0.56
204
0.62
222
0.72
228
0.68
233
0.96
250
0.55
207
0.95
251
0.57
220
0.67
213
0.82
232
1.41
245
1.51
266
0.31
174
1.49
262
0.66
205
0.75
229
0.67
239
4.08
273
0.68
241
0.72
185
0.63
165
0.41
213
0.83
265
0.72
191
0.91
211
1.02
218
0.87
192
SGM_RVCbinarytwo views2.81
288
1.46
286
0.85
252
1.76
283
1.28
279
1.68
285
1.19
271
1.56
289
1.14
271
0.82
258
1.70
277
7.09
307
2.67
288
0.42
216
0.92
208
0.57
176
0.75
229
0.57
210
11.20
307
0.66
235
0.94
219
0.46
113
0.51
241
0.84
267
1.97
296
1.64
283
5.04
320
26.13
328
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
dadtwo views0.89
223
0.57
209
0.37
136
1.42
275
0.65
227
0.75
235
2.23
289
1.43
284
0.36
163
0.93
269
0.38
107
0.85
199
0.76
239
0.32
181
0.97
221
0.52
158
0.78
232
0.45
137
1.87
225
0.41
151
0.74
190
0.41
84
0.30
180
0.47
214
1.15
268
0.47
121
2.64
303
1.96
255
GEStereo_RVCtwo views0.71
189
0.59
211
0.40
152
0.54
193
0.50
198
0.61
207
0.51
199
0.71
198
0.41
186
0.59
157
0.51
148
0.76
183
0.46
200
0.39
200
0.96
219
0.92
243
0.78
232
0.75
259
1.94
226
0.62
227
0.80
197
1.37
248
0.31
185
0.52
224
0.61
163
0.63
157
0.86
187
1.12
218
LE_ROBtwo views17.44
326
1.82
288
6.12
328
9.40
317
53.85
340
8.01
328
46.26
336
11.27
332
28.12
333
1.80
315
7.03
322
38.62
332
49.53
334
0.34
186
1.76
278
0.55
170
0.78
232
0.59
220
36.68
328
6.72
326
2.92
290
0.85
207
29.06
335
12.10
333
26.35
330
25.49
333
27.84
334
37.03
335
NOSS_ROBtwo views0.76
201
0.84
258
0.50
195
0.72
228
0.61
219
0.75
235
0.52
201
0.80
231
0.54
213
0.70
226
0.62
183
0.62
148
0.86
244
0.62
259
1.14
242
1.10
273
0.78
232
0.69
248
0.73
146
0.60
214
0.88
207
0.67
179
0.50
233
0.71
249
0.86
232
0.95
217
1.38
259
0.85
188
SGM-ForestMtwo views2.61
282
4.20
319
0.93
258
2.78
291
1.37
284
3.57
301
2.93
296
2.59
312
1.51
287
0.70
226
1.32
263
7.25
308
5.36
300
0.47
227
0.89
202
0.53
160
0.79
236
0.54
197
7.58
291
0.60
214
0.82
200
0.47
118
0.51
241
0.80
264
4.97
316
3.66
315
7.05
324
6.30
306
FCDSN-DCtwo views0.69
184
0.61
218
0.62
222
0.66
220
0.61
219
0.59
202
0.60
218
0.68
182
0.42
193
0.75
240
0.42
120
0.57
125
0.36
170
0.50
234
2.43
308
0.67
206
0.80
237
0.76
262
0.64
123
0.56
197
0.70
182
0.60
157
0.47
222
0.83
265
0.66
178
0.74
176
0.61
110
0.67
154
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet_RVCtwo views0.92
224
0.69
233
0.55
208
0.88
243
0.75
250
0.54
192
0.51
199
0.77
225
0.54
213
0.70
226
0.96
242
1.36
243
1.06
248
0.54
244
1.85
281
0.64
197
0.80
237
0.90
275
3.34
266
0.76
249
1.00
228
1.13
232
0.37
204
0.60
237
0.66
178
0.87
203
0.97
207
1.14
221
CBMV_ROBtwo views1.71
266
0.79
245
0.65
231
1.35
272
1.07
270
1.01
253
0.74
243
1.01
262
0.54
213
0.72
232
0.81
227
9.80
319
5.90
302
0.57
253
1.42
256
0.69
210
0.80
237
0.58
215
5.38
279
1.22
287
0.95
222
0.55
151
0.53
244
0.62
240
1.22
269
1.45
273
2.72
305
2.94
277
FC-DCNN v2copylefttwo views0.94
228
0.98
269
1.28
287
1.47
278
0.95
262
1.33
274
0.82
247
1.05
265
0.80
244
0.87
265
0.66
195
1.11
231
0.67
234
0.56
248
0.91
205
0.69
210
0.81
240
0.68
245
0.83
163
0.59
209
0.78
194
0.59
153
0.50
233
0.78
263
1.25
275
1.09
242
1.35
256
1.89
251
FC-DCNNcopylefttwo views0.88
222
0.96
266
1.23
282
1.36
274
0.93
260
1.26
272
0.82
247
0.91
249
0.78
242
0.87
265
0.63
186
1.08
226
0.42
187
0.56
248
0.88
201
0.69
210
0.81
240
0.68
245
0.81
162
0.59
209
0.78
194
0.59
153
0.50
233
0.77
261
1.11
264
0.99
228
1.21
240
1.57
239
ITSA-stereotwo views1.12
242
0.72
237
0.59
214
1.20
266
0.84
255
0.64
216
0.64
229
0.95
251
0.78
242
0.84
261
2.54
289
1.39
244
1.23
257
0.81
276
1.20
246
1.01
262
0.83
242
0.67
239
1.56
211
0.62
227
1.08
237
1.46
254
0.56
252
0.71
249
0.95
244
1.27
261
0.99
211
4.08
293
MSC_U_SF_DS_RVCtwo views1.67
264
1.25
282
1.05
269
1.56
279
1.08
271
1.20
267
3.18
299
1.50
287
2.10
299
1.30
296
0.98
244
1.50
247
1.04
247
1.66
295
1.71
272
1.18
282
0.84
243
1.01
284
6.24
286
1.15
285
1.43
255
3.23
294
1.19
284
1.14
288
1.52
286
1.29
263
1.09
225
2.78
275
XPNet_ROBtwo views0.74
196
0.77
241
0.57
211
0.54
193
0.61
219
0.63
213
0.61
223
0.53
89
0.65
230
0.58
152
0.81
227
2.35
265
0.46
200
0.43
219
0.79
173
0.63
191
0.85
244
0.57
210
0.83
163
0.55
193
0.72
185
1.09
228
0.45
219
0.49
221
0.63
172
0.74
176
1.39
260
0.86
190
LALA_ROBtwo views0.86
220
0.97
268
0.67
235
0.63
213
0.69
235
0.83
241
0.67
236
0.70
195
0.80
244
0.68
215
1.10
253
2.61
268
0.58
225
0.51
236
1.11
239
0.67
206
0.86
245
0.72
252
0.89
170
0.67
239
0.80
197
1.00
222
0.49
229
0.59
235
0.73
196
0.92
212
1.16
234
1.10
215
MFN_U_SF_RVCtwo views1.68
265
1.06
274
0.88
255
1.25
268
1.01
264
1.53
280
2.07
285
1.38
283
1.17
272
1.51
304
2.95
293
2.00
262
1.57
268
2.05
297
2.38
306
0.98
256
0.87
246
0.82
271
6.78
289
1.11
281
2.21
276
2.38
282
0.65
259
1.11
286
1.23
270
1.33
268
1.28
250
1.69
248
XQCtwo views1.03
238
0.90
261
0.71
239
0.91
247
0.92
259
0.92
249
0.86
252
1.06
268
0.90
256
0.84
261
1.11
256
1.03
220
1.30
263
0.71
270
2.04
286
0.95
248
0.87
246
0.67
239
1.64
216
0.78
251
1.00
228
1.67
267
0.62
258
0.73
253
1.09
263
1.47
274
1.26
247
0.97
200
STStereotwo views5.29
306
2.47
296
5.20
325
5.20
312
2.80
307
4.72
315
3.42
301
6.23
327
6.52
321
1.51
304
7.61
323
9.53
316
14.86
319
0.63
261
4.09
317
0.64
197
0.87
246
0.62
226
36.67
327
1.02
273
1.23
245
1.05
226
0.78
266
1.63
307
3.46
310
2.43
300
3.53
311
14.15
321
MeshStereopermissivetwo views3.62
299
1.54
287
1.05
269
2.64
287
1.72
289
2.05
288
1.15
269
2.40
309
1.41
283
0.90
268
6.48
319
9.56
317
7.42
307
0.49
230
11.75
325
1.94
312
0.87
246
0.74
257
8.79
296
0.80
253
8.36
323
8.07
324
0.73
264
1.07
282
3.39
309
2.15
297
5.22
321
4.99
298
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
Anonymous3two views0.79
212
0.59
211
0.42
164
0.37
137
0.42
179
0.57
198
0.50
198
0.80
231
0.64
229
0.68
215
0.49
137
1.48
246
0.54
215
0.31
174
1.53
263
1.42
300
0.88
250
0.82
271
1.45
205
0.69
244
1.31
250
1.30
244
0.40
211
0.40
189
0.74
198
0.86
200
1.03
220
0.71
167
FBW_ROBtwo views1.34
251
1.42
285
1.08
274
2.01
285
1.42
285
1.37
276
1.63
280
0.99
258
0.70
234
0.72
232
1.02
247
2.05
263
0.91
246
1.47
294
1.24
248
0.60
186
0.88
250
0.65
235
6.08
285
0.59
209
1.06
235
0.81
204
1.48
294
1.12
287
0.99
251
1.20
252
0.99
211
1.66
246
FAT-Stereotwo views1.57
259
0.78
243
1.44
292
1.10
258
1.32
282
1.05
258
0.87
253
1.28
275
0.86
250
1.21
289
5.46
309
3.07
277
1.28
260
0.66
264
1.73
275
1.34
288
0.89
252
0.94
281
1.83
222
1.08
277
2.02
273
3.90
301
0.71
261
0.98
276
0.86
232
1.21
254
1.42
266
3.03
280
S-Stereotwo views1.54
257
0.81
249
0.83
251
1.15
262
1.16
275
1.29
273
1.56
278
1.02
263
1.09
269
1.25
292
4.20
301
4.10
293
1.10
252
0.66
264
2.16
293
1.63
305
0.90
253
1.05
288
2.20
234
1.10
279
1.26
247
3.12
292
1.31
292
1.17
291
0.84
229
1.18
251
1.21
240
2.18
260
ETE_ROBtwo views0.87
221
0.90
261
0.58
213
0.67
221
0.69
235
0.85
242
0.60
218
0.66
172
0.89
255
0.64
190
1.09
251
2.63
269
0.54
215
0.54
244
1.00
226
0.72
216
0.91
254
0.63
227
0.99
182
0.66
235
0.88
207
1.08
227
0.50
233
0.59
235
0.78
212
0.92
212
1.48
270
1.17
223
CBMVpermissivetwo views1.15
244
0.84
258
0.60
219
0.85
240
0.76
251
0.73
230
0.48
194
0.87
244
0.80
244
0.81
255
0.61
178
2.86
272
0.81
241
0.52
240
1.31
252
1.17
281
0.91
254
0.74
257
2.40
244
0.66
235
1.57
259
0.76
197
0.48
227
1.06
281
0.99
251
1.09
242
2.25
290
4.25
295
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
DAStwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
SepStereotwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
MaskLacGwcNet_RVCtwo views8.29
318
0.65
225
1.07
273
0.94
252
0.83
254
0.81
240
1.27
274
0.85
243
0.73
236
0.93
269
6.13
315
180.62
340
2.17
276
1.33
293
1.22
247
1.01
262
0.93
258
1.06
289
6.32
288
0.79
252
3.32
301
3.77
299
0.55
250
0.76
258
0.95
244
1.34
270
1.19
238
2.42
268
SHDtwo views0.97
234
0.56
204
0.73
241
0.75
231
0.69
235
0.66
220
0.61
223
0.99
258
0.94
262
0.77
245
1.00
245
0.94
209
1.29
261
0.54
244
2.21
296
0.98
256
0.95
259
0.70
249
2.01
228
0.80
253
1.12
239
1.71
268
0.47
222
0.77
261
0.91
236
1.01
233
0.91
193
1.22
228
ADCPNettwo views2.08
275
0.77
241
0.87
254
0.83
239
1.21
277
0.85
242
1.59
279
1.02
263
1.35
280
0.83
260
1.97
283
1.01
218
7.76
308
0.75
273
2.35
305
1.16
280
0.95
259
0.71
251
4.05
272
0.97
269
1.30
249
1.61
263
0.72
262
0.76
258
1.52
286
1.96
292
1.21
240
16.04
323
RTSCtwo views0.73
191
0.49
161
0.46
182
0.47
173
0.51
201
0.55
194
0.56
209
0.67
175
0.68
233
0.54
120
0.79
222
0.57
125
0.57
223
0.41
206
1.92
283
0.77
225
0.96
261
0.58
215
1.36
203
0.56
197
0.85
206
1.11
229
0.31
185
0.53
226
0.58
152
0.65
162
0.95
201
1.26
229
CASStwo views0.79
212
0.55
199
0.53
202
0.65
218
0.54
206
0.59
202
0.53
202
0.78
228
0.52
209
0.71
229
0.75
218
0.67
156
0.47
202
0.28
157
0.83
183
0.67
206
0.98
262
0.56
205
1.60
214
0.58
205
2.74
285
1.44
251
0.38
206
0.35
170
0.84
229
0.81
194
0.90
192
1.02
206
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
ADCMidtwo views1.56
258
0.92
265
0.99
263
0.70
225
0.86
256
1.05
258
1.37
276
1.29
276
1.77
291
0.75
240
1.75
279
1.27
237
1.48
265
0.69
268
2.18
295
1.07
269
0.98
262
0.79
268
2.74
255
0.80
253
1.31
250
1.74
270
1.06
282
0.70
248
1.01
256
1.53
280
1.02
218
10.33
316
SQANettwo views1.90
271
2.70
298
1.03
268
3.09
296
2.17
293
3.29
295
2.70
293
0.95
251
0.65
230
1.00
277
0.71
207
2.69
271
1.10
252
2.30
298
0.78
169
0.55
170
1.02
264
0.72
252
9.92
302
0.68
241
2.11
275
1.25
241
3.28
302
0.58
234
0.98
248
1.31
265
1.33
254
2.34
264
G-Nettwo views1.86
269
1.00
271
1.28
287
0.89
244
0.93
260
1.10
261
0.77
244
1.63
292
2.07
298
0.99
276
2.89
292
7.30
310
1.67
271
0.55
247
1.45
257
1.75
308
1.04
265
0.93
280
2.87
257
2.72
319
1.89
272
1.47
255
0.80
269
1.02
280
1.06
260
1.71
285
2.82
306
5.60
302
SAMSARAtwo views1.50
255
0.79
245
1.00
267
0.93
250
0.88
257
0.86
245
0.93
258
1.57
290
1.25
275
0.96
274
1.09
251
1.27
237
2.59
285
0.83
277
2.58
310
1.19
284
1.04
265
0.91
278
2.56
248
0.99
272
1.77
270
2.23
279
0.56
252
0.98
276
2.63
299
2.81
304
2.62
302
2.56
271
ACV-stereotwo views8.39
320
1.01
272
0.97
261
1.29
270
0.73
244
1.48
279
0.95
261
0.88
247
1.10
270
1.07
280
1.33
265
1.06
225
23.12
322
0.52
240
4.00
316
3.78
318
1.05
267
0.79
268
168.94
339
1.91
308
3.64
305
1.44
251
0.72
262
0.74
256
0.74
198
0.90
209
1.43
267
1.03
207
edge stereotwo views1.82
268
1.16
278
2.22
304
1.46
277
1.28
279
1.58
281
1.38
277
1.67
296
1.30
277
1.20
288
3.42
297
4.33
295
2.26
280
0.80
275
1.41
255
1.46
301
1.05
267
0.83
274
5.42
280
0.97
269
1.34
252
3.76
298
0.95
280
0.88
269
1.26
276
1.20
252
1.70
279
2.91
276
AnyNet_C32two views1.64
262
0.65
225
0.74
242
0.67
221
0.73
244
0.86
245
1.14
267
0.95
251
3.12
314
0.75
240
1.53
272
0.94
209
0.64
231
0.67
266
1.83
280
1.11
275
1.06
269
0.95
282
1.78
221
0.76
249
1.76
269
1.71
268
0.66
260
0.85
268
1.13
266
2.68
303
1.17
236
13.55
320
PWC_ROBbinarytwo views1.18
245
0.70
234
1.06
271
0.60
206
0.71
242
0.70
226
0.98
263
0.83
239
1.55
288
0.76
243
1.40
268
1.00
215
2.46
284
0.57
253
2.17
294
0.99
260
1.15
270
0.90
275
2.37
241
0.95
266
1.63
262
2.05
275
0.44
218
0.98
276
0.81
220
0.80
192
1.24
245
2.15
259
AMNettwo views1.02
237
0.98
269
0.95
259
0.98
253
1.01
264
1.03
255
0.96
262
0.87
244
0.93
259
0.97
275
1.02
247
1.10
229
0.74
238
1.06
287
0.99
225
1.09
272
1.17
271
1.04
287
1.08
185
1.05
276
1.13
240
1.04
225
0.82
271
0.98
276
1.01
256
1.07
241
1.20
239
1.27
230
RTStwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
RTSAtwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
pmcnntwo views1.66
263
0.80
248
0.52
200
1.19
265
1.01
264
1.21
268
0.93
258
0.96
256
0.54
213
0.74
236
2.66
291
3.98
292
5.06
296
0.31
174
1.65
271
1.40
299
1.20
274
0.91
278
3.99
271
0.95
266
4.45
313
1.02
224
0.90
275
0.90
270
1.07
261
1.01
233
2.43
297
3.03
280
otakutwo views2.33
279
3.05
307
1.19
278
3.36
303
2.37
296
3.56
300
3.08
298
1.05
265
0.98
265
1.13
282
0.80
226
2.88
273
1.62
269
2.59
299
0.95
216
0.64
197
1.23
275
0.75
259
13.16
310
1.09
278
2.47
280
2.63
284
4.75
312
0.75
257
1.13
266
1.38
271
1.69
278
2.52
270
SANettwo views1.61
261
0.91
264
1.10
276
1.04
256
1.05
268
1.25
271
0.77
244
1.76
299
1.81
292
0.77
245
1.24
257
6.63
304
5.08
297
0.83
277
1.56
265
0.77
225
1.24
276
0.90
275
1.58
212
0.82
258
1.05
233
1.00
222
0.90
275
1.27
294
1.32
277
1.93
289
1.88
284
3.10
282
MANEtwo views7.31
313
2.64
297
4.48
324
3.30
301
3.10
314
3.94
309
2.83
295
5.37
326
6.88
322
1.11
281
5.64
311
8.81
314
11.02
312
0.67
266
3.83
315
3.83
319
1.32
277
18.03
332
8.61
294
0.84
259
4.22
309
1.16
235
0.74
265
1.79
316
13.65
328
18.61
329
22.89
331
38.18
336
STTRV1_RVCtwo views0.81
249
0.64
228
1.04
256
0.73
244
1.03
255
0.85
250
0.91
249
0.92
257
0.93
269
0.95
241
1.72
258
2.23
277
0.86
280
1.46
260
0.78
228
1.37
278
0.72
252
1.97
309
1.59
260
1.23
240
0.97
274
1.07
261
1.11
245
1.75
281
3.40
286
PVDtwo views1.47
254
1.04
273
1.44
292
1.10
258
1.09
273
1.19
266
1.07
266
1.91
303
2.05
297
0.79
252
1.49
271
1.54
251
1.91
274
0.89
282
2.26
300
1.35
291
1.39
279
1.09
292
2.41
245
1.14
282
1.51
257
1.98
274
0.79
267
1.08
284
1.49
285
1.82
287
1.67
277
2.10
257
Ntrotwo views2.32
276
3.40
315
1.53
294
3.55
304
2.52
301
3.71
305
3.36
300
1.11
271
1.05
267
1.16
286
0.90
236
2.93
275
1.24
258
2.72
305
1.00
226
0.64
197
1.40
280
0.82
271
10.96
305
1.14
282
2.72
284
3.19
293
4.26
308
0.73
253
1.24
273
1.59
282
1.56
273
2.31
263
SGM+DAISYtwo views3.81
300
1.38
284
1.26
285
1.80
284
1.47
287
1.93
287
1.71
281
1.47
286
1.33
278
1.34
298
6.67
321
9.59
318
12.99
316
1.20
290
1.73
275
1.47
302
1.42
281
1.24
299
11.11
306
1.37
294
3.07
294
2.13
277
1.27
289
1.42
302
1.69
289
1.26
260
2.90
307
26.50
329
DPSNettwo views2.61
282
0.83
254
0.77
245
1.21
267
1.24
278
1.34
275
0.93
258
1.08
269
1.49
286
0.78
249
0.86
233
6.91
306
3.85
291
0.58
256
4.58
318
2.54
315
1.43
282
1.24
299
14.95
314
1.34
292
4.83
317
8.01
322
1.75
296
1.40
299
1.47
283
1.95
291
1.60
276
1.66
246
ADCStwo views1.88
270
1.06
274
0.98
262
0.93
250
1.10
274
1.09
260
1.14
267
1.27
273
2.49
305
0.89
267
1.36
266
1.51
248
2.92
289
0.86
280
3.30
313
2.26
314
1.46
283
1.26
301
3.10
264
1.29
291
2.48
281
2.88
287
0.80
269
1.10
285
1.33
279
4.48
319
1.41
265
6.08
305
MFMNet_retwo views1.51
256
1.18
279
1.12
277
1.29
270
1.16
275
1.63
283
1.32
275
1.30
278
1.63
289
1.14
285
1.38
267
2.64
270
1.63
270
0.90
283
2.27
301
1.35
291
1.58
284
1.32
306
3.69
268
1.24
289
2.10
274
1.26
243
1.16
283
1.24
293
1.11
264
1.02
237
1.59
274
1.60
241
SPS-STEREOcopylefttwo views1.93
272
1.27
283
1.21
280
1.60
281
1.34
283
1.44
278
1.17
270
1.66
293
1.36
282
1.38
299
3.67
298
3.02
276
1.29
261
1.05
286
1.85
281
1.83
310
1.58
284
1.37
308
8.86
298
1.34
292
3.07
294
1.47
255
1.27
289
1.37
296
1.42
282
1.28
262
2.02
289
1.89
251
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
BEATNet-Init1two views22.01
333
36.32
336
3.23
319
54.74
338
11.23
330
52.95
339
28.72
334
9.47
328
8.51
323
1.57
308
10.45
329
33.05
331
48.98
333
0.71
270
16.97
331
11.50
329
1.60
286
1.11
295
77.80
336
35.27
337
9.94
328
9.98
328
1.27
289
2.30
322
27.41
331
11.09
325
52.85
338
35.36
334
RainbowNettwo views2.32
276
2.93
303
1.87
300
3.34
302
2.57
302
3.50
297
3.49
303
1.29
276
0.92
257
1.53
307
0.89
235
3.18
279
2.31
281
2.94
306
1.30
251
0.90
241
1.61
287
1.00
283
5.61
281
1.51
296
2.82
288
4.18
303
4.25
307
0.97
274
1.32
277
1.58
281
1.71
280
3.00
279
WAO-7two views2.72
287
1.83
289
2.89
315
7.39
316
1.73
290
1.76
286
1.82
282
2.07
304
2.65
307
2.21
320
5.39
308
4.58
297
5.72
301
1.23
291
2.07
290
1.27
287
1.69
288
1.22
298
7.70
292
1.51
296
1.64
263
3.07
291
0.84
272
1.65
309
1.83
292
2.48
301
1.97
287
3.27
284
LSM0two views8.30
319
1.08
276
0.95
259
1.66
282
1.42
285
1.59
282
1.96
283
2.27
307
2.36
301
1.66
311
3.94
299
4.10
293
6.30
306
0.63
261
62.38
339
74.74
339
1.69
288
1.06
289
12.18
308
2.23
312
4.96
318
9.29
326
0.92
277
1.29
295
1.95
295
2.97
307
3.66
315
14.83
322
ELAS_RVCcopylefttwo views3.22
294
2.01
290
1.85
299
2.66
288
2.07
292
5.08
318
2.06
284
2.41
310
1.89
294
1.74
314
4.78
303
8.00
311
8.02
309
0.74
272
2.38
306
0.81
232
1.75
290
1.14
297
3.97
270
1.27
290
4.64
316
7.61
320
1.26
285
1.74
312
6.58
321
3.21
310
3.39
310
3.80
290
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views3.38
298
2.19
292
1.79
297
2.99
294
2.37
296
3.32
296
2.09
286
2.60
313
2.85
312
1.28
294
4.85
305
8.61
313
8.02
309
0.76
274
2.90
311
0.81
232
1.80
291
1.10
293
4.19
274
1.10
279
4.53
314
7.86
321
1.26
285
1.63
307
7.08
322
4.79
320
3.66
315
4.87
297
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PSMNet_ROBtwo views2.71
285
3.39
314
1.92
301
2.87
293
2.04
291
4.01
310
3.50
304
1.46
285
1.41
283
1.59
309
3.34
294
3.52
284
4.97
295
4.50
317
1.61
268
0.95
248
1.87
292
1.06
289
8.62
295
1.63
304
2.32
279
1.51
259
5.43
321
1.37
296
1.98
297
1.94
290
1.91
285
2.39
266
UDGtwo views1.35
252
2.24
293
0.81
248
2.58
286
2.45
299
2.48
289
2.57
291
0.76
220
0.86
250
0.77
245
1.08
250
1.51
248
0.56
219
2.59
299
1.06
233
0.69
210
1.89
293
0.80
270
2.31
237
0.97
269
1.24
246
0.98
219
1.43
293
0.62
240
0.74
198
0.81
194
0.95
201
0.81
184
LVEtwo views4.33
304
3.03
305
2.00
302
27.23
330
3.06
313
3.83
308
12.07
329
1.53
288
1.64
290
1.85
316
1.48
270
3.30
282
3.91
292
3.06
309
1.45
257
1.05
267
1.95
294
1.38
309
15.68
315
1.62
303
3.25
299
5.86
313
4.42
310
1.76
313
2.87
305
2.06
295
2.34
293
3.25
283
DDUNettwo views1.38
253
2.18
291
0.79
246
2.67
289
2.43
298
2.57
290
2.52
290
0.80
231
0.84
249
0.63
183
0.94
239
1.57
253
0.45
197
2.65
303
0.94
214
0.78
228
1.99
295
0.75
259
2.31
237
0.91
265
1.16
241
0.97
218
2.71
301
0.56
230
0.72
191
0.71
170
0.97
207
0.85
188
AnyNet_C01two views2.06
274
1.08
276
1.06
271
1.14
261
1.08
271
1.01
253
2.69
292
1.69
297
2.66
308
1.21
289
1.67
276
2.90
274
2.60
286
0.95
285
3.65
314
4.02
321
2.09
296
2.21
322
3.08
263
1.56
301
3.30
300
2.89
288
1.26
285
1.15
289
1.80
291
1.43
272
1.51
271
3.90
291
ACVNet-4btwo views2.35
280
2.75
301
1.60
296
3.13
297
2.29
295
3.52
299
3.67
306
1.35
280
1.35
280
1.27
293
0.72
212
3.26
281
2.62
287
3.04
308
0.98
222
0.78
228
2.13
297
1.02
285
9.04
299
1.23
288
2.74
285
3.39
297
4.08
305
0.92
271
1.24
273
1.29
263
1.46
269
2.48
269
IMH-64-1two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
IMH-64two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
IMHtwo views3.24
295
2.76
302
2.37
309
3.26
300
2.74
306
3.73
306
4.10
311
1.72
298
2.58
306
1.17
287
1.24
257
3.92
289
10.58
311
6.80
326
1.57
267
1.11
275
2.25
300
1.30
303
6.28
287
1.56
301
2.97
291
4.14
302
4.90
317
1.45
303
3.01
307
2.36
299
2.47
299
5.19
301
ACVNet_1two views2.47
281
3.23
310
2.35
306
4.40
310
2.93
312
3.77
307
3.96
308
1.34
279
1.18
273
1.21
289
1.02
247
3.31
283
2.07
275
3.09
310
1.31
252
0.70
214
2.26
301
1.10
293
9.52
300
1.14
282
3.45
302
1.18
238
4.50
311
1.07
282
1.39
281
1.75
286
1.36
258
2.10
257
Deantwo views2.84
289
3.23
310
1.81
298
6.04
314
3.38
318
3.63
302
3.67
306
1.88
301
1.97
296
1.47
301
1.30
261
3.69
287
4.10
293
2.97
307
1.45
257
0.97
253
2.41
302
1.29
302
5.94
282
1.74
307
3.20
296
4.23
304
4.79
314
1.55
304
2.65
300
2.27
298
2.56
300
2.64
272
PWCKtwo views5.04
305
3.03
305
2.21
303
3.61
305
2.60
303
4.41
314
5.09
312
2.45
311
2.76
310
3.31
325
4.34
302
10.15
322
5.13
299
1.74
296
1.99
284
1.38
296
2.41
302
1.45
310
51.59
334
2.35
314
3.70
307
2.69
286
2.65
299
1.78
315
2.97
306
3.21
310
2.43
297
4.77
296
MADNet+two views1.96
273
1.18
279
1.26
285
1.45
276
1.28
279
1.10
261
2.21
287
1.88
301
1.41
283
1.33
297
1.32
263
2.29
264
2.23
277
1.25
292
4.58
318
1.87
311
2.55
304
1.13
296
2.73
254
1.63
304
3.69
306
3.33
295
1.26
285
2.09
318
1.93
293
1.47
274
1.59
274
2.77
274
WAO-6two views2.71
285
2.26
294
1.57
295
3.00
295
2.25
294
3.01
293
3.02
297
1.77
300
2.35
300
1.52
306
1.62
275
3.94
291
5.12
298
2.64
302
2.22
297
1.38
296
2.65
305
1.36
307
4.86
276
1.54
300
2.76
287
4.79
307
2.70
300
1.73
311
2.71
301
2.59
302
2.68
304
5.02
299
WAO-8two views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
Venustwo views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
KSHMRtwo views8.16
317
4.16
318
2.96
316
25.39
329
3.92
319
5.08
318
5.53
313
2.62
314
2.40
302
2.23
321
2.26
286
4.37
296
77.17
339
5.23
320
2.24
298
1.71
306
2.79
308
1.98
316
31.04
324
2.02
310
4.59
315
5.35
308
7.54
328
1.89
317
3.30
308
2.91
306
3.01
308
6.51
308
DispFullNettwo views4.17
301
3.20
309
4.34
323
2.72
290
2.46
300
2.92
292
2.70
293
2.79
318
1.90
295
4.51
329
6.62
320
8.91
315
4.83
294
2.59
299
2.00
285
8.18
326
3.24
309
1.98
316
24.96
320
2.93
321
3.99
308
3.36
296
1.71
295
1.15
289
1.36
280
1.32
267
2.36
296
3.65
289
JetBluetwo views6.09
311
3.85
317
3.31
320
5.99
313
4.13
320
6.22
324
7.94
319
3.42
319
2.89
313
1.47
301
1.46
269
8.10
312
1.90
273
5.39
323
11.86
326
3.22
317
3.30
310
2.99
323
5.32
278
2.40
315
9.74
326
10.03
329
4.93
318
2.18
320
7.39
323
17.16
328
3.72
317
24.15
326
notakertwo views5.52
307
5.55
325
3.76
321
13.97
325
5.34
323
5.44
322
7.16
317
2.36
308
2.68
309
2.06
318
1.80
280
12.90
326
23.86
323
3.98
314
2.04
286
1.73
307
3.45
311
2.12
319
17.08
316
2.15
311
6.10
321
5.87
314
6.15
325
2.12
319
1.79
290
2.08
296
2.31
292
3.29
285
MADNet++two views5.64
308
3.51
316
3.77
322
2.84
292
4.62
321
3.02
294
3.65
305
4.36
321
5.03
320
4.18
328
5.07
307
6.45
303
5.92
303
6.18
325
7.04
321
6.82
324
4.71
312
4.00
326
8.03
293
5.83
325
9.92
327
16.38
331
2.32
298
4.34
327
3.95
315
11.38
326
4.93
319
4.01
292
DGSMNettwo views2.66
284
0.96
266
1.36
291
1.03
255
0.99
263
1.12
263
1.05
265
1.36
281
0.94
262
2.15
319
13.54
330
1.71
257
1.85
272
0.93
284
2.50
309
3.85
320
5.34
313
1.61
313
5.07
277
1.68
306
7.04
322
8.02
323
0.96
281
1.19
292
1.01
256
1.33
268
1.40
264
1.88
250
TorneroNettwo views8.11
316
4.28
320
2.58
311
27.50
331
3.31
317
5.00
317
6.00
316
2.62
314
10.13
326
1.49
303
2.57
290
11.07
324
68.61
338
4.25
315
1.77
279
1.18
282
5.78
314
1.62
314
23.67
319
2.83
320
4.30
310
5.47
309
5.37
320
1.65
309
3.72
312
3.14
309
2.59
301
6.36
307
DGTPSM_ROBtwo views12.12
324
5.96
326
17.45
332
4.20
308
7.86
326
5.15
320
8.18
321
4.56
322
11.64
328
4.52
330
8.72
325
5.01
298
17.08
320
12.98
330
14.91
329
14.58
330
6.85
315
15.76
330
12.78
309
12.05
330
9.07
324
21.74
332
5.67
322
11.54
331
11.84
326
31.02
335
12.98
327
33.06
332
DPSMNet_ROBtwo views12.40
325
5.97
327
17.46
333
4.21
309
7.87
327
5.15
320
8.18
321
4.56
322
11.65
329
4.54
331
8.87
326
5.17
299
22.69
321
13.00
331
14.98
330
14.62
331
6.90
316
15.82
331
14.07
313
12.05
330
9.09
325
21.75
333
5.68
323
11.54
331
11.87
327
31.03
336
12.99
328
33.06
332
ACVNet_2two views3.17
293
2.98
304
2.25
305
4.72
311
2.88
309
3.50
297
3.48
302
1.58
291
1.33
278
1.29
295
1.10
253
3.22
280
2.45
283
2.67
304
1.29
250
0.86
237
7.26
317
1.02
285
22.14
318
1.37
294
3.22
297
1.25
241
4.24
306
1.37
296
1.93
293
1.92
288
1.83
283
2.36
265
TorneroNet-64two views6.02
310
4.60
321
2.53
310
15.58
326
3.29
316
4.87
316
7.75
318
2.23
306
10.02
324
1.42
300
1.31
262
7.26
309
29.23
328
4.36
316
2.09
291
1.21
285
8.22
318
1.70
315
17.35
317
2.62
318
4.31
311
5.68
312
5.20
319
1.76
313
3.58
311
3.76
316
2.29
291
8.34
313
JetRedtwo views7.85
315
5.29
324
6.07
327
3.75
306
5.00
322
6.95
327
10.20
326
4.64
324
3.42
315
2.92
324
2.39
288
6.71
305
2.25
279
7.15
327
10.26
323
7.34
325
8.59
319
7.11
327
4.82
275
4.08
323
10.76
330
9.27
325
7.85
329
3.34
325
10.96
325
24.25
332
11.90
326
24.57
327
ktntwo views8.45
321
3.18
308
2.84
314
6.37
315
3.26
315
4.31
313
10.28
327
2.15
305
10.13
326
2.27
322
1.83
281
42.17
334
55.84
335
3.93
313
2.34
304
2.09
313
9.85
320
2.17
320
33.98
325
2.24
313
3.24
298
3.03
290
4.78
313
2.25
321
2.59
298
2.81
304
3.18
309
5.04
300
GCAP-BATtwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
test_for_modeltwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala2two views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalalatwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala_basetwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
GCAP-Stereotwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
UNDER WATER-64two views6.11
312
5.20
323
3.13
318
12.20
323
5.77
324
6.55
326
8.53
323
4.74
325
3.45
316
2.30
323
2.36
287
12.04
325
12.47
315
5.08
319
3.02
312
1.81
309
12.11
327
2.17
320
8.81
297
4.17
324
5.75
320
7.27
319
8.74
330
2.61
323
3.86
314
8.63
323
4.32
318
7.86
312
UNDER WATERtwo views7.55
314
4.74
322
3.06
317
10.46
322
5.92
325
6.35
325
8.05
320
4.32
320
3.69
317
1.97
317
2.14
285
10.53
323
62.60
337
4.83
318
2.25
299
1.59
304
12.22
328
2.08
318
9.67
301
3.97
322
5.27
319
6.65
317
8.86
331
2.65
324
3.82
313
5.62
321
3.62
314
7.03
310
DPSimNet_ROBtwo views18.93
330
32.01
333
5.97
326
12.40
324
11.35
331
6.13
323
28.07
333
15.03
333
35.64
336
3.96
327
78.33
339
18.15
327
35.00
329
5.44
324
12.19
328
10.36
328
13.57
329
3.64
325
87.52
337
6.87
327
14.36
333
9.97
327
4.40
309
7.14
329
5.17
319
9.85
324
5.93
323
32.56
331
PMLtwo views30.82
334
20.91
331
7.15
330
29.65
332
20.81
335
29.11
333
10.50
328
10.87
329
88.32
340
20.03
336
154.19
340
98.60
339
119.55
340
10.53
329
9.19
322
8.69
327
16.72
330
7.27
328
34.57
326
7.35
328
12.77
331
10.86
330
5.72
324
6.17
328
33.11
337
12.83
327
34.30
335
12.33
319
DPSM_ROBtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
DPSMtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
DLNR_Zeroshot_testpermissivetwo views17.86
327
67.45
340
1.21
280
81.91
340
0.35
146
0.45
164
74.74
340
0.76
220
0.27
95
0.69
223
0.60
171
1.16
233
0.29
109
8.20
328
84.48
340
102.07
340
23.88
333
15.14
329
7.31
290
0.50
176
4.38
312
2.51
283
0.18
90
0.43
198
0.76
209
0.86
200
0.80
165
0.80
182
LRCNet_RVCtwo views21.34
332
28.92
332
11.37
331
31.78
333
29.09
336
34.25
334
27.43
332
21.71
336
10.07
325
29.63
337
30.60
333
32.06
330
25.81
325
33.87
336
11.15
324
2.97
316
25.27
334
21.35
335
44.05
331
20.83
334
14.27
332
5.87
314
36.69
336
27.43
336
2.76
302
1.47
274
8.68
325
6.79
309
FlowAnythingtwo views36.80
336
32.68
334
44.29
340
18.93
328
17.69
334
27.11
331
18.38
331
21.83
337
30.48
335
17.53
335
18.21
332
20.29
329
26.54
327
33.31
335
37.97
334
37.86
335
36.82
335
40.93
336
27.35
321
30.03
336
53.34
339
55.72
340
12.99
333
29.50
338
63.36
338
78.25
340
73.99
340
88.17
340
CasAABBNettwo views36.73
335
32.73
335
44.18
339
18.81
327
17.45
333
27.29
332
18.12
330
21.69
335
30.40
334
17.52
334
18.08
331
20.27
328
26.53
326
32.96
334
38.28
335
37.42
334
36.82
335
41.12
337
27.47
322
29.86
335
53.56
340
55.70
339
12.93
332
28.91
337
63.44
339
78.07
339
73.93
339
88.05
339
HanzoNettwo views19.12
331
15.23
328
6.99
329
35.06
334
14.35
332
40.77
335
42.46
335
17.81
334
22.51
332
3.55
326
8.29
324
41.30
333
56.30
336
43.04
338
5.72
320
4.37
322
37.83
337
3.30
324
49.59
333
8.93
329
10.30
329
6.85
318
14.15
334
3.46
326
5.94
320
5.80
322
5.29
322
7.13
311
HaxPigtwo views41.43
337
43.85
337
40.81
336
44.90
335
47.49
338
44.66
336
46.30
337
46.31
338
45.63
338
49.00
338
49.30
335
47.24
335
43.73
331
42.64
337
40.44
337
39.13
337
48.37
338
51.07
338
43.33
329
42.25
338
42.88
336
36.52
336
50.75
338
43.02
340
27.54
332
19.97
330
20.68
330
20.75
325
AVERAGE_ROBtwo views41.98
338
44.82
338
42.27
337
45.98
336
46.88
337
45.60
337
46.56
338
47.04
339
43.89
337
49.19
339
49.91
336
47.25
336
43.00
330
49.19
339
40.14
336
38.38
336
49.01
339
51.31
339
43.98
330
42.43
339
43.31
337
38.64
337
49.42
337
42.83
339
28.65
333
20.44
331
23.41
332
19.88
324
MEDIAN_ROBtwo views44.95
339
47.36
339
44.12
338
48.52
337
49.78
339
48.21
338
49.25
339
49.72
340
46.35
339
52.53
340
53.59
337
50.59
337
45.49
332
49.36
340
43.27
338
41.36
338
51.85
340
54.40
340
47.03
332
45.93
340
45.78
338
40.06
338
52.67
339
45.67
341
31.00
334
26.54
334
25.33
333
27.95
330
ASD4two views8.34
330