This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
29
0.13
11
0.06
2
0.11
6
0.09
10
0.10
2
0.07
7
0.06
9
0.16
3
0.16
2
0.19
2
0.11
1
0.18
3
0.09
1
0.17
1
0.11
1
0.08
13
0.07
4
0.14
2
0.12
2
0.24
15
0.12
5
CoSvtwo views0.13
5
0.17
23
0.08
4
0.08
8
0.07
7
0.17
40
0.07
20
0.15
18
0.10
14
0.13
12
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
7
0.21
7
0.12
2
0.22
14
0.12
5
0.20
6
0.11
1
0.06
3
0.07
4
0.22
26
0.15
10
0.19
5
0.11
1
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
11
0.12
23
0.11
6
0.14
19
0.16
11
0.07
7
0.06
9
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
1
0.13
6
0.06
3
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
29
0.14
30
0.15
18
0.06
3
0.13
6
0.06
1
0.07
15
0.15
1
0.15
1
0.23
15
0.15
4
0.21
11
0.12
5
0.18
4
0.18
16
0.08
13
0.08
7
0.15
4
0.11
1
0.28
23
0.15
13
RAFTtwo views0.17
24
0.13
11
0.10
16
0.16
34
0.07
7
0.21
54
0.05
6
0.25
35
0.12
23
0.14
14
0.15
22
0.16
11
0.10
23
0.05
4
0.21
16
0.20
7
0.23
15
0.15
4
0.28
30
0.13
9
0.21
9
0.17
12
0.07
10
0.10
17
0.26
30
0.24
41
0.33
33
0.23
32
LG-Stereotwo views0.15
14
0.11
8
0.08
4
0.09
12
0.11
26
0.11
18
0.05
6
0.15
18
0.11
16
0.19
30
0.12
16
0.26
33
0.09
18
0.06
9
0.19
10
0.20
7
0.23
15
0.16
6
0.18
3
0.14
12
0.23
12
0.20
23
0.05
1
0.08
7
0.17
13
0.18
17
0.24
15
0.15
13
GREAT-IGEVtwo views0.15
14
0.15
16
0.11
21
0.08
8
0.06
4
0.08
7
0.05
6
0.16
23
0.10
14
0.12
9
0.13
17
0.25
32
0.09
18
0.08
22
0.22
18
0.25
20
0.24
21
0.16
6
0.23
18
0.13
9
0.18
4
0.16
10
0.09
22
0.10
17
0.15
4
0.16
11
0.31
30
0.13
9
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
18
0.04
1
0.17
26
0.13
27
0.15
18
0.16
27
0.19
25
0.08
13
0.09
28
0.18
9
0.22
13
0.19
2
0.16
6
0.15
1
0.14
12
0.17
1
0.14
7
0.08
13
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
18
0.11
16
0.16
23
0.07
5
0.15
9
0.06
1
0.07
15
0.17
5
0.18
4
0.23
15
0.17
9
0.22
14
0.14
12
0.20
6
0.14
7
0.08
13
0.08
7
0.16
8
0.13
5
0.25
17
0.15
13
111111two views0.13
5
0.16
19
0.08
4
0.12
19
0.10
21
0.07
3
0.06
15
0.12
6
0.12
23
0.07
1
0.10
15
0.15
9
0.09
18
0.05
4
0.19
10
0.21
10
0.22
9
0.18
10
0.19
6
0.13
9
0.23
12
0.18
16
0.10
30
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
IGEV-Stereo++two views0.16
20
0.24
37
0.09
14
0.13
22
0.13
28
0.10
16
0.05
6
0.15
18
0.13
27
0.12
9
0.16
27
0.16
11
0.11
28
0.07
15
0.21
16
0.22
13
0.22
9
0.18
10
0.21
11
0.16
19
0.22
11
0.27
44
0.09
22
0.08
7
0.17
13
0.18
17
0.25
17
0.18
24
ProNettwo views0.14
11
0.13
11
0.14
31
0.11
17
0.07
7
0.14
28
0.12
51
0.13
11
0.06
2
0.08
2
0.24
59
0.09
1
0.06
1
0.07
15
0.22
18
0.21
10
0.22
9
0.18
10
0.19
6
0.14
12
0.20
6
0.11
1
0.12
40
0.11
25
0.16
8
0.13
5
0.17
4
0.12
5
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
16
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
23
0.26
24
0.20
4
0.18
10
0.20
9
0.11
2
0.24
18
0.15
9
0.05
1
0.06
1
0.22
26
0.20
21
0.23
12
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
23
0.09
10
0.17
18
0.06
1
0.05
4
0.16
3
0.18
4
0.22
9
0.19
14
0.22
14
0.12
5
0.23
12
0.11
1
0.06
3
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
18
0.07
5
0.16
11
0.06
1
0.05
4
0.17
5
0.18
4
0.22
9
0.19
14
0.19
6
0.12
5
0.21
9
0.12
5
0.06
3
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
CroCo-Stereo Lap2two views0.14
11
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
6
0.06
2
0.22
37
0.07
5
0.16
11
0.07
7
0.04
1
0.20
13
0.26
24
0.22
9
0.19
14
0.26
28
0.11
2
0.28
30
0.16
10
0.06
3
0.08
7
0.22
26
0.23
37
0.20
7
0.16
19
SM2two views0.24
34
0.35
72
0.15
34
0.23
69
0.20
62
0.14
28
0.10
42
0.26
37
0.23
62
0.35
50
0.24
59
0.34
46
0.15
44
0.13
42
0.22
18
0.32
48
0.26
26
0.20
17
0.25
24
0.16
19
0.26
23
0.27
44
0.09
22
0.13
31
0.37
82
0.31
60
0.35
40
0.42
81
GASTEREOtwo views0.16
20
0.16
19
0.10
16
0.14
26
0.10
21
0.11
18
0.07
20
0.12
6
0.15
35
0.14
14
0.09
10
0.18
23
0.11
28
0.06
9
0.24
23
0.24
19
0.23
15
0.20
17
0.23
18
0.16
19
0.23
12
0.23
36
0.11
36
0.10
17
0.19
17
0.22
29
0.28
23
0.14
10
MSCFtwo views0.16
20
0.15
16
0.09
14
0.14
26
0.09
17
0.11
18
0.07
20
0.11
2
0.15
35
0.14
14
0.09
10
0.17
18
0.11
28
0.06
9
0.25
26
0.23
16
0.23
15
0.20
17
0.23
18
0.15
17
0.24
18
0.21
28
0.11
36
0.10
17
0.19
17
0.22
29
0.27
21
0.15
13
MM-Stereo_test2two views0.15
14
0.19
27
0.11
21
0.16
34
0.11
26
0.08
7
0.05
6
0.14
16
0.11
16
0.20
31
0.08
9
0.12
4
0.08
13
0.09
28
0.20
13
0.22
13
0.25
22
0.20
17
0.20
9
0.18
27
0.25
21
0.21
28
0.10
30
0.10
17
0.16
8
0.16
11
0.21
9
0.16
19
AIO-Stereopermissivetwo views0.15
14
0.17
23
0.12
25
0.17
41
0.10
21
0.12
23
0.06
15
0.11
2
0.08
7
0.10
4
0.14
19
0.12
4
0.09
18
0.08
22
0.20
13
0.21
10
0.20
4
0.20
17
0.21
11
0.17
24
0.23
12
0.20
23
0.07
10
0.11
25
0.17
13
0.16
11
0.23
12
0.12
5
RSMtwo views0.15
14
0.16
19
0.12
25
0.14
26
0.09
17
0.14
28
0.06
15
0.10
1
0.08
7
0.09
3
0.15
22
0.14
8
0.10
23
0.07
15
0.22
18
0.25
20
0.21
7
0.20
17
0.18
3
0.17
24
0.25
21
0.18
16
0.08
13
0.10
17
0.16
8
0.16
11
0.27
21
0.15
13
MoCha-V2two views0.14
11
0.15
16
0.11
21
0.12
19
0.09
17
0.11
18
0.09
36
0.13
11
0.08
7
0.13
12
0.18
34
0.17
18
0.07
7
0.07
15
0.17
5
0.23
16
0.20
4
0.20
17
0.25
24
0.14
12
0.29
34
0.17
12
0.08
13
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
RAFT + AFFtwo views0.27
46
0.26
43
0.17
43
0.21
53
0.13
28
0.19
49
0.13
55
0.41
56
0.18
41
0.44
70
0.19
38
0.42
74
0.14
38
0.09
28
0.86
193
0.29
36
0.41
64
0.20
17
0.55
94
0.23
51
0.47
86
0.21
28
0.12
40
0.15
39
0.28
39
0.20
21
0.21
9
0.17
21
GIP-stereotwo views0.17
24
0.21
32
0.13
28
0.15
30
0.09
17
0.09
11
0.07
20
0.12
6
0.09
10
0.16
23
0.13
17
0.16
11
0.08
13
0.15
51
0.27
34
0.25
20
0.25
22
0.21
25
0.24
22
0.19
34
0.27
26
0.20
23
0.07
10
0.11
25
0.20
21
0.22
29
0.35
40
0.17
21
RSM++two views0.17
24
0.18
26
0.13
28
0.17
41
0.10
21
0.14
28
0.07
20
0.13
11
0.13
27
0.12
9
0.14
19
0.17
18
0.11
28
0.08
22
0.25
26
0.27
30
0.25
22
0.21
25
0.23
18
0.18
27
0.26
23
0.21
28
0.08
13
0.10
17
0.20
21
0.18
17
0.29
26
0.18
24
AIO_rvctwo views0.25
37
0.34
62
0.16
38
0.19
48
0.15
41
0.18
44
0.11
46
0.39
53
0.22
57
0.30
45
0.16
27
0.32
41
0.12
34
0.18
66
0.27
34
0.26
24
0.33
37
0.22
27
0.38
46
0.20
40
0.42
60
0.44
104
0.13
48
0.14
35
0.28
39
0.22
29
0.33
33
0.21
29
Occ-Gtwo views0.18
27
0.26
43
0.15
34
0.17
41
0.14
35
0.15
33
0.07
20
0.12
6
0.11
16
0.11
6
0.22
51
0.20
28
0.09
18
0.10
31
0.28
38
0.28
31
0.25
22
0.22
27
0.29
32
0.19
34
0.26
23
0.19
20
0.10
30
0.15
39
0.19
17
0.18
17
0.29
26
0.17
21
StereoVisiontwo views0.18
27
0.13
11
0.11
21
0.09
12
0.14
35
0.16
35
0.08
29
0.17
26
0.17
37
0.15
18
0.15
22
0.16
11
0.10
23
0.06
9
0.25
26
0.26
24
0.27
28
0.22
27
0.22
14
0.16
19
0.23
12
0.17
12
0.06
3
0.13
31
0.28
39
0.29
53
0.38
47
0.28
42
AdaDepthtwo views0.18
27
0.19
27
0.10
16
0.12
19
0.14
35
0.12
23
0.09
36
0.16
23
0.14
30
0.14
14
0.17
31
0.19
25
0.10
23
0.08
22
0.26
32
0.29
36
0.28
30
0.23
30
0.25
24
0.16
19
0.24
18
0.20
23
0.09
22
0.11
25
0.19
17
0.20
21
0.32
31
0.25
36
Utwo views0.15
14
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
23
0.06
2
0.15
18
0.04
2
0.17
18
0.07
7
0.05
4
0.22
18
0.28
31
0.26
26
0.23
30
0.27
29
0.17
24
0.28
30
0.19
20
0.06
3
0.08
7
0.26
30
0.23
37
0.23
12
0.20
27
AEACVtwo views0.19
30
0.31
55
0.14
31
0.17
41
0.13
28
0.12
23
0.07
20
0.15
18
0.07
6
0.16
23
0.15
22
0.18
23
0.11
28
0.11
35
0.25
26
0.25
20
0.32
34
0.23
30
0.35
43
0.18
27
0.27
26
0.22
35
0.11
36
0.11
25
0.20
21
0.22
29
0.25
17
0.18
24
AIO_testtwo views0.27
46
0.39
91
0.19
51
0.29
97
0.19
56
0.18
44
0.14
68
0.42
60
0.23
62
0.33
49
0.19
38
0.37
58
0.18
57
0.18
66
0.25
26
0.29
36
0.34
41
0.24
33
0.39
47
0.21
43
0.49
96
0.46
113
0.13
48
0.15
39
0.30
49
0.28
51
0.41
54
0.21
29
MLG-Stereo_test2two views0.16
20
0.12
10
0.10
16
0.10
14
0.08
14
0.09
11
0.05
6
0.18
28
0.11
16
0.20
31
0.07
5
0.23
30
0.08
13
0.08
22
0.19
10
0.23
16
0.30
32
0.25
34
0.31
34
0.18
27
0.28
30
0.17
12
0.09
22
0.08
7
0.20
21
0.16
11
0.29
26
0.21
29
RAStereotwo views0.19
30
0.16
19
0.10
16
0.08
8
0.07
7
0.09
11
0.06
15
0.21
31
0.09
10
0.45
72
0.09
10
0.26
33
0.08
13
0.07
15
0.25
26
0.26
24
0.28
30
0.25
34
0.33
39
0.15
17
0.35
42
0.18
16
0.08
13
0.10
17
0.28
39
0.23
37
0.25
17
0.24
35
AFF-stereotwo views0.30
59
0.34
62
0.26
95
0.18
46
0.17
49
0.33
114
0.11
46
0.50
81
0.23
62
0.46
75
0.28
72
0.40
65
0.16
49
0.12
39
0.27
34
0.35
53
0.37
49
0.25
34
0.57
104
0.23
51
0.38
47
0.25
39
0.17
78
0.17
49
0.37
82
0.37
87
0.48
66
0.32
52
HUFtwo views0.29
55
0.34
62
0.20
57
0.22
56
0.21
66
0.19
49
0.11
46
0.51
83
0.22
57
0.42
61
0.18
34
0.35
48
0.22
78
0.19
73
0.30
45
0.32
48
0.38
53
0.26
37
0.52
77
0.25
62
0.52
116
0.43
98
0.16
62
0.18
52
0.30
49
0.22
29
0.38
47
0.29
44
SGD-Stereotwo views0.29
55
0.24
37
0.17
43
0.16
34
0.15
41
0.22
60
0.08
29
0.29
42
0.22
57
0.29
43
0.15
22
0.45
86
0.20
66
0.10
31
0.71
162
0.45
106
0.46
76
0.27
38
0.47
62
0.22
46
0.41
54
0.36
65
0.19
98
0.19
55
0.28
39
0.32
66
0.46
61
0.40
74
RAFT_CTSACEtwo views0.30
59
0.37
78
0.15
34
0.15
30
0.15
41
0.25
80
0.18
92
0.53
89
0.20
49
0.55
127
0.18
34
0.44
82
0.29
109
0.16
59
0.29
39
0.30
41
0.37
49
0.27
38
0.37
45
0.18
27
0.38
47
0.45
108
0.10
30
0.17
49
0.30
49
0.31
60
0.60
107
0.26
39
delettwo views0.24
34
0.25
40
0.22
79
0.24
74
0.20
62
0.28
94
0.16
84
0.21
31
0.18
41
0.23
39
0.26
66
0.26
33
0.15
44
0.25
136
0.32
52
0.28
31
0.31
33
0.27
38
0.24
22
0.24
56
0.31
35
0.20
23
0.16
62
0.19
55
0.28
39
0.25
45
0.32
31
0.31
48
LG-Stereo_L2two views0.26
41
0.31
55
0.17
43
0.13
22
0.13
28
0.14
28
0.07
20
0.42
60
0.20
49
0.48
85
0.22
51
0.40
65
0.14
38
0.17
63
0.30
45
0.37
63
0.39
58
0.28
41
0.40
49
0.19
34
0.45
72
0.35
61
0.09
22
0.14
35
0.30
49
0.22
29
0.33
33
0.33
55
MLG-Stereo_test3two views0.23
33
0.17
23
0.13
28
0.14
26
0.17
49
0.16
35
0.09
36
0.21
31
0.12
23
0.21
34
0.18
34
0.35
48
0.11
28
0.15
51
0.29
39
0.26
24
0.33
37
0.28
41
0.63
122
0.18
27
0.40
52
0.41
84
0.11
36
0.15
39
0.21
25
0.21
27
0.33
33
0.27
40
YMNettwo views0.30
59
0.31
55
0.23
84
0.27
89
0.23
74
0.26
82
0.25
135
0.36
47
0.37
172
0.25
41
0.19
38
0.40
65
0.27
102
0.29
164
0.38
61
0.47
126
0.37
49
0.28
41
0.43
58
0.19
34
0.35
42
0.33
56
0.16
62
0.19
55
0.36
80
0.29
53
0.39
49
0.35
60
DEFOM-Stereotwo views0.21
32
0.19
27
0.12
25
0.18
46
0.13
28
0.20
52
0.08
29
0.19
29
0.14
30
0.16
23
0.23
54
0.21
29
0.10
23
0.12
39
0.27
34
0.29
36
0.34
41
0.28
41
0.32
36
0.22
46
0.32
36
0.21
28
0.12
40
0.11
25
0.26
30
0.22
29
0.47
63
0.29
44
anonymousdsptwo views0.25
37
0.23
35
0.19
51
0.16
34
0.14
35
0.18
44
0.10
42
0.37
50
0.19
46
0.32
48
0.22
51
0.32
41
0.12
34
0.14
47
0.29
39
0.32
48
0.32
34
0.28
41
0.39
47
0.22
46
0.46
79
0.31
53
0.12
40
0.15
39
0.26
30
0.20
21
0.52
81
0.20
27
iRaftStereo_RVCtwo views0.26
41
0.27
45
0.16
38
0.13
22
0.14
35
0.18
44
0.09
36
0.44
65
0.14
30
0.36
52
0.36
98
0.32
41
0.16
49
0.13
42
0.29
39
0.29
36
0.38
53
0.28
41
0.34
42
0.22
46
0.41
54
0.38
71
0.12
40
0.17
49
0.27
35
0.29
53
0.42
55
0.27
40
RAFT-Stereo + iAFFtwo views0.35
76
0.41
102
0.32
115
0.24
74
0.19
56
0.28
94
0.13
55
0.58
113
0.24
73
0.46
75
0.35
97
0.49
98
0.19
63
0.15
51
0.34
56
0.35
53
0.41
64
0.28
41
0.65
127
0.28
75
0.44
68
0.33
56
0.19
98
0.22
76
0.51
128
0.37
87
0.58
99
0.44
86
TDLMtwo views0.24
34
0.29
49
0.22
79
0.22
56
0.27
104
0.23
72
0.18
92
0.26
37
0.19
46
0.18
29
0.38
107
0.29
37
0.21
74
0.15
51
0.24
23
0.28
31
0.32
34
0.28
41
0.25
24
0.21
43
0.28
30
0.19
20
0.16
62
0.21
62
0.24
29
0.20
21
0.28
23
0.25
36
S2M2_XLtwo views0.33
71
0.30
53
0.30
107
0.17
41
0.19
56
0.23
72
0.21
111
0.53
89
0.26
89
0.47
79
0.25
63
0.48
94
0.18
57
0.22
96
0.38
61
0.36
59
0.54
125
0.29
49
0.41
52
0.28
75
0.50
100
0.31
53
0.21
123
0.21
62
0.34
69
0.32
66
0.45
59
0.51
106
LG-Stereo_L1two views0.27
46
0.30
53
0.17
43
0.13
22
0.13
28
0.15
33
0.08
29
0.42
60
0.21
53
0.49
94
0.20
43
0.39
64
0.15
44
0.15
51
0.30
45
0.38
66
0.39
58
0.29
49
0.40
49
0.18
27
0.47
86
0.35
61
0.08
13
0.14
35
0.30
49
0.21
27
0.37
46
0.36
63
HCRNettwo views0.32
66
0.38
86
0.20
57
0.39
143
0.17
49
0.29
97
0.18
92
0.40
54
0.18
41
0.80
253
0.40
116
0.49
98
0.18
57
0.22
96
0.38
61
0.30
41
0.38
53
0.29
49
0.40
49
0.19
34
0.33
39
0.23
36
0.19
98
0.16
47
0.26
30
0.31
60
0.51
70
0.31
48
DFGA-Nettwo views0.28
51
0.37
78
0.16
38
0.26
84
0.15
41
0.22
60
0.15
75
0.40
54
0.21
53
0.41
59
0.24
59
0.31
40
0.17
53
0.13
42
0.42
78
0.39
70
0.38
53
0.30
52
0.42
56
0.21
43
0.36
46
0.29
49
0.13
48
0.21
62
0.31
59
0.27
48
0.51
70
0.28
42
RAFT+CT+SAtwo views0.32
66
0.46
139
0.20
57
0.26
84
0.18
53
0.22
60
0.15
75
0.58
113
0.23
62
0.52
108
0.17
31
0.46
88
0.33
146
0.12
39
0.33
53
0.43
90
0.36
47
0.30
52
0.45
60
0.23
51
0.45
72
0.49
125
0.09
22
0.22
76
0.32
64
0.31
60
0.53
85
0.35
60
CASnettwo views0.40
86
0.52
190
0.23
84
0.27
89
0.27
104
0.30
103
0.14
68
0.62
140
0.29
109
0.61
167
0.44
124
0.64
150
0.28
107
0.23
109
0.55
101
0.36
59
0.45
71
0.31
54
0.73
146
0.27
72
0.63
158
0.39
78
0.21
123
0.24
97
0.42
97
0.32
66
0.61
110
0.56
123
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MStwo views0.26
41
0.25
40
0.17
43
0.16
34
0.15
41
0.12
23
0.14
68
0.38
52
0.21
53
0.46
75
0.17
31
0.37
58
0.16
49
0.15
51
0.35
57
0.42
82
0.37
49
0.32
55
0.31
34
0.23
51
0.39
49
0.38
71
0.16
62
0.14
35
0.28
39
0.23
37
0.35
40
0.31
48
LG-G_1two views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
LG-Gtwo views0.25
37
0.22
33
0.19
51
0.23
69
0.22
68
0.22
60
0.12
51
0.28
39
0.11
16
0.21
34
0.20
43
0.35
48
0.14
38
0.18
66
0.31
49
0.30
41
0.35
45
0.32
55
0.51
72
0.24
56
0.39
49
0.26
41
0.10
30
0.15
39
0.27
35
0.24
41
0.36
44
0.34
57
TestStereo1two views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
TESTrafttwo views0.37
78
0.46
139
0.21
70
0.21
53
0.23
74
0.21
54
0.16
84
0.54
94
0.31
135
0.51
101
0.23
54
0.36
56
0.36
170
0.11
35
0.85
191
0.48
132
0.45
71
0.32
55
0.48
65
0.24
56
0.46
79
0.65
171
0.12
40
0.23
88
0.37
82
0.43
102
0.57
91
0.39
69
test_5two views0.29
55
0.39
91
0.16
38
0.22
56
0.15
41
0.21
54
0.13
55
0.54
94
0.20
49
0.38
57
0.19
38
0.44
82
0.34
158
0.10
31
0.43
80
0.38
66
0.33
37
0.32
55
0.33
39
0.20
40
0.32
36
0.35
61
0.09
22
0.21
62
0.28
39
0.30
56
0.51
70
0.32
52
SA-5Ktwo views0.38
80
0.49
161
0.19
51
0.22
56
0.23
74
0.23
72
0.15
75
0.55
101
0.30
117
0.52
108
0.21
47
0.35
48
0.39
180
0.11
35
0.80
175
0.50
143
0.46
76
0.32
55
0.53
85
0.25
62
0.52
116
0.67
179
0.15
58
0.22
76
0.37
82
0.42
100
0.60
107
0.39
69
AASNettwo views0.28
51
0.34
62
0.22
79
0.25
80
0.26
94
0.34
121
0.25
135
0.32
44
0.17
37
0.29
43
0.36
98
0.26
33
0.18
57
0.24
120
0.36
58
0.31
45
0.34
41
0.32
55
0.32
36
0.28
75
0.35
42
0.28
48
0.17
78
0.22
76
0.30
49
0.28
51
0.35
40
0.25
36
CVANet_RVCtwo views0.31
64
0.40
98
0.30
107
0.40
149
0.29
116
0.37
132
0.23
127
0.41
56
0.23
62
0.31
46
0.49
137
0.37
58
0.26
95
0.19
73
0.29
39
0.33
52
0.34
41
0.32
55
0.32
36
0.25
62
0.34
41
0.25
39
0.18
90
0.25
107
0.30
49
0.25
45
0.34
37
0.30
46
LGtest1two views0.26
41
0.19
27
0.20
57
0.16
34
0.18
53
0.16
35
0.09
36
0.28
39
0.17
37
0.22
37
0.27
69
0.29
37
0.13
37
0.14
47
0.30
45
0.31
45
0.38
53
0.33
64
0.49
67
0.25
62
0.41
54
0.41
84
0.13
48
0.16
47
0.30
49
0.24
41
0.39
49
0.31
48
DEFOM-Stereo_RVCtwo views0.33
71
0.36
76
0.20
57
0.23
69
0.20
62
0.17
40
0.10
42
0.48
78
0.23
62
0.55
127
0.32
85
0.40
65
0.19
63
0.15
51
0.48
92
0.36
59
0.47
86
0.33
64
0.51
72
0.27
72
0.50
100
0.42
91
0.16
62
0.18
52
0.30
49
0.31
60
0.48
66
0.53
112
anonymousdsp2two views0.38
80
0.46
139
0.30
107
0.25
80
0.23
74
0.32
107
0.18
92
0.58
113
0.23
62
0.47
79
0.38
107
0.48
94
0.23
84
0.18
66
0.40
66
0.39
70
0.44
68
0.33
64
0.88
169
0.31
89
0.48
92
0.52
142
0.17
78
0.23
88
0.41
96
0.33
71
0.61
110
0.42
81
TestStereotwo views0.45
116
0.51
181
0.38
145
0.42
158
0.30
123
0.44
159
0.26
139
0.71
198
0.28
102
0.76
243
0.32
85
0.64
150
0.32
140
0.24
120
0.47
85
0.35
53
0.54
125
0.33
64
0.78
158
0.38
130
0.63
158
0.42
91
0.24
154
0.30
135
0.53
135
0.43
102
0.75
153
0.55
122
trnettwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.27
87
0.14
68
0.62
140
0.30
117
0.60
163
0.36
98
0.73
171
0.33
146
0.24
120
0.56
103
0.57
176
0.58
153
0.34
68
0.52
77
0.31
89
0.57
143
0.42
91
0.17
78
0.30
135
0.54
139
0.48
126
0.65
124
0.69
160
UniTT-Stereotwo views0.28
51
0.27
45
0.15
34
0.15
30
0.13
28
0.17
40
0.09
36
0.35
46
0.19
46
0.49
94
0.21
47
0.41
72
0.18
57
0.14
47
0.40
66
0.39
70
0.42
66
0.34
68
0.56
100
0.25
62
0.43
62
0.24
38
0.13
48
0.19
55
0.31
59
0.41
99
0.30
29
0.37
64
CAStwo views0.38
80
0.45
127
0.25
92
0.29
97
0.29
116
0.23
72
0.13
55
0.41
56
0.27
95
0.41
59
0.54
161
0.35
48
0.35
165
0.21
90
0.52
98
0.38
66
0.50
99
0.34
68
0.52
77
0.26
69
0.43
62
0.41
84
0.19
98
0.23
88
0.51
128
0.52
139
0.62
113
0.77
178
test_4two views0.34
73
0.33
59
0.27
97
0.21
53
0.18
53
0.16
35
0.11
46
0.59
120
0.26
89
0.58
152
0.25
63
0.50
104
0.20
66
0.19
73
0.33
53
0.40
74
0.45
71
0.34
68
0.41
52
0.29
80
0.45
72
0.41
84
0.16
62
0.24
97
0.38
87
0.40
98
0.59
106
0.42
81
CREStereo++_RVCtwo views0.43
108
0.42
109
0.39
147
0.30
105
0.33
133
0.27
87
0.19
103
0.57
109
0.31
135
0.58
152
0.36
98
0.58
130
0.56
219
0.23
109
0.48
92
0.50
143
0.61
180
0.34
68
0.52
77
0.30
84
0.56
133
0.42
91
0.16
62
0.29
127
0.49
121
0.44
106
0.79
164
0.69
160
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
raft+_RVCtwo views0.35
76
0.34
62
0.26
95
0.25
80
0.23
74
0.25
80
0.18
92
0.54
94
0.26
89
0.52
108
0.43
121
0.46
88
0.23
84
0.18
66
0.42
78
0.38
66
0.43
67
0.34
68
0.61
120
0.26
69
0.43
62
0.38
71
0.13
48
0.20
60
0.39
90
0.39
94
0.58
99
0.42
81
MMNettwo views0.29
55
0.29
49
0.22
79
0.26
84
0.26
94
0.26
82
0.18
92
0.33
45
0.23
62
0.24
40
0.28
72
0.35
48
0.15
44
0.32
181
0.39
64
0.31
45
0.36
47
0.34
68
0.41
52
0.27
72
0.32
36
0.21
28
0.17
78
0.23
88
0.32
64
0.30
56
0.46
61
0.32
52
CREStereotwo views0.44
111
0.51
181
0.40
152
0.34
121
0.26
94
0.28
94
0.15
75
0.61
133
0.30
117
0.58
152
0.36
98
0.72
168
0.33
146
0.24
120
0.59
114
0.59
184
0.59
167
0.34
68
0.52
77
0.31
89
0.59
151
0.42
91
0.18
90
0.30
135
0.54
139
0.48
126
0.64
120
0.69
160
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
AANet_RVCtwo views0.28
51
0.27
45
0.23
84
0.19
48
0.28
109
0.16
35
0.16
84
0.29
42
0.30
117
0.20
31
0.27
69
0.24
31
0.21
74
0.19
73
0.45
82
0.36
59
0.33
37
0.34
68
0.29
32
0.29
80
0.27
26
0.27
44
0.22
136
0.21
62
0.34
69
0.33
71
0.42
55
0.52
108
IGEV-Stereo+two views0.27
46
0.25
40
0.14
31
0.22
56
0.14
35
0.13
27
0.07
20
0.36
47
0.20
49
0.55
127
0.23
54
0.38
61
0.14
38
0.16
59
0.26
32
0.35
53
0.40
61
0.35
77
0.48
65
0.24
56
0.44
68
0.51
137
0.12
40
0.13
31
0.28
39
0.20
21
0.34
37
0.23
32
MaDis-Stereotwo views0.26
41
0.20
31
0.16
38
0.10
14
0.10
21
0.10
16
0.08
29
0.24
34
0.14
30
0.36
52
0.16
27
0.36
56
0.12
34
0.08
22
0.33
53
0.35
53
0.39
58
0.35
77
0.53
85
0.20
40
0.40
52
0.26
41
0.13
48
0.15
39
0.39
90
0.39
94
0.40
53
0.49
95
LL-Strereo2two views0.34
73
0.29
49
0.21
70
0.24
74
0.19
56
0.17
40
0.13
55
0.63
154
0.26
89
0.58
152
0.23
54
0.44
82
0.22
78
0.14
47
0.41
72
0.41
78
0.47
86
0.35
77
0.73
146
0.31
89
0.47
86
0.36
65
0.21
123
0.20
60
0.32
64
0.34
75
0.51
70
0.35
60
GMStereopermissivetwo views0.41
90
0.48
158
0.25
92
0.32
113
0.32
132
0.37
132
0.28
146
0.59
120
0.30
117
0.45
72
0.36
98
0.61
140
0.31
131
0.24
120
0.45
82
0.41
78
0.54
125
0.35
77
0.73
146
0.39
143
0.51
106
0.33
56
0.23
146
0.28
122
0.48
113
0.36
79
0.68
133
0.41
76
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
S2M2two views0.40
86
0.42
109
0.41
161
0.24
74
0.27
104
0.35
127
0.22
117
0.51
83
0.24
73
0.61
167
0.23
54
0.43
79
0.21
74
0.31
174
0.59
114
0.49
139
0.55
134
0.36
81
0.53
85
0.34
101
0.55
128
0.38
71
0.28
172
0.27
116
0.42
97
0.43
102
0.63
116
0.66
150
IGEV-BASED-STEREO-two views0.30
59
0.24
37
0.17
43
0.23
69
0.19
56
0.18
44
0.08
29
0.49
80
0.25
79
0.54
120
0.21
47
0.32
41
0.17
53
0.17
63
0.29
39
0.39
70
0.45
71
0.36
81
0.50
69
0.26
69
0.56
133
0.49
125
0.13
48
0.13
31
0.31
59
0.26
47
0.45
59
0.30
46
MIM_Stereotwo views0.32
66
0.40
98
0.25
92
0.28
92
0.20
62
0.27
87
0.14
68
0.45
71
0.18
41
0.48
85
0.25
63
0.42
74
0.18
57
0.16
59
0.36
58
0.42
82
0.44
68
0.36
81
0.47
62
0.28
75
0.47
86
0.36
65
0.12
40
0.23
88
0.29
48
0.27
48
0.47
63
0.33
55
ACREtwo views0.42
95
0.47
146
0.22
79
0.32
113
0.22
68
0.33
114
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.30
119
0.41
206
0.91
205
0.45
106
0.52
114
0.36
81
0.55
94
0.38
130
0.57
143
0.44
104
0.19
98
0.23
88
0.44
101
0.32
66
0.58
99
0.39
69
FINETtwo views0.40
86
0.38
86
0.39
147
0.43
163
0.30
123
0.34
121
0.35
168
0.44
65
0.36
163
0.47
79
0.32
85
0.47
91
0.30
119
0.28
157
0.66
143
0.50
143
0.48
91
0.36
81
0.60
116
0.33
95
0.46
79
0.37
70
0.30
180
0.30
135
0.43
99
0.35
76
0.56
89
0.42
81
CEStwo views0.46
121
0.35
72
0.30
107
0.27
89
0.27
104
0.29
97
0.12
51
1.05
265
0.27
95
0.54
120
0.66
195
0.53
113
0.25
92
0.23
109
0.62
130
0.65
203
0.58
153
0.37
86
0.54
91
0.34
101
0.84
204
0.53
145
0.23
146
0.23
88
0.56
147
0.44
106
0.57
91
0.69
160
CIPLGtwo views0.42
95
0.47
146
0.24
90
0.32
113
0.22
68
0.32
107
0.19
103
0.63
154
0.24
73
0.55
127
0.50
142
0.60
139
0.30
119
0.41
206
0.93
210
0.44
95
0.52
114
0.37
86
0.56
100
0.38
130
0.56
133
0.45
108
0.19
98
0.24
97
0.44
101
0.31
60
0.57
91
0.38
68
IPLGR_Ctwo views0.42
95
0.47
146
0.23
84
0.31
111
0.22
68
0.32
107
0.18
92
0.63
154
0.23
62
0.55
127
0.50
142
0.61
140
0.31
131
0.41
206
0.87
199
0.45
106
0.52
114
0.37
86
0.55
94
0.38
130
0.56
133
0.46
113
0.19
98
0.24
97
0.44
101
0.33
71
0.58
99
0.40
74
PMTNettwo views0.48
127
0.48
158
0.43
169
0.31
111
0.30
123
0.27
87
0.22
117
0.54
94
0.29
109
0.57
140
0.39
113
0.59
135
0.23
84
0.23
109
0.64
139
0.59
184
0.57
149
0.37
86
1.17
194
0.33
95
0.67
173
0.40
81
0.20
114
0.21
62
0.79
215
0.59
153
0.65
124
0.92
196
MIF-Stereo (partial)two views0.30
59
0.44
119
0.18
49
0.16
34
0.16
47
0.21
54
0.11
46
0.37
50
0.22
57
0.37
55
0.24
59
0.32
41
0.17
53
0.13
42
0.39
64
0.45
106
0.46
76
0.38
90
0.42
56
0.25
62
0.43
62
0.35
61
0.18
90
0.21
62
0.35
79
0.32
66
0.50
69
0.44
86
s12784htwo views0.62
170
0.68
232
0.47
186
0.65
218
0.44
184
0.34
121
0.24
130
0.61
133
0.31
135
0.60
163
0.44
124
0.81
190
0.55
217
0.25
136
0.62
130
0.50
143
0.62
186
0.38
90
0.74
152
0.36
120
1.26
247
0.47
118
0.18
90
0.30
135
0.70
185
0.74
176
1.39
260
2.07
256
castereotwo views0.47
123
0.36
76
0.35
126
0.34
121
0.26
94
0.26
82
0.17
90
0.56
107
0.29
109
0.60
163
0.45
127
0.68
158
0.22
78
0.20
84
0.52
98
0.58
181
0.61
180
0.39
92
0.92
173
0.36
120
0.96
223
0.76
197
0.19
98
0.24
97
0.54
139
0.64
160
0.57
91
0.58
127
GCAP-BATtwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
test_for_modeltwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala2two views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalalatwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
testlalala_basetwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
GCAP-Stereotwo views0.76
201
0.45
127
0.20
57
0.22
56
0.25
84
0.22
60
0.13
55
0.62
140
0.25
79
0.57
140
0.29
74
0.75
175
0.20
66
0.19
73
0.47
85
0.51
150
10.38
321
0.39
92
0.59
109
0.34
101
0.93
213
0.50
130
0.17
78
0.21
62
0.34
69
0.36
79
0.51
70
0.49
95
iinet-ftwo views0.52
138
0.43
114
0.36
132
0.34
121
0.25
84
0.47
171
0.25
135
0.43
63
0.27
95
0.52
108
0.94
239
0.61
140
0.44
196
0.25
136
1.06
233
0.57
176
0.52
114
0.39
92
1.51
207
0.50
176
0.58
147
0.75
194
0.26
165
0.25
107
0.52
132
0.38
91
0.76
156
0.53
112
ddtwo views0.50
131
0.51
181
0.28
99
0.91
247
0.31
131
0.65
217
0.29
153
0.59
120
0.23
62
0.54
120
0.30
80
0.75
175
0.27
102
0.26
147
0.84
187
0.46
115
0.70
217
0.39
92
1.05
184
0.38
130
0.48
92
0.43
98
0.23
146
0.30
135
0.53
135
0.39
94
0.74
151
0.58
127
DMCAtwo views0.32
66
0.31
55
0.30
107
0.24
74
0.25
84
0.27
87
0.22
117
0.36
47
0.33
148
0.31
46
0.40
116
0.40
65
0.23
84
0.25
136
0.41
72
0.37
63
0.40
61
0.39
92
0.36
44
0.28
75
0.41
54
0.27
44
0.25
157
0.25
107
0.31
59
0.35
76
0.39
49
0.37
64
RASNettwo views0.42
95
0.45
127
0.43
169
0.33
119
0.33
133
0.37
132
0.27
141
0.58
113
0.34
153
0.47
79
0.43
121
0.49
98
0.33
146
0.25
136
0.41
72
0.41
78
0.48
91
0.39
92
0.47
62
0.30
84
0.49
96
0.40
81
0.19
98
0.44
204
0.40
94
0.46
119
0.75
153
0.63
145
HITNettwo views0.38
80
0.37
78
0.28
99
0.34
121
0.29
116
0.26
82
0.19
103
0.58
113
0.32
143
0.57
140
0.45
127
0.55
121
0.30
119
0.22
96
0.51
96
0.35
53
0.44
68
0.39
92
0.41
52
0.29
80
0.41
54
0.38
71
0.20
114
0.25
107
0.39
90
0.37
87
0.70
141
0.52
108
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
G2L-Stereotwo views0.42
95
0.39
91
0.28
99
0.35
131
0.40
170
0.34
121
0.22
117
0.54
94
0.34
153
0.52
108
0.61
178
0.50
104
0.38
177
0.26
147
0.61
125
0.44
95
0.50
99
0.40
104
0.46
61
0.33
95
0.43
62
0.39
78
0.28
172
0.27
116
0.49
121
0.54
144
0.69
136
0.49
95
Former-RAFT_DAM_RVCtwo views0.41
90
0.33
59
0.29
103
0.29
97
0.24
82
0.26
82
0.16
84
0.55
101
0.40
182
0.55
127
0.49
137
0.49
98
0.27
102
0.23
109
0.58
110
0.45
106
0.51
110
0.40
104
0.50
69
0.36
120
0.46
79
0.50
130
0.16
62
0.23
88
0.49
121
0.75
180
0.44
58
0.56
123
plaintwo views0.31
64
0.43
114
0.20
57
0.20
52
0.16
47
0.20
52
0.10
42
0.41
56
0.18
41
0.48
85
0.19
38
0.34
46
0.17
53
0.10
31
0.41
72
0.44
95
0.45
71
0.40
104
0.55
94
0.24
56
0.41
54
0.34
59
0.14
56
0.21
62
0.32
64
0.33
71
0.39
49
0.48
93
LoStwo views0.55
148
0.44
119
0.29
103
0.36
136
0.37
157
0.40
145
0.20
110
1.37
282
0.31
135
0.86
264
0.78
221
0.68
158
0.37
174
0.24
120
0.58
110
0.72
216
0.59
167
0.40
104
0.75
153
0.35
118
1.03
230
0.65
171
0.21
123
0.24
97
0.79
215
0.64
160
0.64
120
0.68
158
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
AnonymousMtwo views0.79
212
0.34
62
0.20
57
0.24
74
0.22
68
0.21
54
0.15
75
0.58
113
0.21
53
0.57
140
0.39
113
0.45
86
0.15
44
0.19
73
0.56
103
0.54
168
0.54
125
0.40
104
0.53
85
0.30
84
0.65
166
0.54
147
0.20
114
0.22
76
0.30
49
0.39
94
1.31
252
11.04
317
castereo++two views0.44
111
0.35
72
0.33
118
0.43
163
0.23
74
0.21
54
0.17
90
0.59
120
0.30
117
0.63
183
0.37
104
0.73
171
0.22
78
0.22
96
0.44
81
0.53
160
0.58
153
0.41
109
0.66
129
0.34
101
0.81
199
0.69
184
0.20
114
0.28
122
0.48
113
0.56
151
0.76
156
0.48
93
LoS_RVCtwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
tt_lltwo views0.42
95
0.45
127
0.43
169
0.19
48
0.25
84
0.24
77
0.16
84
0.44
65
0.28
102
0.51
101
0.48
133
0.42
74
0.31
131
0.22
96
0.60
120
0.45
106
0.46
76
0.41
109
0.71
142
0.30
84
0.67
173
0.51
137
0.19
98
0.32
148
0.61
163
0.44
106
0.58
99
0.61
137
SAtwo views0.42
95
0.47
146
0.21
70
0.25
80
0.23
74
0.31
104
0.13
55
0.64
161
0.32
143
0.61
167
0.26
66
0.54
115
0.21
74
0.16
59
0.63
133
0.47
126
0.52
114
0.41
109
0.60
116
0.29
80
0.46
79
0.61
162
0.15
58
0.27
116
0.45
105
0.58
152
0.96
204
0.47
91
GLC_STEREOtwo views0.47
123
0.51
181
0.40
152
0.38
140
0.37
157
0.37
132
0.28
146
0.64
161
0.29
109
0.62
177
0.53
155
0.55
121
0.28
107
0.30
167
0.49
95
0.48
132
0.66
201
0.41
109
0.65
127
0.41
151
0.70
182
0.60
157
0.23
146
0.30
135
0.47
110
0.36
79
0.84
180
0.53
112
raftrobusttwo views0.43
108
0.33
59
0.36
132
0.28
92
0.28
109
0.27
87
0.18
92
0.64
161
0.25
79
0.63
183
0.53
155
0.51
109
0.25
92
0.22
96
0.63
133
0.48
132
0.51
110
0.41
109
0.96
180
0.38
130
0.53
123
0.46
113
0.20
114
0.24
97
0.57
148
0.54
144
0.54
86
0.52
108
UPFNettwo views0.38
80
0.34
62
0.34
124
0.32
113
0.33
133
0.39
139
0.29
153
0.47
76
0.33
148
0.43
63
0.41
118
0.40
65
0.30
119
0.34
186
0.61
125
0.40
74
0.46
76
0.41
109
0.52
77
0.35
118
0.35
42
0.34
59
0.25
157
0.27
116
0.38
87
0.35
76
0.55
87
0.37
64
RYNettwo views0.27
46
0.23
35
0.18
49
0.15
30
0.17
49
0.19
49
0.13
55
0.25
35
0.31
135
0.17
28
0.20
43
0.19
25
0.14
38
0.13
42
0.80
175
0.28
31
0.27
28
0.41
109
0.28
30
0.19
34
0.27
26
0.21
28
0.29
177
0.18
52
0.27
35
0.76
183
0.34
37
0.23
32
IERtwo views0.41
90
0.37
78
0.31
112
0.30
105
0.28
109
0.35
127
0.24
130
0.47
76
0.28
102
0.44
70
0.59
169
0.77
186
0.29
109
0.35
192
0.63
133
0.42
82
0.47
86
0.42
117
0.44
59
0.34
101
0.42
60
0.36
65
0.28
172
0.26
113
0.40
94
0.47
121
0.52
81
0.52
108
test-3two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.65
168
0.27
95
0.61
167
0.34
94
0.90
206
0.31
131
0.21
90
0.60
120
0.44
95
0.55
134
0.42
117
2.59
251
0.38
130
0.56
133
1.37
248
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
test_1two views0.55
148
0.37
78
0.37
136
0.34
121
0.33
133
0.33
114
0.22
117
0.66
172
0.27
95
0.62
177
0.34
94
0.90
206
0.31
131
0.21
90
0.61
125
0.44
95
0.55
134
0.42
117
2.58
250
0.38
130
0.56
133
1.38
250
0.16
62
0.29
127
0.48
113
0.38
91
0.69
136
0.54
119
ADLNettwo views0.46
121
0.53
196
0.37
136
0.41
154
0.41
176
0.44
159
0.40
182
0.54
94
0.35
159
0.45
72
0.53
155
0.76
183
0.36
170
0.62
259
0.58
110
0.42
82
0.49
94
0.42
117
0.50
69
0.37
126
0.43
62
0.44
104
0.34
194
0.25
107
0.47
110
0.55
147
0.57
91
0.45
88
NLCA_NET_v2_RVCtwo views0.51
134
0.52
190
0.48
189
0.43
163
0.57
213
0.42
153
0.62
226
0.56
107
0.62
227
0.52
108
0.51
148
0.67
156
0.34
158
0.58
256
0.78
169
0.42
82
0.47
86
0.42
117
0.57
104
0.38
130
0.46
79
0.42
91
0.30
180
0.32
148
0.48
113
0.76
183
0.62
113
0.64
147
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
4D-IteraStereotwo views0.40
86
0.28
48
0.33
118
0.35
131
0.24
82
0.24
77
0.15
75
0.63
154
0.28
102
0.61
167
0.39
113
0.51
109
0.22
78
0.22
96
0.48
92
0.43
90
0.49
94
0.43
122
0.66
129
0.34
101
0.63
158
0.70
186
0.14
56
0.22
76
0.39
90
0.47
121
0.63
116
0.39
69
anonymitytwo views3.27
296
0.41
102
1.09
275
0.58
200
0.41
176
0.47
171
0.30
160
0.79
229
0.33
148
0.61
167
69.49
338
0.85
199
0.30
119
0.24
120
0.59
114
1.02
264
0.60
174
0.43
122
1.35
202
0.60
214
0.73
188
1.82
273
0.24
154
0.29
127
1.00
254
1.24
256
1.08
223
1.47
236
GANettwo views0.32
66
0.29
49
0.27
97
0.34
121
0.33
133
0.38
137
0.29
153
0.44
65
0.24
73
0.35
50
0.30
80
0.46
88
0.22
78
0.21
90
0.31
49
0.32
48
0.40
61
0.43
122
0.33
39
0.22
46
0.33
39
0.29
49
0.22
136
0.24
97
0.31
59
0.27
48
0.42
55
0.34
57
CFNettwo views0.45
116
0.44
119
0.33
118
0.48
174
0.40
170
0.39
139
0.30
160
0.53
89
0.32
143
0.48
85
0.50
142
0.68
158
0.40
183
0.30
167
0.56
103
0.37
63
0.48
91
0.43
122
0.52
77
0.33
95
0.46
79
0.30
52
0.23
146
0.31
143
0.61
163
0.52
139
0.69
136
0.71
167
DN-CSS_ROBtwo views0.52
138
0.43
114
0.46
182
0.41
154
0.40
170
0.34
121
0.22
117
0.69
189
0.34
153
0.59
157
0.79
222
0.66
154
0.47
202
0.24
120
0.63
133
0.40
74
0.58
153
0.43
122
1.74
218
0.38
130
0.63
158
0.38
71
0.31
185
0.47
214
0.53
135
0.43
102
0.66
130
0.54
119
coex_refinementtwo views0.45
116
0.43
114
0.33
118
0.35
131
0.35
146
0.44
159
0.22
117
0.55
101
0.50
206
0.50
96
0.60
171
0.54
115
0.27
102
0.28
157
0.58
110
0.45
106
0.50
99
0.44
127
0.54
91
0.33
95
0.45
72
0.39
78
0.28
172
0.31
143
0.52
132
0.53
141
0.67
131
0.78
181
iRaft-Stereo_20wtwo views1.06
239
0.49
161
1.34
290
1.18
264
0.46
188
0.78
239
0.46
191
0.76
220
0.37
172
0.74
236
6.16
316
0.84
198
0.29
109
0.26
147
0.81
178
0.97
253
0.59
167
0.44
127
1.72
217
0.61
223
1.04
231
1.56
261
0.21
123
0.25
107
0.92
238
1.31
265
1.45
268
2.71
273
GMOStereotwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
error versiontwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-vtwo views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
test-2two views0.42
95
0.39
91
0.21
70
0.30
105
0.26
94
0.29
97
0.19
103
0.67
175
0.30
117
0.66
205
0.32
85
0.54
115
0.33
146
0.20
84
0.40
66
0.46
115
0.50
99
0.44
127
0.68
134
0.34
101
0.51
106
0.66
174
0.16
62
0.22
76
0.58
152
0.45
112
0.82
171
0.41
76
DMCA-RVCcopylefttwo views0.44
111
0.37
78
0.35
126
0.33
119
0.37
157
0.32
107
0.41
184
0.46
74
0.52
209
0.43
63
0.48
133
0.68
158
0.33
146
0.29
164
0.65
142
0.46
115
0.47
86
0.44
127
0.49
67
0.38
130
0.49
96
0.48
124
0.29
177
0.32
148
0.38
87
0.37
87
0.57
91
0.62
141
AF-Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
RPtwo views0.58
161
0.57
209
0.72
240
0.62
211
0.56
210
0.57
198
0.64
229
0.63
154
0.61
225
0.42
61
0.81
227
0.78
187
0.53
214
0.43
219
0.68
151
0.48
132
0.53
123
0.44
127
0.64
123
0.45
164
0.51
106
0.54
147
0.37
204
0.44
204
0.62
168
0.59
153
0.83
178
0.77
178
Nwc_Nettwo views0.53
141
0.49
161
0.44
177
0.50
179
0.53
203
0.61
207
0.54
205
0.61
133
0.55
217
0.43
63
0.66
195
0.85
199
0.42
187
0.40
203
0.64
139
0.46
115
0.46
76
0.44
127
0.60
116
0.40
148
0.45
72
0.45
108
0.41
213
0.39
186
0.50
125
0.55
147
0.81
168
0.69
160
LG-Stereo_Zeroshottwo views0.66
175
0.37
78
0.23
84
0.51
185
0.74
248
0.89
247
0.49
197
0.62
140
0.26
89
1.60
310
0.31
83
2.57
266
0.26
95
0.22
96
0.46
84
0.48
132
0.58
153
0.45
137
0.93
174
0.37
126
0.63
158
0.71
187
0.19
98
0.23
88
0.58
152
0.49
131
0.89
191
1.91
254
Reg-Stereo(zero)two views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
HItwo views0.78
210
0.47
146
0.56
209
0.39
143
0.28
109
0.41
147
0.35
168
0.75
217
0.36
163
0.62
177
6.09
313
0.78
187
0.32
140
0.27
154
0.41
72
0.63
191
0.58
153
0.45
137
1.51
207
0.42
157
0.65
166
0.62
163
0.21
123
0.32
148
0.55
143
0.78
187
1.26
247
1.09
211
MGS-Stereotwo views0.37
78
0.46
139
0.21
70
0.22
56
0.19
56
0.22
60
0.15
75
0.45
71
0.17
37
0.36
52
0.26
66
0.29
37
0.19
63
0.23
109
1.37
254
0.40
74
0.52
114
0.45
137
0.55
94
0.33
95
0.50
100
0.41
84
0.21
123
0.22
76
0.33
68
0.30
56
0.47
63
0.45
88
Any-RAFTtwo views0.69
184
0.47
146
0.85
252
0.53
191
0.40
170
0.38
137
0.27
141
0.64
161
0.32
143
0.57
140
0.76
219
0.86
203
0.24
91
0.22
96
0.57
106
0.76
223
0.60
174
0.45
137
2.19
233
0.45
164
1.20
243
0.71
187
0.22
136
0.31
143
0.99
251
1.24
256
0.73
149
1.65
245
EGLCR-Stereotwo views0.47
123
0.49
161
0.41
161
0.29
97
0.30
123
0.44
159
0.14
68
0.57
109
0.26
89
0.57
140
0.27
69
0.58
130
0.23
84
0.21
90
0.36
58
0.47
126
0.53
123
0.45
137
0.75
153
0.32
93
0.69
179
0.93
215
0.19
98
0.24
97
0.48
113
0.49
131
1.30
251
0.70
166
Sa-1000two views0.48
127
0.47
146
0.21
70
0.26
84
0.26
94
0.31
104
0.15
75
0.65
168
0.36
163
0.63
183
0.33
92
0.50
104
0.26
95
0.30
167
0.94
214
0.49
139
0.59
167
0.45
137
0.90
171
0.32
93
0.52
116
0.75
194
0.17
78
0.27
116
0.72
191
0.53
141
1.00
216
0.49
95
dadtwo views0.89
223
0.57
209
0.37
136
1.42
275
0.65
227
0.75
235
2.23
289
1.43
284
0.36
163
0.93
269
0.38
107
0.85
199
0.76
239
0.32
181
0.97
221
0.52
158
0.78
232
0.45
137
1.87
225
0.41
151
0.74
190
0.41
84
0.30
180
0.47
214
1.15
268
0.47
121
2.64
303
1.96
255
test_3two views0.56
155
0.38
86
0.36
132
0.34
121
0.33
133
0.33
114
0.21
111
0.68
182
0.29
109
0.65
195
0.33
92
0.92
208
0.35
165
0.21
90
0.60
120
0.44
95
0.56
140
0.45
137
2.68
253
0.39
143
0.55
128
1.35
246
0.15
58
0.32
148
0.51
128
0.47
121
0.67
131
0.50
104
FADNet-RVCtwo views0.58
161
0.50
176
0.37
136
0.51
185
0.42
179
0.39
139
0.56
209
0.68
182
0.36
163
0.64
190
0.50
142
1.13
232
0.45
197
0.34
186
0.91
205
0.53
160
0.54
125
0.45
137
1.20
197
0.51
179
0.54
126
0.52
142
0.33
192
0.51
222
0.57
148
0.75
180
0.64
120
0.81
184
PS-NSSStwo views0.60
169
0.81
249
0.44
177
0.89
244
0.54
206
0.71
228
0.63
227
0.64
161
0.38
177
0.64
190
0.41
118
1.52
250
0.47
202
0.41
206
0.59
114
0.42
82
0.52
114
0.45
137
0.94
177
0.42
157
0.44
68
0.29
49
0.36
199
0.34
166
0.63
172
0.69
165
0.70
141
0.80
182
raft_robusttwo views0.49
130
0.44
119
0.24
90
0.38
140
0.29
116
0.32
107
0.21
111
0.73
208
0.35
159
0.69
223
0.34
94
0.57
125
0.31
131
0.24
120
0.59
114
0.53
160
0.54
125
0.46
148
0.98
181
0.37
126
0.69
179
0.94
216
0.20
114
0.28
122
0.55
143
0.69
165
0.69
136
0.60
135
UNettwo views0.44
111
0.42
109
0.40
152
0.37
137
0.36
150
0.41
147
0.28
146
0.57
109
0.35
159
0.50
96
0.49
137
0.47
91
0.34
158
0.37
198
0.53
100
0.43
90
0.54
125
0.46
148
0.56
100
0.39
143
0.47
86
0.44
104
0.27
169
0.34
166
0.44
101
0.48
126
0.58
99
0.57
125
DeepPrunerFtwo views1.22
247
0.49
161
0.39
147
0.58
200
2.86
308
0.49
175
0.55
207
0.52
85
0.58
223
0.43
63
0.67
202
0.43
79
0.32
140
0.42
216
1.64
269
0.75
222
0.58
153
0.46
148
0.93
174
0.46
169
0.61
153
0.53
145
0.40
211
0.35
170
15.32
329
0.82
197
0.65
124
0.62
141
iResNetv2_ROBtwo views0.52
138
0.45
127
0.32
115
0.48
174
0.39
165
0.48
173
0.28
146
0.64
161
0.34
153
0.52
108
0.66
195
0.70
164
0.55
217
0.28
157
0.67
148
0.47
126
0.50
99
0.46
148
1.12
191
0.45
164
0.57
143
0.47
118
0.29
177
0.40
189
0.55
143
0.51
137
0.81
168
0.58
127
DISCOtwo views0.45
116
0.44
119
0.29
103
0.40
149
0.38
163
0.49
175
0.43
187
0.45
71
0.43
197
0.50
96
0.57
166
0.40
65
0.29
109
0.30
167
0.61
125
0.43
90
0.55
134
0.46
148
0.69
139
0.41
151
0.48
92
0.43
98
0.26
165
0.32
148
0.47
110
0.50
135
0.62
113
0.50
104
SGM-Foresttwo views0.73
191
0.71
236
0.40
152
1.13
260
0.64
226
0.74
234
0.45
189
0.68
182
0.39
180
0.61
167
0.44
124
1.16
233
1.06
248
0.49
230
0.86
193
0.61
189
0.55
134
0.46
148
0.68
134
0.44
162
0.61
153
0.49
125
0.45
219
0.44
204
0.90
235
0.86
200
1.95
286
1.47
236
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
zero-FEtwo views9.08
322
0.42
109
0.28
99
61.19
339
0.56
210
106.36
340
1.24
273
0.72
205
0.30
117
0.66
205
0.56
164
61.54
338
0.66
233
0.25
136
0.59
114
0.53
160
0.60
174
0.47
154
2.54
247
0.38
130
1.35
253
0.96
217
0.25
157
0.24
97
0.45
105
0.44
106
0.91
193
0.66
150
MSKI-zero shottwo views0.84
216
0.49
161
0.43
169
0.41
154
0.35
146
0.46
170
0.32
162
0.76
220
0.30
117
0.65
195
0.92
238
0.83
196
0.32
140
0.22
96
0.62
130
1.08
270
0.64
194
0.47
154
3.14
265
0.61
223
2.23
277
1.58
262
0.20
114
0.38
184
0.96
246
1.47
274
1.24
245
1.60
241
CFNet_pseudotwo views0.51
134
0.44
119
0.43
169
0.54
193
0.43
182
0.53
188
0.34
166
0.62
140
0.36
163
0.61
167
0.64
187
0.57
125
0.52
212
0.35
192
0.90
204
0.50
143
0.50
99
0.47
154
0.67
132
0.36
120
0.47
86
0.42
91
0.26
165
0.33
162
0.57
148
0.60
156
0.68
133
0.73
172
ARAFTtwo views0.34
73
0.38
86
0.23
84
0.26
84
0.21
66
0.27
87
0.14
68
0.44
65
0.24
73
0.50
96
0.30
80
0.41
72
0.16
49
0.15
51
0.67
148
0.42
82
0.50
99
0.47
154
0.51
72
0.23
51
0.53
123
0.32
55
0.16
62
0.19
55
0.43
99
0.30
56
0.52
81
0.37
64
CFNet_RVCtwo views0.51
134
0.51
181
0.47
186
0.50
179
0.48
194
0.48
173
0.32
162
0.53
89
0.37
172
0.51
101
0.65
192
0.57
125
0.34
158
0.30
167
0.69
153
0.44
95
0.52
114
0.47
154
0.57
104
0.42
157
0.56
133
0.49
125
0.27
169
0.35
170
0.65
177
0.74
176
0.80
165
0.75
175
HSMtwo views0.54
146
0.49
161
0.47
186
0.48
174
0.47
191
0.41
147
0.37
174
0.71
198
0.37
172
0.61
167
0.65
192
0.59
135
0.48
205
0.31
174
0.70
158
0.48
132
0.64
194
0.47
154
0.75
153
0.48
175
0.63
158
0.49
125
0.26
165
0.42
195
0.62
168
0.72
173
0.87
189
0.67
154
IGEV_Zeroshot_testtwo views0.95
229
0.47
146
1.24
283
1.15
262
0.46
188
0.60
204
0.65
234
0.81
236
0.36
163
0.66
205
1.86
282
0.94
209
0.30
119
0.26
147
0.66
143
1.14
277
0.60
174
0.48
160
2.56
248
0.63
231
2.23
277
2.36
281
0.21
123
0.37
182
1.00
254
1.03
238
1.17
236
1.48
238
IPLGtwo views0.47
123
0.45
127
0.32
115
0.28
92
0.27
104
0.32
107
0.21
111
0.63
154
0.22
57
0.51
101
0.38
107
0.56
123
0.29
109
0.31
174
1.64
269
0.44
95
0.56
140
0.48
160
0.56
100
0.41
151
0.45
72
0.75
194
0.18
90
0.28
122
0.45
105
0.59
153
0.65
124
0.51
106
TRStereotwo views0.75
197
0.83
254
1.19
278
0.56
197
0.34
142
1.42
277
0.48
194
0.68
182
0.28
102
0.65
195
0.46
131
1.10
229
0.27
102
0.22
96
0.70
158
0.85
236
0.57
149
0.48
160
1.85
224
0.50
176
0.73
188
0.87
210
0.18
90
0.27
116
0.78
212
1.22
255
1.78
282
1.09
211
cross-rafttwo views0.73
191
0.56
204
0.46
182
0.43
163
0.33
133
0.40
145
0.27
141
0.73
208
0.33
148
0.65
195
0.60
171
0.74
174
0.30
119
0.23
109
0.76
168
0.96
251
0.63
191
0.48
160
2.91
260
0.59
209
1.81
271
1.31
245
0.22
136
0.32
148
0.82
223
0.94
216
0.93
197
1.01
205
ADCP+two views0.92
224
0.59
211
0.62
222
0.44
168
0.45
185
0.55
194
0.85
250
0.65
168
1.81
292
0.48
85
1.10
253
1.62
254
0.33
146
0.42
216
1.03
230
0.52
158
0.52
114
0.48
160
1.19
195
0.38
130
0.58
147
0.60
157
0.32
190
0.30
135
0.66
178
3.45
314
0.77
158
4.14
294
MDST_ROBtwo views3.33
297
2.32
295
0.75
243
3.90
307
1.47
287
2.61
291
1.00
264
1.12
272
0.72
235
0.78
249
0.67
202
1.54
251
25.37
324
0.34
186
2.11
292
0.53
160
0.65
198
0.48
160
3.69
268
0.58
205
0.88
207
0.59
153
0.58
254
0.68
247
7.85
324
3.03
308
17.15
329
8.63
314
DLCB_ROBtwo views0.53
141
0.50
176
0.48
189
0.41
154
0.45
185
0.43
156
0.39
180
0.55
101
0.45
198
0.57
140
0.61
178
0.70
164
0.52
212
0.41
206
0.60
120
0.47
126
0.57
149
0.48
160
0.52
77
0.43
161
0.55
128
0.47
118
0.38
206
0.42
195
0.96
246
0.79
191
0.70
141
0.62
141
LMCR-Stereopermissivemany views0.50
131
0.46
139
0.33
118
0.32
113
0.33
133
0.42
153
0.24
130
0.57
109
0.37
172
0.55
127
0.46
131
0.65
153
0.40
183
0.26
147
0.69
153
0.49
139
0.62
186
0.49
167
1.11
190
0.57
202
0.66
169
0.64
169
0.25
157
0.32
148
0.48
113
0.49
131
0.63
116
0.65
149
RALCasStereoNettwo views0.42
95
0.50
176
0.35
126
0.35
131
0.30
123
0.31
104
0.24
130
0.60
126
0.25
79
0.56
136
0.49
137
0.58
130
0.26
95
0.18
66
0.57
106
0.46
115
0.54
125
0.49
167
0.51
72
0.34
101
0.51
106
0.41
84
0.21
123
0.31
143
0.53
135
0.49
131
0.48
66
0.58
127
EAI-Stereotwo views0.75
197
0.49
161
0.50
195
0.51
185
0.46
188
0.56
197
0.60
218
0.73
208
0.32
143
0.63
183
0.72
212
0.82
192
0.26
95
0.24
120
1.05
231
0.96
251
0.60
174
0.49
167
3.00
261
0.62
227
0.82
200
1.13
232
0.19
98
0.31
143
0.78
212
0.70
169
1.55
272
1.17
223
psm_uptwo views0.56
155
0.51
181
0.53
202
0.56
197
0.45
185
0.58
201
0.35
168
0.71
198
0.66
232
0.55
127
0.53
155
0.59
135
0.50
207
0.40
203
0.63
133
0.50
143
0.59
167
0.49
167
0.84
166
0.46
169
0.51
106
0.45
108
0.31
185
0.51
222
0.70
185
0.78
187
0.80
165
0.67
154
DSFCAtwo views0.45
116
0.50
176
0.40
152
0.40
149
0.37
157
0.44
159
0.34
166
0.46
74
0.39
180
0.40
58
0.57
166
0.49
98
0.29
109
0.24
120
0.61
125
0.44
95
0.49
94
0.49
167
0.64
123
0.39
143
0.50
100
0.51
137
0.33
192
0.35
170
0.49
121
0.50
135
0.57
91
0.58
127
iResNet_ROBtwo views0.50
131
0.49
161
0.42
164
0.42
158
0.30
123
0.42
153
0.32
162
0.60
126
0.33
148
0.52
108
0.59
169
0.47
91
0.56
219
0.25
136
0.81
178
0.46
115
0.57
149
0.49
167
1.19
195
0.36
120
0.48
92
0.36
65
0.25
157
0.37
182
0.57
148
0.54
144
0.75
153
0.61
137
RAFT-Testtwo views0.72
190
0.50
176
0.46
182
0.52
188
0.34
142
0.41
147
0.29
153
0.73
208
0.30
117
0.62
177
0.72
212
0.68
158
0.31
131
0.22
96
0.71
162
1.03
265
0.62
186
0.50
173
2.89
259
0.66
235
1.72
265
1.14
234
0.23
146
0.29
127
0.80
219
0.96
220
0.95
201
0.91
195
MIPNettwo views0.51
134
0.51
181
0.33
118
0.32
113
0.30
123
0.37
132
0.25
135
0.62
140
0.24
73
0.50
96
0.52
151
0.61
140
0.41
186
0.30
167
1.01
229
0.51
150
0.59
167
0.50
173
0.76
156
0.47
173
0.44
68
0.85
207
0.20
114
0.26
113
0.66
178
0.98
226
0.71
145
0.61
137
rafts_anoytwo views0.41
90
0.51
181
0.35
126
0.29
97
0.30
123
0.33
114
0.22
117
0.59
120
0.25
79
0.51
101
0.50
142
0.48
94
0.23
84
0.17
63
0.57
106
0.46
115
0.51
110
0.50
173
0.58
108
0.34
101
0.50
100
0.43
98
0.19
98
0.28
122
0.50
125
0.47
121
0.52
81
0.53
112
RALAANettwo views0.41
90
0.41
102
0.37
136
0.28
92
0.28
109
0.33
114
0.24
130
0.54
94
0.27
95
0.48
85
0.48
133
0.43
79
0.25
92
0.20
84
0.57
106
0.41
78
0.49
94
0.50
173
0.71
142
0.40
148
0.52
116
0.46
113
0.21
123
0.29
127
0.46
108
0.45
112
0.70
141
0.47
91
HGLStereotwo views0.43
108
0.43
114
0.37
136
0.34
121
0.37
157
0.39
139
0.23
127
0.48
78
0.31
135
0.47
79
0.72
212
0.42
74
0.29
109
0.32
181
0.51
96
0.49
139
0.55
134
0.50
173
0.55
94
0.39
143
0.51
106
0.43
98
0.22
136
0.33
162
0.51
128
0.51
137
0.57
91
0.45
88
MSMDNettwo views0.73
191
0.52
190
0.48
189
0.35
131
0.34
142
0.45
164
0.33
165
0.69
189
0.30
117
0.63
183
0.60
171
0.71
166
0.35
165
0.23
109
0.78
169
1.05
267
0.63
191
0.50
173
2.88
258
0.81
257
1.59
260
1.80
272
0.23
146
0.29
127
0.74
198
0.89
207
0.85
182
0.76
177
UCFNet_RVCtwo views0.56
155
0.78
243
0.45
181
0.59
203
0.55
209
0.52
185
0.39
180
0.58
113
0.40
182
0.59
157
0.60
171
0.82
192
0.45
197
0.32
181
0.70
158
0.42
82
0.50
99
0.50
173
0.67
132
0.45
164
0.56
133
0.47
118
0.38
206
0.41
192
0.77
210
0.71
170
0.65
124
0.86
190
UDGNettwo views0.67
178
0.66
228
0.42
164
1.35
272
1.02
267
1.21
268
0.91
256
0.60
126
0.41
186
0.52
108
0.60
171
0.56
123
0.23
84
1.19
289
0.66
143
0.45
106
0.56
140
0.51
180
0.73
146
0.53
182
0.64
165
0.67
179
0.79
267
0.29
127
0.72
191
0.55
147
0.63
116
0.66
150
ICVPtwo views0.58
161
0.49
161
0.67
235
0.50
179
0.48
194
0.52
185
0.36
172
0.60
126
0.45
198
0.61
167
0.58
168
0.61
140
0.56
219
0.30
167
0.67
148
0.64
197
0.58
153
0.51
180
0.72
145
0.51
179
0.58
147
0.74
193
0.59
255
0.47
214
0.60
162
0.75
180
0.74
151
0.72
169
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
pcwnet_v2two views0.62
170
0.46
139
0.50
195
0.62
211
0.49
197
0.61
207
0.46
191
0.66
172
0.45
198
0.65
195
0.79
222
0.64
150
0.86
244
0.53
243
1.15
243
0.55
170
0.59
167
0.51
180
0.83
163
0.41
151
0.55
128
0.47
118
0.34
194
0.43
198
0.75
203
0.76
183
0.85
182
0.95
197
STTStereotwo views0.53
141
0.56
204
0.54
205
0.44
168
0.52
202
0.43
156
0.59
214
0.52
85
0.46
202
0.47
79
0.55
163
0.71
166
0.42
187
0.56
248
0.87
199
0.44
95
0.49
94
0.51
180
0.54
91
0.37
126
0.51
106
0.40
81
0.32
190
0.35
170
0.52
132
0.66
163
0.68
133
0.99
203
stereogantwo views0.67
178
0.67
230
0.62
222
0.68
224
0.73
244
0.75
235
0.64
229
0.70
195
0.57
220
0.51
101
0.64
187
1.08
226
0.62
227
0.44
222
0.83
183
0.55
170
0.56
140
0.51
180
0.91
172
0.59
209
0.59
151
0.69
184
0.47
222
0.46
211
0.59
159
0.67
164
1.16
234
0.87
192
R-Stereo Traintwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
RAFT-Stereopermissivetwo views0.66
175
0.55
199
0.43
169
0.48
174
0.36
150
0.50
179
0.18
92
0.62
140
0.31
135
0.68
215
0.62
183
0.72
168
0.34
158
0.25
136
0.69
153
0.89
239
0.66
201
0.51
180
2.12
231
0.46
169
0.94
219
1.49
257
0.22
136
0.36
177
0.71
188
0.96
220
0.77
158
1.10
215
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AE-Stereotwo views0.54
146
0.48
158
0.44
177
0.50
179
0.35
146
0.36
130
0.28
146
0.55
101
0.29
109
0.64
190
0.31
83
0.89
205
0.31
131
0.24
120
0.55
101
0.65
203
0.68
209
0.52
187
0.87
168
0.53
182
0.72
185
0.81
204
0.21
123
0.47
214
0.79
215
0.69
165
0.94
199
0.62
141
GANet-ADLtwo views0.70
187
0.59
211
0.52
200
0.60
206
0.57
213
0.61
207
0.46
191
0.68
182
0.52
209
0.65
195
0.67
202
0.76
183
0.43
191
0.39
200
1.08
236
0.79
231
0.68
209
0.52
187
1.84
223
0.64
232
0.66
169
0.86
209
0.42
216
0.43
198
0.70
185
0.87
203
0.97
207
0.89
194
XX-Stereotwo views9.49
323
0.38
86
0.36
132
0.63
213
0.28
109
0.54
192
0.28
146
0.69
189
0.28
102
0.69
223
6.24
317
1.00
215
0.29
109
0.23
109
0.70
158
1.08
270
0.60
174
0.52
187
1.58
212
0.53
182
0.76
192
0.65
171
0.18
90
0.26
113
233.61
340
0.88
205
1.01
217
1.90
253
MLCVtwo views0.70
187
0.49
161
0.53
202
0.73
230
0.50
198
0.65
217
0.43
187
0.81
236
0.41
186
0.71
229
0.88
234
1.01
218
0.81
241
0.28
157
0.92
208
0.43
90
0.65
198
0.52
187
2.47
246
0.45
164
0.55
128
0.72
191
0.39
210
0.54
227
0.69
182
0.80
192
0.83
178
0.72
169
gcap-zeroshottwo views1.75
267
0.44
119
0.89
256
0.59
203
0.36
150
0.55
194
0.29
153
0.74
213
0.29
109
0.74
236
0.76
219
1.18
235
0.33
146
0.24
120
0.78
169
0.97
253
0.61
180
0.53
191
29.80
323
0.80
253
1.04
231
1.45
253
0.23
146
0.34
166
0.75
203
0.99
228
0.96
204
0.75
175
MyStereo04two views0.68
183
0.52
190
0.57
211
0.44
168
0.37
157
0.35
127
0.26
139
0.68
182
0.45
198
0.62
177
0.45
127
0.68
158
0.34
158
0.25
136
1.00
226
0.68
209
0.56
140
0.53
191
3.39
267
0.56
197
0.92
212
0.64
169
0.27
169
0.41
192
0.77
210
0.92
212
0.96
204
0.66
150
HHtwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
HanStereotwo views0.84
216
0.34
62
0.99
263
0.42
158
0.36
150
0.51
182
0.42
185
0.69
189
0.34
153
0.65
195
0.38
107
1.03
220
0.26
95
0.28
157
0.66
143
1.37
294
0.61
180
0.53
191
2.39
242
0.60
214
3.55
303
1.64
264
0.25
157
0.33
162
0.83
225
1.05
239
1.09
225
1.12
218
FADNettwo views0.65
174
0.55
199
0.41
161
0.53
191
0.42
179
0.49
175
0.65
234
0.74
213
0.42
193
0.66
205
0.64
187
0.81
190
0.50
207
0.36
194
1.17
245
0.51
150
0.51
110
0.53
191
1.61
215
0.53
182
0.69
179
0.59
153
0.35
198
0.41
192
0.72
191
0.88
205
0.78
163
1.06
209
HSM-Net_RVCpermissivetwo views0.75
197
0.53
196
0.60
219
0.77
235
0.62
225
0.61
207
0.37
174
0.76
220
0.49
205
0.74
236
1.71
278
1.32
241
0.80
240
0.36
194
0.72
165
0.55
170
0.64
194
0.53
191
0.78
158
0.53
182
0.67
173
0.89
213
0.43
217
0.64
243
0.94
242
1.09
242
1.07
222
1.04
208
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
model_zeroshottwo views0.80
215
0.46
139
0.42
164
0.42
158
0.39
165
0.43
156
0.27
141
0.72
205
0.36
163
0.64
190
0.66
195
0.97
213
0.29
109
0.24
120
1.05
231
0.92
243
0.69
215
0.54
197
3.03
262
0.73
248
1.21
244
1.20
239
0.22
136
0.38
184
0.84
229
1.14
248
1.08
223
2.21
262
AACVNettwo views0.55
148
0.47
146
0.40
152
0.58
200
0.61
219
0.53
188
0.37
174
0.61
133
0.40
182
0.59
157
0.64
187
0.58
130
0.33
146
0.36
194
0.69
153
0.54
168
0.58
153
0.54
197
0.69
139
0.52
181
0.54
126
0.52
142
0.36
199
0.44
204
0.59
159
0.69
165
0.82
171
0.83
186
PSMNet-ADLtwo views0.96
232
0.62
221
0.66
232
0.67
221
0.70
241
0.66
220
0.58
213
0.74
213
0.60
224
0.85
263
5.03
306
0.95
212
1.26
259
0.45
224
0.89
202
1.03
265
0.68
209
0.54
197
2.03
229
0.68
241
0.84
204
0.79
203
0.54
248
0.47
214
0.73
196
0.95
217
1.32
253
0.63
145
PA-Nettwo views0.64
173
0.67
230
0.66
232
0.50
179
0.66
232
0.50
179
0.64
229
0.65
168
0.73
236
0.54
120
0.52
151
0.58
130
0.58
225
0.59
258
0.93
210
0.57
176
0.46
76
0.54
197
0.61
120
0.54
188
0.49
96
0.66
174
0.36
199
0.52
224
0.64
175
1.24
256
0.64
120
1.32
231
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
SGM-ForestMtwo views2.61
282
4.20
319
0.93
258
2.78
291
1.37
284
3.57
301
2.93
296
2.59
312
1.51
287
0.70
226
1.32
263
7.25
308
5.36
300
0.47
227
0.89
202
0.53
160
0.79
236
0.54
197
7.58
291
0.60
214
0.82
200
0.47
118
0.51
241
0.80
264
4.97
316
3.66
315
7.05
324
6.30
306
NaN_ROBtwo views0.73
191
0.59
211
0.61
221
0.64
215
0.78
252
0.53
188
0.48
194
0.87
244
0.63
228
0.73
235
0.61
178
1.96
260
0.62
227
0.45
224
0.84
187
0.55
170
0.56
140
0.54
197
0.73
146
0.55
193
0.52
116
0.51
137
0.38
206
0.64
243
0.83
225
1.11
245
0.94
199
1.64
244
GEStwo views0.59
167
0.52
190
0.37
136
0.39
143
0.40
170
0.53
188
0.37
174
0.59
120
0.40
182
0.56
136
0.60
171
0.50
104
0.30
119
0.41
206
0.98
222
0.63
191
0.67
207
0.55
203
2.28
236
0.56
197
0.70
182
0.56
152
0.31
185
0.42
195
0.48
113
0.48
126
0.65
124
0.68
158
NVstereo2Dtwo views0.55
148
0.47
146
0.40
152
0.52
188
0.48
194
0.66
220
0.64
229
0.60
126
0.38
177
0.48
85
0.61
178
0.53
113
0.30
119
0.63
261
1.53
263
0.61
189
0.58
153
0.55
203
0.53
85
0.41
151
0.50
100
0.38
71
0.54
248
0.43
198
0.64
175
0.48
126
0.56
89
0.53
112
CASStwo views0.79
212
0.55
199
0.53
202
0.65
218
0.54
206
0.59
202
0.53
202
0.78
228
0.52
209
0.71
229
0.75
218
0.67
156
0.47
202
0.28
157
0.83
183
0.67
206
0.98
262
0.56
205
1.60
214
0.58
205
2.74
285
1.44
251
0.38
206
0.35
170
0.84
229
0.81
194
0.90
192
1.02
206
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
IPLGRtwo views0.57
159
0.55
199
0.37
136
0.43
163
0.38
163
0.36
130
0.23
127
0.62
140
0.30
117
0.56
136
0.68
205
0.61
140
0.32
140
0.29
164
1.73
275
0.47
126
0.56
140
0.56
205
1.09
186
0.54
188
0.53
123
0.81
204
0.20
114
0.32
148
0.71
188
0.97
225
0.73
149
0.57
125
GwcNet-ADLtwo views0.97
234
0.83
254
0.81
248
0.91
247
0.68
233
0.70
226
0.53
202
0.77
225
0.50
206
0.72
232
5.46
309
1.20
236
0.65
232
0.46
226
0.81
178
0.95
248
0.72
225
0.56
205
1.26
199
0.71
246
0.67
173
0.78
201
0.59
255
0.56
230
0.79
215
0.98
226
0.85
182
1.75
249
RGCtwo views0.76
201
0.72
237
0.99
263
0.70
225
0.71
242
0.76
238
0.57
212
0.74
213
0.74
239
0.56
136
0.96
242
0.83
196
0.85
243
0.56
248
0.93
210
0.60
186
0.62
186
0.56
205
0.93
174
0.61
223
0.66
169
0.71
187
0.51
241
0.56
230
0.81
220
1.01
233
0.99
211
1.19
225
PWCDC_ROBbinarytwo views0.67
178
0.35
72
0.39
147
0.29
97
0.43
182
0.34
121
0.36
172
0.43
63
1.25
275
0.27
42
0.72
212
0.44
82
2.38
282
0.57
253
1.11
239
0.76
223
0.56
140
0.56
205
0.64
123
0.55
193
0.63
158
2.08
276
0.46
221
0.40
189
0.36
80
0.63
157
0.51
70
0.67
154
SACVNettwo views0.62
170
0.53
196
0.51
199
0.55
196
0.57
213
0.52
185
0.60
218
0.69
189
0.56
219
0.67
213
0.54
161
0.59
135
0.37
174
0.41
206
0.71
162
0.60
186
0.64
194
0.57
210
0.95
178
0.64
232
0.67
173
0.78
201
0.36
199
0.47
214
0.75
203
0.77
186
0.84
180
0.84
187
ADCLtwo views1.27
249
0.82
252
0.64
228
0.60
206
0.53
203
0.73
230
0.91
256
0.75
217
2.78
311
0.68
215
1.01
246
0.86
203
0.50
207
0.50
234
1.27
249
0.64
197
0.66
201
0.57
210
1.20
197
0.60
214
0.98
227
0.88
211
0.50
233
0.47
214
1.60
288
1.50
279
0.88
190
11.30
318
NCCL2two views0.69
184
0.73
239
0.66
232
0.57
199
0.56
210
0.51
182
0.45
189
0.70
195
0.57
220
0.68
215
0.71
207
0.66
154
0.48
205
0.39
200
0.93
210
0.72
216
0.65
198
0.57
210
0.76
156
0.57
202
0.74
190
0.88
211
0.49
229
0.60
237
0.98
248
0.95
217
0.85
182
1.16
222
XPNet_ROBtwo views0.74
196
0.77
241
0.57
211
0.54
193
0.61
219
0.63
213
0.61
223
0.53
89
0.65
230
0.58
152
0.81
227
2.35
265
0.46
200
0.43
219
0.79
173
0.63
191
0.85
244
0.57
210
0.83
163
0.55
193
0.72
185
1.09
228
0.45
219
0.49
221
0.63
172
0.74
176
1.39
260
0.86
190
SGM_RVCbinarytwo views2.81
288
1.46
286
0.85
252
1.76
283
1.28
279
1.68
285
1.19
271
1.56
289
1.14
271
0.82
258
1.70
277
7.09
307
2.67
288
0.42
216
0.92
208
0.57
176
0.75
229
0.57
210
11.20
307
0.66
235
0.94
219
0.46
113
0.51
241
0.84
267
1.97
296
1.64
283
5.04
320
26.13
328
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
test-1two views0.84
216
0.34
62
0.50
195
0.37
137
0.40
170
0.60
204
0.37
174
0.73
208
0.38
177
0.68
215
0.71
207
1.08
226
0.40
183
0.25
136
0.79
173
0.91
242
0.63
191
0.58
215
2.22
235
0.58
205
1.17
242
3.78
300
0.22
136
0.36
177
0.81
220
1.15
249
1.10
228
1.59
240
MFN_U_SF_DS_RVCtwo views1.33
250
0.90
261
0.63
226
1.27
269
0.90
258
1.21
268
2.21
287
1.27
273
1.18
273
1.00
277
0.91
237
1.80
259
1.16
255
1.07
288
1.48
261
0.77
225
0.70
217
0.58
215
2.75
256
0.67
239
1.39
254
2.93
289
0.85
274
0.73
253
1.47
283
1.68
284
1.33
254
2.96
278
BEATNet_4xtwo views0.53
141
0.40
98
0.34
124
0.39
143
0.36
150
0.32
107
0.27
141
0.64
161
0.41
186
0.66
205
0.45
127
0.62
148
0.39
180
0.24
120
0.83
183
0.63
191
0.58
153
0.58
215
0.57
104
0.36
120
0.90
211
1.52
260
0.25
157
0.36
177
0.46
108
0.44
106
0.77
158
0.60
135
RTSCtwo views0.73
191
0.49
161
0.46
182
0.47
173
0.51
201
0.55
194
0.56
209
0.67
175
0.68
233
0.54
120
0.79
222
0.57
125
0.57
223
0.41
206
1.92
283
0.77
225
0.96
261
0.58
215
1.36
203
0.56
197
0.85
206
1.11
229
0.31
185
0.53
226
0.58
152
0.65
162
0.95
201
1.26
229
CBMV_ROBtwo views1.71
266
0.79
245
0.65
231
1.35
272
1.07
270
1.01
253
0.74
243
1.01
262
0.54
213
0.72
232
0.81
227
9.80
319
5.90
302
0.57
253
1.42
256
0.69
210
0.80
237
0.58
215
5.38
279
1.22
287
0.95
222
0.55
151
0.53
244
0.62
240
1.22
269
1.45
273
2.72
305
2.94
277
ADCReftwo views1.01
236
0.65
225
0.48
189
0.39
143
0.47
191
0.65
217
0.68
238
0.61
133
1.08
268
0.52
108
0.64
187
0.75
175
0.43
191
0.38
199
1.56
265
0.72
216
0.61
180
0.59
220
1.53
210
0.58
205
0.66
169
0.71
187
0.50
233
0.43
198
0.75
203
1.25
259
0.82
171
8.96
315
DeepPruner_ROBtwo views0.59
167
0.44
119
0.54
205
0.52
188
0.54
206
0.49
175
0.37
174
0.61
133
0.46
202
0.60
163
0.70
206
0.61
140
0.51
211
0.32
181
1.06
233
0.58
181
0.62
186
0.59
220
0.66
129
0.47
173
0.97
226
0.72
191
0.36
199
0.44
204
0.61
163
1.00
230
0.72
146
0.58
127
LE_ROBtwo views17.44
326
1.82
288
6.12
328
9.40
317
53.85
340
8.01
328
46.26
336
11.27
332
28.12
333
1.80
315
7.03
322
38.62
332
49.53
334
0.34
186
1.76
278
0.55
170
0.78
232
0.59
220
36.68
328
6.72
326
2.92
290
0.85
207
29.06
335
12.10
333
26.35
330
25.49
333
27.84
334
37.03
335
DCVSM-stereotwo views1.13
243
0.66
228
0.79
246
0.89
244
0.65
227
1.15
264
0.73
241
0.95
251
0.82
248
1.04
279
4.18
300
3.75
288
1.45
264
0.49
230
0.83
183
0.86
237
0.69
215
0.60
223
2.08
230
0.87
262
1.06
235
0.77
199
0.84
272
0.72
252
0.74
198
0.89
207
0.98
210
1.09
211
AIO-Stereo-zeroshot1permissivetwo views5.67
309
0.56
204
1.25
284
0.75
231
0.69
235
1.17
265
0.81
246
0.82
238
0.80
244
0.81
255
4.78
303
1.00
215
0.37
174
0.27
154
1.13
241
1.54
303
0.70
217
0.60
223
124.50
338
0.54
188
1.43
255
2.64
285
0.22
136
0.36
177
0.91
236
1.13
247
1.13
230
2.18
260
FADNet-RVC-Resampletwo views0.57
159
0.52
190
0.42
164
0.46
171
0.39
165
0.41
147
0.40
182
0.72
205
0.42
193
0.68
215
0.51
148
1.04
224
0.43
191
0.43
219
0.96
219
0.48
132
0.56
140
0.61
225
0.85
167
0.55
193
0.52
116
0.63
165
0.34
194
0.60
237
0.58
152
0.71
170
0.55
87
0.77
178
STStereotwo views5.29
306
2.47
296
5.20
325
5.20
312
2.80
307
4.72
315
3.42
301
6.23
327
6.52
321
1.51
304
7.61
323
9.53
316
14.86
319
0.63
261
4.09
317
0.64
197
0.87
246
0.62
226
36.67
327
1.02
273
1.23
245
1.05
226
0.78
266
1.63
307
3.46
310
2.43
300
3.53
311
14.15
321
sCroCo_RVCtwo views0.58
161
0.42
109
0.29
103
0.28
92
0.29
116
0.39
139
0.22
117
0.60
126
0.41
186
0.53
119
0.43
121
0.48
94
0.50
207
0.24
120
0.75
167
0.99
260
0.75
229
0.63
227
1.02
183
0.56
197
1.10
238
1.36
247
0.28
172
0.39
186
0.63
172
0.63
157
0.93
197
0.64
147
CC-Net-ROBtwo views0.96
232
1.18
279
0.70
238
1.56
279
1.06
269
1.63
283
1.20
272
0.79
229
0.61
225
0.81
255
0.56
164
3.07
277
0.57
223
0.85
279
0.68
151
0.44
95
0.71
223
0.63
227
1.40
204
0.57
202
0.58
147
0.43
98
1.91
297
0.46
211
0.83
225
0.83
198
0.77
158
1.20
226
GANetREF_RVCpermissivetwo views0.77
209
0.74
240
0.68
237
0.76
234
0.65
227
0.69
225
0.60
218
0.99
258
0.73
236
0.93
269
0.52
151
1.33
242
0.72
237
0.44
222
0.85
191
0.57
176
0.67
207
0.63
227
1.13
192
0.61
223
0.77
193
0.63
165
0.59
255
0.71
249
0.89
234
0.90
209
1.15
231
0.99
203
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ETE_ROBtwo views0.87
221
0.90
261
0.58
213
0.67
221
0.69
235
0.85
242
0.60
218
0.66
172
0.89
255
0.64
190
1.09
251
2.63
269
0.54
215
0.54
244
1.00
226
0.72
216
0.91
254
0.63
227
0.99
182
0.66
235
0.88
207
1.08
227
0.50
233
0.59
235
0.78
212
0.92
212
1.48
270
1.17
223
APVNettwo views0.56
155
0.47
146
0.38
145
0.46
171
0.50
198
0.57
198
0.53
202
0.60
126
0.42
193
0.46
75
0.65
192
0.50
104
0.30
119
0.36
194
0.74
166
0.71
215
0.71
223
0.64
231
0.95
178
0.53
182
0.57
143
0.77
199
0.34
194
0.46
211
0.59
159
0.46
119
0.82
171
0.58
127
SFCPSMtwo views3.03
292
0.82
252
0.63
226
0.77
235
0.69
235
0.72
229
0.63
227
0.83
239
0.98
265
0.71
229
2.00
284
2.57
266
3.49
290
0.56
248
1.16
244
0.93
247
0.74
227
0.64
231
54.48
335
1.19
286
0.88
207
0.91
214
0.55
250
0.55
229
0.94
242
0.93
215
1.11
229
1.39
233
NCC-stereotwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Abc-Nettwo views0.67
178
0.63
222
0.59
214
0.64
215
0.65
227
0.63
213
0.69
239
0.67
175
0.74
239
0.43
63
0.81
227
0.82
192
0.70
235
0.47
227
0.82
181
0.53
160
0.58
153
0.64
231
0.80
160
0.54
188
0.56
133
0.60
157
0.53
244
0.45
209
0.75
203
0.96
220
0.92
195
0.98
201
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
DDVStwo views2.32
276
0.70
234
0.82
250
0.70
225
0.74
248
0.73
230
0.59
214
1.09
270
0.88
252
0.80
253
34.26
334
3.93
290
1.16
255
0.52
240
1.09
238
1.35
291
0.73
226
0.65
235
1.95
227
0.95
266
1.67
264
2.27
280
0.48
227
0.56
230
0.69
182
0.84
199
1.21
240
1.35
232
FBW_ROBtwo views1.34
251
1.42
285
1.08
274
2.01
285
1.42
285
1.37
276
1.63
280
0.99
258
0.70
234
0.72
232
1.02
247
2.05
263
0.91
246
1.47
294
1.24
248
0.60
186
0.88
250
0.65
235
6.08
285
0.59
209
1.06
235
0.81
204
1.48
294
1.12
287
0.99
251
1.20
252
0.99
211
1.66
246
ccs_robtwo views1.25
248
0.79
245
0.64
228
0.86
241
0.60
218
0.89
247
0.83
249
0.99
258
0.51
208
0.77
245
6.27
318
5.90
300
1.10
252
0.51
236
1.08
236
1.10
273
0.68
209
0.66
237
1.15
193
0.70
245
1.56
258
1.66
266
0.50
233
0.54
227
0.69
182
0.78
187
0.86
187
1.20
226
CSANtwo views0.93
227
0.83
254
0.75
243
0.86
241
0.82
253
0.73
230
0.61
223
0.97
257
0.94
262
0.94
273
0.73
217
1.96
260
1.56
267
0.49
230
0.98
222
0.63
191
0.74
227
0.66
237
1.09
186
0.71
246
0.78
194
0.63
165
0.53
244
0.76
258
0.98
248
1.49
278
1.21
240
1.63
243
ITSA-stereotwo views1.12
242
0.72
237
0.59
214
1.20
266
0.84
255
0.64
216
0.64
229
0.95
251
0.78
242
0.84
261
2.54
289
1.39
244
1.23
257
0.81
276
1.20
246
1.01
262
0.83
242
0.67
239
1.56
211
0.62
227
1.08
237
1.46
254
0.56
252
0.71
249
0.95
244
1.27
261
0.99
211
4.08
293
HBP-ISPtwo views1.60
260
0.86
260
0.90
257
0.98
253
0.69
235
0.85
242
0.56
209
0.89
248
0.48
204
0.82
258
0.79
222
0.97
213
0.36
170
0.69
268
11.97
327
5.83
323
0.70
217
0.67
239
0.70
141
0.62
227
1.05
233
5.90
316
0.50
233
0.62
240
0.82
223
1.01
233
2.01
288
1.06
209
sAnonymous2two views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
CroCo_RVCtwo views0.58
161
0.41
102
0.31
112
0.29
97
0.29
116
0.45
164
0.29
153
0.71
198
0.41
186
0.48
85
0.53
155
0.51
109
0.43
191
0.23
109
0.86
193
0.84
234
0.70
217
0.67
239
1.34
200
0.60
214
0.83
202
0.98
219
0.30
180
0.35
170
0.62
168
0.72
173
0.72
146
0.73
172
XQCtwo views1.03
238
0.90
261
0.71
239
0.91
247
0.92
259
0.92
249
0.86
252
1.06
268
0.90
256
0.84
261
1.11
256
1.03
220
1.30
263
0.71
270
2.04
286
0.95
248
0.87
246
0.67
239
1.64
216
0.78
251
1.00
228
1.67
267
0.62
258
0.73
253
1.09
263
1.47
274
1.26
247
0.97
200
iResNettwo views0.92
224
0.56
204
0.62
222
0.72
228
0.68
233
0.96
250
0.55
207
0.95
251
0.57
220
0.67
213
0.82
232
1.41
245
1.51
266
0.31
174
1.49
262
0.66
205
0.75
229
0.67
239
4.08
273
0.68
241
0.72
185
0.63
165
0.41
213
0.83
265
0.72
191
0.91
211
1.02
218
0.87
192
FC-DCNN v2copylefttwo views0.94
228
0.98
269
1.28
287
1.47
278
0.95
262
1.33
274
0.82
247
1.05
265
0.80
244
0.87
265
0.66
195
1.11
231
0.67
234
0.56
248
0.91
205
0.69
210
0.81
240
0.68
245
0.83
163
0.59
209
0.78
194
0.59
153
0.50
233
0.78
263
1.25
275
1.09
242
1.35
256
1.89
251
FC-DCNNcopylefttwo views0.88
222
0.96
266
1.23
282
1.36
274
0.93
260
1.26
272
0.82
247
0.91
249
0.78
242
0.87
265
0.63
186
1.08
226
0.42
187
0.56
248
0.88
201
0.69
210
0.81
240
0.68
245
0.81
162
0.59
209
0.78
194
0.59
153
0.50
233
0.77
261
1.11
264
0.99
228
1.21
240
1.57
239
PDISCO_ROBtwo views0.48
127
0.40
98
0.39
147
0.38
140
0.34
142
0.39
139
0.28
146
0.50
81
0.35
159
0.37
55
0.52
151
0.49
98
0.35
165
0.31
174
0.63
133
0.58
181
0.54
125
0.68
245
0.59
109
0.44
162
0.62
155
0.67
179
0.24
154
0.34
166
0.54
139
0.53
141
0.85
182
0.58
127
NOSS_ROBtwo views0.76
201
0.84
258
0.50
195
0.72
228
0.61
219
0.75
235
0.52
201
0.80
231
0.54
213
0.70
226
0.62
183
0.62
148
0.86
244
0.62
259
1.14
242
1.10
273
0.78
232
0.69
248
0.73
146
0.60
214
0.88
207
0.67
179
0.50
233
0.71
249
0.86
232
0.95
217
1.38
259
0.85
188
AIO-Stereo-zeroshotpermissivetwo views1.21
246
0.49
161
1.28
287
0.75
231
0.41
176
1.04
257
0.67
236
0.77
225
0.52
209
0.78
249
5.67
312
1.03
220
0.35
165
0.26
147
0.86
193
1.39
298
0.68
209
0.70
249
2.61
252
0.64
232
2.89
289
2.21
278
0.19
98
0.43
198
1.03
259
1.15
249
1.35
256
2.41
267
SHDtwo views0.97
234
0.56
204
0.73
241
0.75
231
0.69
235
0.66
220
0.61
223
0.99
258
0.94
262
0.77
245
1.00
245
0.94
209
1.29
261
0.54
244
2.21
296
0.98
256
0.95
259
0.70
249
2.01
228
0.80
253
1.12
239
1.71
268
0.47
222
0.77
261
0.91
236
1.01
233
0.91
193
1.22
228
ADCPNettwo views2.08
275
0.77
241
0.87
254
0.83
239
1.21
277
0.85
242
1.59
279
1.02
263
1.35
280
0.83
260
1.97
283
1.01
218
7.76
308
0.75
273
2.35
305
1.16
280
0.95
259
0.71
251
4.05
272
0.97
269
1.30
249
1.61
263
0.72
262
0.76
258
1.52
286
1.96
292
1.21
240
16.04
323
SQANettwo views1.90
271
2.70
298
1.03
268
3.09
296
2.17
293
3.29
295
2.70
293
0.95
251
0.65
230
1.00
277
0.71
207
2.69
271
1.10
252
2.30
298
0.78
169
0.55
170
1.02
264
0.72
252
9.92
302
0.68
241
2.11
275
1.25
241
3.28
302
0.58
234
0.98
248
1.31
265
1.33
254
2.34
264
STTRV1_RVCtwo views0.81
249
0.64
228
1.04
256
0.73
244
1.03
255
0.85
250
0.91
249
0.92
257
0.93
269
0.95
241
1.72
258
2.23
277
0.86
280
1.46
260
0.78
228
1.37
278
0.72
252
1.97
309
1.59
260
1.23
240
0.97
274
1.07
261
1.11
245
1.75
281
3.40
286
LALA_ROBtwo views0.86
220
0.97
268
0.67
235
0.63
213
0.69
235
0.83
241
0.67
236
0.70
195
0.80
244
0.68
215
1.10
253
2.61
268
0.58
225
0.51
236
1.11
239
0.67
206
0.86
245
0.72
252
0.89
170
0.67
239
0.80
197
1.00
222
0.49
229
0.59
235
0.73
196
0.92
212
1.16
234
1.10
215
DAStwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
SepStereotwo views0.95
229
0.61
218
0.48
189
0.78
237
0.61
219
0.68
223
0.59
214
0.84
241
0.93
259
0.65
195
1.58
273
1.66
255
1.06
248
0.34
186
0.95
216
0.92
243
0.92
256
0.73
255
1.77
219
1.03
274
1.73
266
1.11
229
0.47
222
0.92
271
0.93
239
1.00
230
1.39
260
0.96
198
CBMVpermissivetwo views1.15
244
0.84
258
0.60
219
0.85
240
0.76
251
0.73
230
0.48
194
0.87
244
0.80
244
0.81
255
0.61
178
2.86
272
0.81
241
0.52
240
1.31
252
1.17
281
0.91
254
0.74
257
2.40
244
0.66
235
1.57
259
0.76
197
0.48
227
1.06
281
0.99
251
1.09
242
2.25
290
4.25
295
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MeshStereopermissivetwo views3.62
299
1.54
287
1.05
269
2.64
287
1.72
289
2.05
288
1.15
269
2.40
309
1.41
283
0.90
268
6.48
319
9.56
317
7.42
307
0.49
230
11.75
325
1.94
312
0.87
246
0.74
257
8.79
296
0.80
253
8.36
323
8.07
324
0.73
264
1.07
282
3.39
309
2.15
297
5.22
321
4.99
298
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
otakutwo views2.33
279
3.05
307
1.19
278
3.36
303
2.37
296
3.56
300
3.08
298
1.05
265
0.98
265
1.13
282
0.80
226
2.88
273
1.62
269
2.59
299
0.95
216
0.64
197
1.23
275
0.75
259
13.16
310
1.09
278
2.47
280
2.63
284
4.75
312
0.75
257
1.13
266
1.38
271
1.69
278
2.52
270
DDUNettwo views1.38
253
2.18
291
0.79
246
2.67
289
2.43
298
2.57
290
2.52
290
0.80
231
0.84
249
0.63
183
0.94
239
1.57
253
0.45
197
2.65
303
0.94
214
0.78
228
1.99
295
0.75
259
2.31
237
0.91
265
1.16
241
0.97
218
2.71
301
0.56
230
0.72
191
0.71
170
0.97
207
0.85
188
GEStereo_RVCtwo views0.71
189
0.59
211
0.40
152
0.54
193
0.50
198
0.61
207
0.51
199
0.71
198
0.41
186
0.59
157
0.51
148
0.76
183
0.46
200
0.39
200
0.96
219
0.92
243
0.78
232
0.75
259
1.94
226
0.62
227
0.80
197
1.37
248
0.31
185
0.52
224
0.61
163
0.63
157
0.86
187
1.12
218
EKT-Stereotwo views0.75
197
0.64
224
0.54
205
0.59
203
0.47
191
0.60
204
0.73
241
0.71
198
0.29
109
0.63
183
0.66
195
0.73
171
0.30
119
0.26
147
0.86
193
1.22
286
0.68
209
0.76
262
1.46
206
0.60
214
1.75
268
1.74
270
0.21
123
0.32
148
0.93
239
0.81
194
1.06
221
0.72
169
FCDSN-DCtwo views0.69
184
0.61
218
0.62
222
0.66
220
0.61
219
0.59
202
0.60
218
0.68
182
0.42
193
0.75
240
0.42
120
0.57
125
0.36
170
0.50
234
2.43
308
0.67
206
0.80
237
0.76
262
0.64
123
0.56
197
0.70
182
0.60
157
0.47
222
0.83
265
0.66
178
0.74
176
0.61
110
0.67
154
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
RTStwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
RTSAtwo views1.09
240
0.59
211
0.59
214
0.60
206
0.58
216
0.96
250
0.90
254
0.80
231
0.88
252
0.59
157
0.71
207
1.28
239
0.62
227
0.51
236
2.04
286
0.98
256
1.19
272
0.77
264
2.33
239
0.85
260
0.96
223
1.16
235
0.49
229
0.65
245
1.23
270
4.43
317
1.15
231
1.45
234
TANstereotwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
XX-TBDtwo views0.55
148
0.41
102
0.35
126
0.40
149
0.39
165
0.45
164
0.21
111
0.52
85
0.30
117
0.54
120
0.37
104
0.38
61
0.38
177
0.41
206
0.84
187
0.73
220
0.66
201
0.78
266
1.10
188
0.89
263
0.62
155
0.54
147
0.93
278
0.32
148
0.34
69
0.45
112
0.99
211
0.53
112
ACV-stereotwo views8.39
320
1.01
272
0.97
261
1.29
270
0.73
244
1.48
279
0.95
261
0.88
247
1.10
270
1.07
280
1.33
265
1.06
225
23.12
322
0.52
240
4.00
316
3.78
318
1.05
267
0.79
268
168.94
339
1.91
308
3.64
305
1.44
251
0.72
262
0.74
256
0.74
198
0.90
209
1.43
267
1.03
207
ADCMidtwo views1.56
258
0.92
265
0.99
263
0.70
225
0.86
256
1.05
258
1.37
276
1.29
276
1.77
291
0.75
240
1.75
279
1.27
237
1.48
265
0.69
268
2.18
295
1.07
269
0.98
262
0.79
268
2.74
255
0.80
253
1.31
250
1.74
270
1.06
282
0.70
248
1.01
256
1.53
280
1.02
218
10.33
316
UDGtwo views1.35
252
2.24
293
0.81
248
2.58
286
2.45
299
2.48
289
2.57
291
0.76
220
0.86
250
0.77
245
1.08
250
1.51
248
0.56
219
2.59
299
1.06
233
0.69
210
1.89
293
0.80
270
2.31
237
0.97
269
1.24
246
0.98
219
1.43
293
0.62
240
0.74
198
0.81
194
0.95
201
0.81
184
Ntrotwo views2.32
276
3.40
315
1.53
294
3.55
304
2.52
301
3.71
305
3.36
300
1.11
271
1.05
267
1.16
286
0.90
236
2.93
275
1.24
258
2.72
305
1.00
226
0.64
197
1.40
280
0.82
271
10.96
305
1.14
282
2.72
284
3.19
293
4.26
308
0.73
253
1.24
273
1.59
282
1.56
273
2.31
263
Anonymous3two views0.79
212
0.59
211
0.42
164
0.37
137
0.42
179
0.57
198
0.50
198
0.80
231
0.64
229
0.68
215
0.49
137
1.48
246
0.54
215
0.31
174
1.53
263
1.42
300
0.88
250
0.82
271
1.45
205
0.69
244
1.31
250
1.30
244
0.40
211
0.40
189
0.74
198
0.86
200
1.03
220
0.71
167
MFN_U_SF_RVCtwo views1.68
265
1.06
274
0.88
255
1.25
268
1.01
264
1.53
280
2.07
285
1.38
283
1.17
272
1.51
304
2.95
293
2.00
262
1.57
268
2.05
297
2.38
306
0.98
256
0.87
246
0.82
271
6.78
289
1.11
281
2.21
276
2.38
282
0.65
259
1.11
286
1.23
270
1.33
268
1.28
250
1.69
248
edge stereotwo views1.82
268
1.16
278
2.22
304
1.46
277
1.28
279
1.58
281
1.38
277
1.67
296
1.30
277
1.20
288
3.42
297
4.33
295
2.26
280
0.80
275
1.41
255
1.46
301
1.05
267
0.83
274
5.42
280
0.97
269
1.34
252
3.76
298
0.95
280
0.88
269
1.26
276
1.20
252
1.70
279
2.91
276
FADNet_RVCtwo views0.92
224
0.69
233
0.55
208
0.88
243
0.75
250
0.54
192
0.51
199
0.77
225
0.54
213
0.70
226
0.96
242
1.36
243
1.06
248
0.54
244
1.85
281
0.64
197
0.80
237
0.90
275
3.34
266
0.76
249
1.00
228
1.13
232
0.37
204
0.60
237
0.66
178
0.87
203
0.97
207
1.14
221
SANettwo views1.61
261
0.91
264
1.10
276
1.04
256
1.05
268
1.25
271
0.77
244
1.76
299
1.81
292
0.77
245
1.24
257
6.63
304
5.08
297
0.83
277
1.56
265
0.77
225
1.24
276
0.90
275
1.58
212
0.82
258
1.05
233
1.00
222
0.90
275
1.27
294
1.32
277
1.93
289
1.88
284
3.10
282
PWC_ROBbinarytwo views1.18
245
0.70
234
1.06
271
0.60
206
0.71
242
0.70
226
0.98
263
0.83
239
1.55
288
0.76
243
1.40
268
1.00
215
2.46
284
0.57
253
2.17
294
0.99
260
1.15
270
0.90
275
2.37
241
0.95
266
1.63
262
2.05
275
0.44
218
0.98
276
0.81
220
0.80
192
1.24
245
2.15
259
SAMSARAtwo views1.50
255
0.79
245
1.00
267
0.93
250
0.88
257
0.86
245
0.93
258
1.57
290
1.25
275
0.96
274
1.09
251
1.27
237
2.59
285
0.83
277
2.58
310
1.19
284
1.04
265
0.91
278
2.56
248
0.99
272
1.77
270
2.23
279
0.56
252
0.98
276
2.63
299
2.81
304
2.62
302
2.56
271
pmcnntwo views1.66
263
0.80
248
0.52
200
1.19
265
1.01
264
1.21
268
0.93
258
0.96
256
0.54
213
0.74
236
2.66
291
3.98
292
5.06
296
0.31
174
1.65
271
1.40
299
1.20
274
0.91
278
3.99
271
0.95
266
4.45
313
1.02
224
0.90
275
0.90
270
1.07
261
1.01
233
2.43
297
3.03
280
G-Nettwo views1.86
269
1.00
271
1.28
287
0.89
244
0.93
260
1.10
261
0.77
244
1.63
292
2.07
298
0.99
276
2.89
292
7.30
310
1.67
271
0.55
247
1.45
257
1.75
308
1.04
265
0.93
280
2.87
257
2.72
319
1.89
272
1.47
255
0.80
269
1.02
280
1.06
260
1.71
285
2.82
306
5.60
302
FAT-Stereotwo views1.57
259
0.78
243
1.44
292
1.10
258
1.32
282
1.05
258
0.87
253
1.28
275
0.86
250
1.21
289
5.46
309
3.07
277
1.28
260
0.66
264
1.73
275
1.34
288
0.89
252
0.94
281
1.83
222
1.08
277
2.02
273
3.90
301
0.71
261
0.98
276
0.86
232
1.21
254
1.42
266
3.03
280
AnyNet_C32two views1.64
262
0.65
225
0.74
242
0.67
221
0.73
244
0.86
245
1.14
267
0.95
251
3.12
314
0.75
240
1.53
272
0.94
209
0.64
231
0.67
266
1.83
280
1.11
275
1.06
269
0.95
282
1.78
221
0.76
249
1.76
269
1.71
268
0.66
260
0.85
268
1.13
266
2.68
303
1.17
236
13.55
320
RainbowNettwo views2.32
276
2.93
303
1.87
300
3.34
302
2.57
302
3.50
297
3.49
303
1.29
276
0.92
257
1.53
307
0.89
235
3.18
279
2.31
281
2.94
306
1.30
251
0.90
241
1.61
287
1.00
283
5.61
281
1.51
296
2.82
288
4.18
303
4.25
307
0.97
274
1.32
277
1.58
281
1.71
280
3.00
279
MSC_U_SF_DS_RVCtwo views1.67
264
1.25
282
1.05
269
1.56
279
1.08
271
1.20
267
3.18
299
1.50
287
2.10
299
1.30
296
0.98
244
1.50
247
1.04
247
1.66
295
1.71
272
1.18
282
0.84
243
1.01
284
6.24
286
1.15
285
1.43
255
3.23
294
1.19
284
1.14
288
1.52
286
1.29
263
1.09
225
2.78
275
ACVNet_2two views3.17
293
2.98
304
2.25
305
4.72
311
2.88
309
3.50
297
3.48
302
1.58
291
1.33
278
1.29
295
1.10
253
3.22
280
2.45
283
2.67
304
1.29
250
0.86
237
7.26
317
1.02
285
22.14
318
1.37
294
3.22
297
1.25
241
4.24
306
1.37
296
1.93
293
1.92
288
1.83
283
2.36
265
ACVNet-4btwo views2.35
280
2.75
301
1.60
296
3.13
297
2.29
295
3.52
299
3.67
306
1.35
280
1.35
280
1.27
293
0.72
212
3.26
281
2.62
287
3.04
308
0.98
222
0.78
228
2.13
297
1.02
285
9.04
299
1.23
288
2.74
285
3.39
297
4.08
305
0.92
271
1.24
273
1.29
263
1.46
269
2.48
269
AMNettwo views1.02
237
0.98
269
0.95
259
0.98
253
1.01
264
1.03
255
0.96
262
0.87
244
0.93
259
0.97
275
1.02
247
1.10
229
0.74
238
1.06
287
0.99
225
1.09
272
1.17
271
1.04
287
1.08
185
1.05
276
1.13
240
1.04
225
0.82
271
0.98
276
1.01
256
1.07
241
1.20
239
1.27
230
S-Stereotwo views1.54
257
0.81
249
0.83
251
1.15
262
1.16
275
1.29
273
1.56
278
1.02
263
1.09
269
1.25
292
4.20
301
4.10
293
1.10
252
0.66
264
2.16
293
1.63
305
0.90
253
1.05
288
2.20
234
1.10
279
1.26
247
3.12
292
1.31
292
1.17
291
0.84
229
1.18
251
1.21
240
2.18
260
MaskLacGwcNet_RVCtwo views8.29
318
0.65
225
1.07
273
0.94
252
0.83
254
0.81
240
1.27
274
0.85
243
0.73
236
0.93
269
6.13
315
180.62
340
2.17
276
1.33
293
1.22
247
1.01
262
0.93
258
1.06
289
6.32
288
0.79
252
3.32
301
3.77
299
0.55
250
0.76
258
0.95
244
1.34
270
1.19
238
2.42
268
LSM0two views8.30
319
1.08
276
0.95
259
1.66
282
1.42
285
1.59
282
1.96
283
2.27
307
2.36
301
1.66
311
3.94
299
4.10
293
6.30
306
0.63
261
62.38
339
74.74
339
1.69
288
1.06
289
12.18
308
2.23
312
4.96
318
9.29
326
0.92
277
1.29
295
1.95
295
2.97
307
3.66
315
14.83
322
PSMNet_ROBtwo views2.71
285
3.39
314
1.92
301
2.87
293
2.04
291
4.01
310
3.50
304
1.46
285
1.41
283
1.59
309
3.34
294
3.52
284
4.97
295
4.50
317
1.61
268
0.95
248
1.87
292
1.06
289
8.62
295
1.63
304
2.32
279
1.51
259
5.43
321
1.37
296
1.98
297
1.94
290
1.91
285
2.39
266
PVDtwo views1.47
254
1.04
273
1.44
292
1.10
258
1.09
273
1.19
266
1.07
266
1.91
303
2.05
297
0.79
252
1.49
271
1.54
251
1.91
274
0.89
282
2.26
300
1.35
291
1.39
279
1.09
292
2.41
245
1.14
282
1.51
257
1.98
274
0.79
267
1.08
284
1.49
285
1.82
287
1.67
277
2.10
257
ACVNet_1two views2.47
281
3.23
310
2.35
306
4.40
310
2.93
312
3.77
307
3.96
308
1.34
279
1.18
273
1.21
289
1.02
247
3.31
283
2.07
275
3.09
310
1.31
252
0.70
214
2.26
301
1.10
293
9.52
300
1.14
282
3.45
302
1.18
238
4.50
311
1.07
282
1.39
281
1.75
286
1.36
258
2.10
257
ELAScopylefttwo views3.38
298
2.19
292
1.79
297
2.99
294
2.37
296
3.32
296
2.09
286
2.60
313
2.85
312
1.28
294
4.85
305
8.61
313
8.02
309
0.76
274
2.90
311
0.81
232
1.80
291
1.10
293
4.19
274
1.10
279
4.53
314
7.86
321
1.26
285
1.63
307
7.08
322
4.79
320
3.66
315
4.87
297
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
BEATNet-Init1two views22.01
333
36.32
336
3.23
319
54.74
338
11.23
330
52.95
339
28.72
334
9.47
328
8.51
323
1.57
308
10.45
329
33.05
331
48.98
333
0.71
270
16.97
331
11.50
329
1.60
286
1.11
295
77.80
336
35.27
337
9.94
328
9.98
328
1.27
289
2.30
322
27.41
331
11.09
325
52.85
338
35.36
334
MADNet+two views1.96
273
1.18
279
1.26
285
1.45
276
1.28
279
1.10
261
2.21
287
1.88
301
1.41
283
1.33
297
1.32
263
2.29
264
2.23
277
1.25
292
4.58
318
1.87
311
2.55
304
1.13
296
2.73
254
1.63
304
3.69
306
3.33
295
1.26
285
2.09
318
1.93
293
1.47
274
1.59
274
2.77
274
ELAS_RVCcopylefttwo views3.22
294
2.01
290
1.85
299
2.66
288
2.07
292
5.08
318
2.06
284
2.41
310
1.89
294
1.74
314
4.78
303
8.00
311
8.02
309
0.74
272
2.38
306
0.81
232
1.75
290
1.14
297
3.97
270
1.27
290
4.64
316
7.61
320
1.26
285
1.74
312
6.58
321
3.21
310
3.39
310
3.80
290
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
WAO-7two views2.72
287
1.83
289
2.89
315
7.39
316
1.73
290
1.76
286
1.82
282
2.07
304
2.65
307
2.21
320
5.39
308
4.58
297
5.72
301
1.23
291
2.07
290
1.27
287
1.69
288
1.22
298
7.70
292
1.51
296
1.64
263
3.07
291
0.84
272
1.65
309
1.83
292
2.48
301
1.97
287
3.27
284
DPSNettwo views2.61
282
0.83
254
0.77
245
1.21
267
1.24
278
1.34
275
0.93
258
1.08
269
1.49
286
0.78
249
0.86
233
6.91
306
3.85
291
0.58
256
4.58
318
2.54
315
1.43
282
1.24
299
14.95
314
1.34
292
4.83
317
8.01
322
1.75
296
1.40
299
1.47
283
1.95
291
1.60
276
1.66
246
SGM+DAISYtwo views3.81
300
1.38
284
1.26
285
1.80
284
1.47
287
1.93
287
1.71
281
1.47
286
1.33
278
1.34
298
6.67
321
9.59
318
12.99
316
1.20
290
1.73
275
1.47
302
1.42
281
1.24
299
11.11
306
1.37
294
3.07
294
2.13
277
1.27
289
1.42
302
1.69
289
1.26
260
2.90
307
26.50
329
ADCStwo views1.88
270
1.06
274
0.98
262
0.93
250
1.10
274
1.09
260
1.14
267
1.27
273
2.49
305
0.89
267
1.36
266
1.51
248
2.92
289
0.86
280
3.30
313
2.26
314
1.46
283
1.26
301
3.10
264
1.29
291
2.48
281
2.88
287
0.80
269
1.10
285
1.33
279
4.48
319
1.41
265
6.08
305
Deantwo views2.84
289
3.23
310
1.81
298
6.04
314
3.38
318
3.63
302
3.67
306
1.88
301
1.97
296
1.47
301
1.30
261
3.69
287
4.10
293
2.97
307
1.45
257
0.97
253
2.41
302
1.29
302
5.94
282
1.74
307
3.20
296
4.23
304
4.79
314
1.55
304
2.65
300
2.27
298
2.56
300
2.64
272
IMHtwo views3.24
295
2.76
302
2.37
309
3.26
300
2.74
306
3.73
306
4.10
311
1.72
298
2.58
306
1.17
287
1.24
257
3.92
289
10.58
311
6.80
326
1.57
267
1.11
275
2.25
300
1.30
303
6.28
287
1.56
301
2.97
291
4.14
302
4.90
317
1.45
303
3.01
307
2.36
299
2.47
299
5.19
301
IMH-64-1two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
IMH-64two views2.92
290
2.70
298
2.36
307
3.23
298
2.71
304
3.70
303
4.05
309
1.66
293
2.48
303
1.13
282
1.26
259
3.60
285
6.29
304
3.59
311
2.28
302
1.15
278
2.20
298
1.31
304
6.02
283
1.52
298
3.03
292
5.48
310
4.83
315
1.40
299
2.83
303
2.02
293
2.34
293
3.64
287
MFMNet_retwo views1.51
256
1.18
279
1.12
277
1.29
270
1.16
275
1.63
283
1.32
275
1.30
278
1.63
289
1.14
285
1.38
267
2.64
270
1.63
270
0.90
283
2.27
301
1.35
291
1.58
284
1.32
306
3.69
268
1.24
289
2.10
274
1.26
243
1.16
283
1.24
293
1.11
264
1.02
237
1.59
274
1.60
241
WAO-6two views2.71
285
2.26
294
1.57
295
3.00
295
2.25
294
3.01
293
3.02
297
1.77
300
2.35
300
1.52
306
1.62
275
3.94
291
5.12
298
2.64
302
2.22
297
1.38
296
2.65
305
1.36
307
4.86
276
1.54
300
2.76
287
4.79
307
2.70
300
1.73
311
2.71
301
2.59
302
2.68
304
5.02
299
SPS-STEREOcopylefttwo views1.93
272
1.27
283
1.21
280
1.60
281
1.34
283
1.44
278
1.17
270
1.66
293
1.36
282
1.38
299
3.67
298
3.02
276
1.29
261
1.05
286
1.85
281
1.83
310
1.58
284
1.37
308
8.86
298
1.34
292
3.07
294
1.47
255
1.27
289
1.37
296
1.42
282
1.28
262
2.02
289
1.89
251
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
LVEtwo views4.33
304
3.03
305
2.00
302
27.23
330
3.06
313
3.83
308
12.07
329
1.53
288
1.64
290
1.85
316
1.48
270
3.30
282
3.91
292
3.06
309
1.45
257
1.05
267
1.95
294
1.38
309
15.68
315
1.62
303
3.25
299
5.86
313
4.42
310
1.76
313
2.87
305
2.06
295
2.34
293
3.25
283
PWCKtwo views5.04
305
3.03
305
2.21
303
3.61
305
2.60
303
4.41
314
5.09
312
2.45
311
2.76
310
3.31
325
4.34
302
10.15
322
5.13
299
1.74
296
1.99
284
1.38
296
2.41
302
1.45
310
51.59
334
2.35
314
3.70
307
2.69
286
2.65
299
1.78
315
2.97
306
3.21
310
2.43
297
4.77
296
WAO-8two views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
Venustwo views4.25
302
3.34
312
2.80
312
10.32
320
2.92
310
4.17
311
5.89
314
2.66
316
4.45
318
1.69
312
3.41
295
5.94
301
11.31
313
5.29
321
1.71
272
1.34
288
2.69
306
1.51
311
10.78
303
2.48
316
2.63
282
4.50
305
3.44
303
1.58
305
5.12
317
3.31
312
3.60
312
5.76
303
DGSMNettwo views2.66
284
0.96
266
1.36
291
1.03
255
0.99
263
1.12
263
1.05
265
1.36
281
0.94
262
2.15
319
13.54
330
1.71
257
1.85
272
0.93
284
2.50
309
3.85
320
5.34
313
1.61
313
5.07
277
1.68
306
7.04
322
8.02
323
0.96
281
1.19
292
1.01
256
1.33
268
1.40
264
1.88
250
TorneroNettwo views8.11
316
4.28
320
2.58
311
27.50
331
3.31
317
5.00
317
6.00
316
2.62
314
10.13
326
1.49
303
2.57
290
11.07
324
68.61
338
4.25
315
1.77
279
1.18
282
5.78
314
1.62
314
23.67
319
2.83
320
4.30
310
5.47
309
5.37
320
1.65
309
3.72
312
3.14
309
2.59
301
6.36
307
TorneroNet-64two views6.02
310
4.60
321
2.53
310
15.58
326
3.29
316
4.87
316
7.75
318
2.23
306
10.02
324
1.42
300
1.31
262
7.26
309
29.23
328
4.36
316
2.09
291
1.21
285
8.22
318
1.70
315
17.35
317
2.62
318
4.31
311
5.68
312
5.20
319
1.76
313
3.58
311
3.76
316
2.29
291
8.34
313
KSHMRtwo views8.16
317
4.16
318
2.96
316
25.39
329
3.92
319
5.08
318
5.53
313
2.62
314
2.40
302
2.23
321
2.26
286
4.37
296
77.17
339
5.23
320
2.24
298
1.71
306
2.79
308
1.98
316
31.04
324
2.02
310
4.59
315
5.35
308
7.54
328
1.89
317
3.30
308
2.91
306
3.01
308
6.51
308
DispFullNettwo views4.17
301
3.20
309
4.34
323
2.72
290
2.46
300
2.92
292
2.70
293
2.79
318
1.90
295
4.51
329
6.62
320
8.91
315
4.83
294
2.59
299
2.00
285
8.18
326
3.24
309
1.98
316
24.96
320
2.93
321
3.99
308
3.36
296
1.71
295
1.15
289
1.36
280
1.32
267
2.36
296
3.65
289
UNDER WATERtwo views7.55
314
4.74
322
3.06
317
10.46
322
5.92
325
6.35
325
8.05
320
4.32
320
3.69
317
1.97
317
2.14
285
10.53
323
62.60
337
4.83
318
2.25
299
1.59
304
12.22
328
2.08
318
9.67
301
3.97
322
5.27
319
6.65
317
8.86
331
2.65
324
3.82
313
5.62
321
3.62
314
7.03
310
notakertwo views5.52
307
5.55
325
3.76
321
13.97
325
5.34
323
5.44
322
7.16
317
2.36
308
2.68
309
2.06
318
1.80
280
12.90
326
23.86
323
3.98
314
2.04
286
1.73
307
3.45
311
2.12
319
17.08
316
2.15
311
6.10
321
5.87
314
6.15
325
2.12
319
1.79
290
2.08
296
2.31
292
3.29
285
UNDER WATER-64two views6.11
312
5.20
323
3.13
318
12.20
323
5.77
324
6.55
326
8.53
323
4.74
325
3.45
316
2.30
323
2.36
287
12.04
325
12.47
315
5.08
319
3.02
312
1.81
309
12.11
327
2.17
320
8.81
297
4.17
324
5.75
320
7.27
319
8.74
330
2.61
323
3.86
314
8.63
323
4.32
318
7.86
312
ktntwo views8.45
321
3.18
308
2.84
314
6.37
315
3.26
315
4.31
313
10.28
327
2.15
305
10.13
326
2.27
322
1.83
281
42.17
334
55.84
335
3.93
313
2.34
304
2.09
313
9.85
320
2.17
320
33.98
325
2.24
313
3.24
298
3.03
290
4.78
313
2.25
321
2.59
298
2.81
304
3.18
309
5.04
300
AnyNet_C01two views2.06
274
1.08
276
1.06
271
1.14
261
1.08
271
1.01
253
2.69
292
1.69
297
2.66
308
1.21
289
1.67
276
2.90
274
2.60
286
0.95
285
3.65
314
4.02
321
2.09
296
2.21
322
3.08
263
1.56
301
3.30
300
2.89
288
1.26
285
1.15
289
1.80
291
1.43
272
1.51
271
3.90
291
JetBluetwo views6.09
311
3.85
317
3.31
320
5.99
313
4.13
320
6.22
324
7.94
319
3.42
319
2.89
313
1.47
301
1.46
269
8.10
312
1.90
273
5.39
323
11.86
326
3.22
317
3.30
310
2.99
323
5.32
278
2.40
315
9.74
326
10.03
329
4.93
318
2.18
320
7.39
323
17.16
328
3.72
317
24.15
326
HanzoNettwo views19.12
331
15.23
328
6.99
329
35.06
334
14.35
332
40.77
335
42.46
335
17.81
334
22.51
332
3.55
326
8.29
324
41.30
333
56.30
336
43.04
338
5.72
320
4.37
322
37.83
337
3.30
324
49.59
333
8.93
329
10.30
329
6.85
318
14.15
334
3.46
326
5.94
320
5.80
322
5.29
322
7.13
311
DPSimNet_ROBtwo views18.93
330
32.01
333
5.97
326
12.40
324
11.35
331
6.13
323
28.07
333
15.03
333
35.64
336
3.96
327
78.33
339
18.15
327
35.00
329
5.44
324
12.19
328
10.36
328
13.57
329
3.64
325
87.52
337
6.87
327
14.36
333
9.97
327
4.40
309
7.14
329
5.17
319
9.85
324
5.93
323
32.56
331
MADNet++two views5.64
308
3.51
316
3.77
322
2.84
292
4.62
321
3.02
294
3.65
305
4.36
321
5.03
320
4.18
328
5.07
307
6.45
303
5.92
303
6.18
325
7.04
321
6.82
324
4.71
312
4.00
326
8.03
293
5.83
325
9.92
327
16.38
331
2.32
298
4.34
327
3.95
315
11.38
326
4.93
319
4.01
292
JetRedtwo views7.85
315
5.29
324
6.07
327
3.75
306
5.00
322
6.95
327
10.20
326
4.64
324
3.42
315
2.92
324
2.39
288
6.71
305
2.25
279
7.15
327
10.26
323
7.34
325
8.59
319
7.11
327
4.82
275
4.08
323
10.76
330
9.27
325
7.85
329
3.34
325
10.96
325
24.25
332
11.90
326
24.57
327
PMLtwo views30.82
334
20.91
331
7.15
330
29.65
332
20.81
335
29.11
333
10.50
328
10.87
329
88.32
340
20.03
336
154.19
340
98.60
339
119.55
340
10.53
329
9.19
322
8.69
327
16.72
330
7.27
328
34.57
326
7.35
328
12.77
331
10.86
330
5.72
324
6.17
328
33.11
337
12.83
327
34.30
335
12.33
319
DLNR_Zeroshot_testpermissivetwo views17.86
327
67.45
340
1.21
280
81.91
340
0.35
146
0.45
164
74.74
340
0.76
220
0.27
95
0.69
223
0.60
171
1.16
233
0.29
109
8.20
328
84.48
340
102.07
340
23.88
333
15.14
329
7.31
290
0.50
176
4.38
312
2.51
283
0.18
90
0.43
198
0.76
209
0.86
200
0.80
165
0.80
182
DGTPSM_ROBtwo views12.12
324
5.96
326
17.45
332
4.20
308
7.86
326
5.15
320
8.18
321
4.56
322
11.64
328
4.52
330
8.72
325
5.01
298
17.08
320
12.98
330
14.91
329
14.58
330
6.85
315
15.76
330
12.78
309
12.05
330
9.07
324
21.74
332
5.67
322
11.54
331
11.84
326
31.02
335
12.98
327
33.06
332
DPSMNet_ROBtwo views12.40
325
5.97
327
17.46
333
4.21
309
7.87
327
5.15
320
8.18
321
4.56
322
11.65
329
4.54
331
8.87
326
5.17
299
22.69
321
13.00
331
14.98
330
14.62
331
6.90
316
15.82
331
14.07
313
12.05
330
9.09
325
21.75
333
5.68
323
11.54
331
11.87
327
31.03
336
12.99
328
33.06
332
MANEtwo views7.31
313
2.64
297
4.48
324
3.30
301
3.10
314
3.94
309
2.83
295
5.37
326
6.88
322
1.11
281
5.64
311
8.81
314
11.02
312
0.67
266
3.83
315
3.83
319
1.32
277
18.03
332
8.61
294
0.84
259
4.22
309
1.16
235
0.74
265
1.79
316
13.65
328
18.61
329
22.89
331
38.18
336
DPSM_ROBtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
DPSMtwo views18.32
328
16.26
329
21.94
334
9.42
318
8.75
328
13.61
329
9.11
324
10.90
330
15.09
330
8.45
332
8.95
327
10.12
320
13.19
317
16.42
332
19.79
332
19.11
332
18.35
331
20.45
333
13.82
311
14.88
332
26.56
334
27.45
334
6.49
326
14.39
334
31.57
335
38.83
337
36.85
336
43.86
337
LRCNet_RVCtwo views21.34
332
28.92
332
11.37
331
31.78
333
29.09
336
34.25
334
27.43
332
21.71
336
10.07
325
29.63
337
30.60
333
32.06
330
25.81
325
33.87
336
11.15
324
2.97
316
25.27
334
21.35
335
44.05
331
20.83
334
14.27
332
5.87
314
36.69
336
27.43
336
2.76
302
1.47
274
8.68
325
6.79
309
FlowAnythingtwo views36.80
336
32.68
334
44.29
340
18.93
328
17.69
334
27.11
331
18.38
331
21.83
337
30.48
335
17.53
335
18.21
332
20.29
329
26.54
327
33.31
335
37.97
334
37.86
335
36.82
335
40.93
336
27.35
321
30.03
336
53.34
339
55.72
340
12.99
333
29.50
338
63.36
338
78.25
340
73.99
340
88.17
340
CasAABBNettwo views36.73
335
32.73
335
44.18
339
18.81
327
17.45
333
27.29
332
18.12
330
21.69
335
30.40
334
17.52
334
18.08
331
20.27
328
26.53
326
32.96
334
38.28
335
37.42
334
36.82
335
41.12
337
27.47
322
29.86
335
53.56
340
55.70
339
12.93
332
28.91
337
63.44
339
78.07
339
73.93
339
88.05
339
HaxPigtwo views41.43
337
43.85
337
40.81
336
44.90
335
47.49
338
44.66
336
46.30
337
46.31
338
45.63
338
49.00
338
49.30
335
47.24
335
43.73
331
42.64
337
40.44
337
39.13
337
48.37
338
51.07
338
43.33
329
42.25
338
42.88
336
36.52
336
50.75
338
43.02
340
27.54
332
19.97
330
20.68
330
20.75
325
AVERAGE_ROBtwo views41.98
338
44.82
338
42.27
337
45.98
336
46.88
337
45.60
337
46.56
338
47.04
339
43.89
337
49.19
339
49.91
336
47.25
336
43.00
330
49.19
339
40.14
336
38.38
336
49.01
339
51.31
339
43.98
330
42.43
339
43.31
337
38.64
337
49.42
337
42.83
339
28.65
333
20.44
331
23.41
332
19.88
324
MEDIAN_ROBtwo views44.95
339
47.36
339
44.12
338
48.52
337
49.78
339
48.21
338
49.25
339
49.72
340
46.35
339
52.53
340
53.59
337
50.59
337
45.49
332
49.36
340
43.27
338
41.36
338
51.85
340
54.40
340
47.03
332
45.93
340
45.78
338
40.06
338
52.67
339
45.67
341
31.00
334
26.54
334
25.33
333
27.95
330
ASD4two views8.34
330