This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
2
0.04
1
0.13
10
0.12
19
0.11
5
0.15
19
0.16
11
0.07
6
0.06
9
0.17
2
0.20
3
0.15
1
0.14
3
0.16
2
0.12
2
0.17
1
0.20
8
0.06
1
0.08
5
0.11
1
0.15
9
0.10
1
0.11
1
Pointernettwo views0.12
2
0.09
3
0.06
1
0.07
4
0.06
3
0.09
11
0.08
27
0.13
10
0.06
1
0.12
8
0.09
9
0.10
1
0.07
6
0.06
9
0.21
7
0.18
2
0.19
2
0.12
1
0.18
3
0.09
1
0.17
1
0.16
3
0.08
11
0.07
3
0.16
3
0.12
1
0.25
16
0.12
5
MLG-Stereo_test1two views0.13
3
0.08
2
0.07
2
0.07
4
0.07
7
0.07
2
0.06
15
0.11
2
0.09
10
0.16
23
0.10
14
0.17
17
0.06
1
0.05
3
0.18
3
0.20
3
0.22
8
0.19
11
0.22
13
0.13
7
0.23
12
0.16
3
0.07
9
0.06
1
0.17
6
0.12
1
0.21
8
0.14
10
MLG-Stereotwo views0.13
3
0.10
6
0.08
4
0.06
1
0.08
13
0.06
1
0.04
1
0.11
2
0.09
10
0.15
17
0.08
7
0.16
11
0.06
1
0.05
3
0.18
3
0.20
3
0.22
8
0.19
11
0.19
5
0.12
2
0.21
7
0.16
3
0.06
1
0.06
1
0.17
6
0.12
1
0.21
8
0.14
10
CoSvtwo views0.13
3
0.17
22
0.08
4
0.08
8
0.07
7
0.17
36
0.07
20
0.15
18
0.10
14
0.13
12
0.06
3
0.11
3
0.07
6
0.04
1
0.18
3
0.22
7
0.21
4
0.13
2
0.22
13
0.12
2
0.21
7
0.13
1
0.06
1
0.08
5
0.23
26
0.15
9
0.19
5
0.11
1
CroCo-Stereocopylefttwo views0.13
3
0.09
3
0.08
4
0.07
4
0.04
1
0.07
2
0.04
1
0.14
16
0.06
1
0.11
5
0.03
1
0.13
4
0.06
1
0.04
1
0.25
14
0.29
21
0.21
4
0.19
11
0.20
9
0.12
2
0.26
21
0.21
10
0.06
1
0.07
3
0.22
21
0.19
20
0.23
12
0.15
14
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
111111two views0.14
7
0.16
19
0.08
4
0.12
18
0.10
21
0.07
2
0.06
15
0.12
6
0.12
19
0.07
1
0.11
15
0.15
9
0.09
17
0.05
3
0.26
17
0.25
10
0.22
8
0.18
9
0.19
5
0.14
9
0.24
14
0.27
20
0.11
31
0.08
5
0.16
3
0.14
6
0.19
5
0.11
1
MM-Stereo_test3two views0.14
7
0.13
11
0.09
11
0.10
14
0.07
7
0.07
2
0.05
6
0.19
29
0.14
29
0.15
17
0.07
4
0.13
4
0.06
1
0.07
14
0.16
1
0.17
1
0.24
17
0.16
4
0.21
11
0.13
7
0.19
4
0.22
12
0.08
11
0.08
5
0.16
3
0.13
4
0.29
24
0.15
14
MM-Stereo_test1two views0.14
7
0.14
15
0.09
11
0.11
17
0.06
3
0.08
7
0.05
6
0.15
18
0.11
15
0.16
23
0.08
7
0.15
9
0.07
6
0.07
14
0.19
6
0.21
6
0.23
15
0.18
9
0.22
13
0.16
14
0.20
5
0.18
6
0.09
17
0.09
14
0.18
12
0.14
6
0.25
16
0.15
14
AIO-test1two views0.14
7
0.09
3
0.08
4
0.07
4
0.07
7
0.11
17
0.04
1
0.17
26
0.14
29
0.15
17
0.17
26
0.19
25
0.08
13
0.09
26
0.22
8
0.26
13
0.20
3
0.16
4
0.15
1
0.16
14
0.18
3
0.21
10
0.08
11
0.08
5
0.14
2
0.14
6
0.13
2
0.12
5
LG-Stereotwo views0.15
11
0.11
8
0.08
4
0.09
12
0.11
26
0.12
22
0.05
6
0.15
18
0.11
15
0.19
30
0.13
16
0.26
33
0.09
17
0.06
9
0.27
19
0.23
9
0.23
15
0.17
8
0.19
5
0.15
11
0.24
14
0.23
14
0.06
1
0.08
5
0.18
12
0.17
15
0.24
14
0.15
14
AIO-Stereopermissivetwo views0.15
11
0.17
22
0.12
25
0.17
40
0.10
21
0.12
22
0.06
15
0.11
2
0.08
7
0.10
3
0.15
19
0.13
4
0.09
17
0.08
21
0.24
13
0.25
10
0.21
4
0.21
22
0.21
11
0.19
24
0.23
12
0.28
24
0.08
11
0.12
26
0.17
6
0.15
9
0.24
14
0.12
5
ProNettwo views0.15
11
0.13
11
0.15
31
0.12
18
0.07
7
0.15
29
0.13
51
0.13
10
0.06
1
0.08
2
0.26
59
0.10
1
0.06
1
0.08
21
0.28
23
0.25
10
0.22
8
0.19
11
0.19
5
0.15
11
0.21
7
0.15
2
0.13
43
0.12
26
0.17
6
0.13
4
0.17
4
0.12
5
CroCo-Stereo Lap2two views0.15
11
0.10
6
0.08
4
0.08
8
0.08
13
0.08
7
0.05
6
0.12
6
0.06
1
0.22
37
0.07
4
0.16
11
0.07
6
0.05
3
0.22
8
0.29
21
0.22
8
0.20
16
0.26
25
0.12
2
0.29
30
0.22
12
0.06
1
0.09
14
0.24
27
0.23
35
0.20
7
0.16
19
MM-Stereo_test2two views0.16
15
0.20
30
0.11
20
0.15
30
0.11
26
0.08
7
0.05
6
0.14
16
0.11
15
0.20
31
0.09
9
0.13
4
0.09
17
0.09
26
0.23
11
0.27
16
0.25
21
0.20
16
0.20
9
0.20
30
0.26
21
0.29
25
0.11
31
0.10
17
0.17
6
0.15
9
0.21
8
0.16
19
GREAT-IGEVtwo views0.16
15
0.15
16
0.11
20
0.08
8
0.06
3
0.08
7
0.05
6
0.16
23
0.12
19
0.12
8
0.13
16
0.25
31
0.09
17
0.09
26
0.29
24
0.30
25
0.25
21
0.16
4
0.23
18
0.15
11
0.20
5
0.29
25
0.09
17
0.11
19
0.17
6
0.17
15
0.32
30
0.12
5
Utwo views0.16
15
0.12
9
0.09
11
0.06
1
0.06
3
0.09
11
0.04
1
0.16
23
0.06
1
0.15
17
0.04
2
0.18
22
0.07
6
0.05
3
0.25
14
0.31
29
0.26
25
0.24
29
0.27
28
0.18
21
0.29
30
0.26
17
0.06
1
0.08
5
0.29
32
0.23
35
0.23
12
0.20
27
RSMtwo views0.16
15
0.16
19
0.12
25
0.14
25
0.09
17
0.15
29
0.06
15
0.10
1
0.08
7
0.10
3
0.17
26
0.14
8
0.10
22
0.07
14
0.25
14
0.26
13
0.22
8
0.20
16
0.18
3
0.19
24
0.25
18
0.31
32
0.09
17
0.11
19
0.18
12
0.16
13
0.28
21
0.15
14
MoCha-V2two views0.16
15
0.15
16
0.11
20
0.12
18
0.09
17
0.11
17
0.09
35
0.13
10
0.08
7
0.13
12
0.19
32
0.17
17
0.07
6
0.07
14
0.22
8
0.28
18
0.21
4
0.20
16
0.25
23
0.17
19
0.30
33
0.27
20
0.08
11
0.09
14
0.20
17
0.17
15
0.15
3
0.11
1
GASTEREOtwo views0.17
20
0.16
19
0.10
14
0.14
25
0.10
21
0.11
17
0.07
20
0.12
6
0.15
34
0.14
14
0.09
9
0.18
22
0.11
28
0.06
9
0.35
32
0.30
25
0.24
17
0.20
16
0.23
18
0.17
19
0.24
14
0.31
32
0.12
37
0.11
19
0.20
17
0.21
25
0.29
24
0.14
10
MSCFtwo views0.17
20
0.15
16
0.10
14
0.14
25
0.09
17
0.11
17
0.07
20
0.11
2
0.15
34
0.15
17
0.09
9
0.17
17
0.11
28
0.07
14
0.34
29
0.30
25
0.24
17
0.20
16
0.23
18
0.16
14
0.25
18
0.30
30
0.11
31
0.11
19
0.19
16
0.21
25
0.28
21
0.14
10
MLG-Stereo_test2two views0.17
20
0.12
9
0.10
14
0.10
14
0.08
13
0.09
11
0.05
6
0.18
27
0.12
19
0.20
31
0.07
4
0.23
30
0.08
13
0.08
21
0.23
11
0.27
16
0.31
31
0.26
33
0.32
33
0.19
24
0.28
27
0.27
20
0.09
17
0.08
5
0.22
21
0.16
13
0.28
21
0.21
29
IGEV-Stereo++two views0.17
20
0.24
37
0.10
14
0.13
22
0.13
28
0.10
16
0.05
6
0.15
18
0.13
27
0.12
8
0.18
29
0.16
11
0.12
32
0.07
14
0.27
19
0.26
13
0.22
8
0.19
11
0.22
13
0.18
21
0.22
11
0.34
36
0.10
25
0.08
5
0.18
12
0.17
15
0.25
16
0.17
21
RAFTtwo views0.17
20
0.13
11
0.10
14
0.16
35
0.07
7
0.21
50
0.05
6
0.25
35
0.12
19
0.14
14
0.15
19
0.16
11
0.10
22
0.05
3
0.26
17
0.22
7
0.24
17
0.16
4
0.28
29
0.14
9
0.21
7
0.19
7
0.07
9
0.11
19
0.29
32
0.24
38
0.33
32
0.24
35
RSM++two views0.18
25
0.19
26
0.13
28
0.17
40
0.10
21
0.14
27
0.07
20
0.13
10
0.13
27
0.12
8
0.17
26
0.17
17
0.12
32
0.08
21
0.34
29
0.29
21
0.26
25
0.21
22
0.23
18
0.19
24
0.27
23
0.32
34
0.09
17
0.10
17
0.22
21
0.19
20
0.29
24
0.18
26
StereoVisiontwo views0.18
25
0.13
11
0.11
20
0.09
12
0.13
28
0.16
33
0.08
27
0.18
27
0.17
38
0.15
17
0.15
19
0.16
11
0.10
22
0.06
9
0.27
19
0.28
18
0.28
28
0.23
26
0.22
13
0.16
14
0.24
14
0.20
8
0.06
1
0.14
32
0.29
32
0.29
51
0.38
44
0.29
42
AdaDepthtwo views0.19
27
0.19
26
0.11
20
0.12
18
0.14
36
0.13
25
0.09
35
0.16
23
0.15
34
0.14
14
0.18
29
0.19
25
0.10
22
0.08
21
0.31
26
0.33
35
0.28
28
0.24
29
0.26
25
0.18
21
0.25
18
0.29
25
0.09
17
0.12
26
0.20
17
0.20
23
0.32
30
0.24
35
GIP-stereotwo views0.19
27
0.22
32
0.13
28
0.15
30
0.09
17
0.09
11
0.07
20
0.12
6
0.09
10
0.16
23
0.13
16
0.17
17
0.08
13
0.15
47
0.45
52
0.31
29
0.25
21
0.21
22
0.25
23
0.20
30
0.27
23
0.32
34
0.08
11
0.13
30
0.22
21
0.22
29
0.35
37
0.17
21
RAStereotwo views0.20
29
0.17
22
0.10
14
0.08
8
0.08
13
0.09
11
0.06
15
0.21
31
0.09
10
0.45
71
0.09
9
0.26
33
0.08
13
0.07
14
0.30
25
0.28
18
0.29
30
0.26
33
0.34
37
0.16
14
0.37
44
0.27
20
0.09
17
0.11
19
0.30
42
0.23
35
0.25
16
0.23
32
Occ-Gtwo views0.20
29
0.26
42
0.16
34
0.17
40
0.14
36
0.15
29
0.07
20
0.13
10
0.11
15
0.11
5
0.25
55
0.20
28
0.10
22
0.10
31
0.44
50
0.33
35
0.25
21
0.23
26
0.30
31
0.21
36
0.27
23
0.37
42
0.11
31
0.15
34
0.20
17
0.18
19
0.30
28
0.17
21
AEACVtwo views0.21
31
0.31
53
0.15
31
0.17
40
0.13
28
0.12
22
0.07
20
0.15
18
0.07
6
0.16
23
0.16
25
0.18
22
0.11
28
0.12
38
0.35
32
0.34
39
0.33
33
0.24
29
0.38
42
0.21
36
0.28
27
0.41
49
0.12
37
0.11
19
0.22
21
0.22
29
0.26
20
0.17
21
DEFOM-Stereotwo views0.23
32
0.19
26
0.12
25
0.18
45
0.13
28
0.21
50
0.08
27
0.19
29
0.14
29
0.16
23
0.24
51
0.22
29
0.10
22
0.12
38
0.36
36
0.35
43
0.35
40
0.29
41
0.33
34
0.24
46
0.33
35
0.29
25
0.13
43
0.12
26
0.29
32
0.22
29
0.49
64
0.29
42
MLG-Stereo_test3two views0.25
33
0.17
22
0.14
30
0.14
25
0.17
48
0.17
36
0.09
35
0.21
31
0.12
19
0.21
34
0.20
39
0.35
46
0.11
28
0.15
47
0.33
28
0.31
29
0.33
33
0.28
38
0.64
119
0.20
30
0.43
53
0.69
109
0.11
31
0.16
39
0.24
27
0.21
25
0.34
35
0.26
38
delettwo views0.25
33
0.25
40
0.23
71
0.25
77
0.20
60
0.29
92
0.16
77
0.22
33
0.18
40
0.23
39
0.26
59
0.27
36
0.16
45
0.26
138
0.35
32
0.31
29
0.32
32
0.27
36
0.24
22
0.24
46
0.32
34
0.25
16
0.17
68
0.21
57
0.30
42
0.26
43
0.33
32
0.31
48
AIO_rvctwo views0.26
35
0.34
59
0.16
34
0.19
47
0.15
41
0.19
44
0.11
44
0.39
51
0.22
55
0.30
44
0.15
19
0.32
41
0.13
35
0.19
69
0.37
39
0.34
39
0.34
38
0.23
26
0.40
44
0.22
41
0.44
57
0.61
96
0.14
49
0.15
34
0.30
42
0.22
29
0.33
32
0.21
29
TDLMtwo views0.26
35
0.31
53
0.23
71
0.23
66
0.28
105
0.24
72
0.20
107
0.26
36
0.22
55
0.18
29
0.55
156
0.31
39
0.23
77
0.17
60
0.27
19
0.32
34
0.33
33
0.29
41
0.26
25
0.23
43
0.29
30
0.26
17
0.16
61
0.22
60
0.25
29
0.22
29
0.29
24
0.30
45
LG-G_1two views0.27
37
0.22
32
0.19
48
0.23
66
0.23
69
0.23
60
0.13
51
0.28
39
0.12
19
0.21
34
0.21
42
0.35
46
0.15
42
0.18
63
0.39
43
0.35
43
0.36
43
0.32
54
0.52
70
0.27
62
0.40
47
0.52
68
0.10
25
0.15
34
0.29
32
0.24
38
0.37
42
0.34
55
LG-Gtwo views0.27
37
0.22
32
0.19
48
0.23
66
0.23
69
0.23
60
0.13
51
0.28
39
0.12
19
0.21
34
0.21
42
0.35
46
0.15
42
0.18
63
0.39
43
0.35
43
0.36
43
0.32
54
0.52
70
0.27
62
0.40
47
0.52
68
0.10
25
0.15
34
0.29
32
0.24
38
0.37
42
0.34
55
MaDis-Stereotwo views0.27
37
0.21
31
0.16
34
0.10
14
0.10
21
0.11
17
0.08
27
0.24
34
0.14
29
0.36
50
0.19
32
0.36
51
0.13
35
0.09
26
0.39
43
0.38
50
0.39
52
0.35
69
0.56
90
0.21
36
0.41
49
0.36
41
0.13
43
0.16
39
0.41
85
0.39
88
0.40
47
0.49
93
anonymousdsptwo views0.27
37
0.23
35
0.20
51
0.16
35
0.14
36
0.18
40
0.10
41
0.37
48
0.19
42
0.32
48
0.27
63
0.33
44
0.12
32
0.15
47
0.46
54
0.36
47
0.33
33
0.29
41
0.40
44
0.25
53
0.47
74
0.52
68
0.13
43
0.16
39
0.29
32
0.19
20
0.54
79
0.20
27
iRaftStereo_RVCtwo views0.27
37
0.27
44
0.17
39
0.14
25
0.14
36
0.19
44
0.10
41
0.44
62
0.14
29
0.36
50
0.36
88
0.32
41
0.16
45
0.13
40
0.32
27
0.30
25
0.38
48
0.29
41
0.35
39
0.23
43
0.42
50
0.52
68
0.12
37
0.19
49
0.29
32
0.28
49
0.42
51
0.27
40
LG-Stereo_L2two views0.28
42
0.31
53
0.18
42
0.13
22
0.13
28
0.14
27
0.08
27
0.42
58
0.21
51
0.48
84
0.23
49
0.40
62
0.14
37
0.17
60
0.46
54
0.42
63
0.40
57
0.29
41
0.41
47
0.21
36
0.46
65
0.44
56
0.10
25
0.15
34
0.31
46
0.22
29
0.34
35
0.33
53
LG-Stereo_L1two views0.28
42
0.30
49
0.18
42
0.13
22
0.13
28
0.15
29
0.08
27
0.41
53
0.21
51
0.49
92
0.21
42
0.40
62
0.15
42
0.16
52
0.44
50
0.44
70
0.39
52
0.29
41
0.40
44
0.20
30
0.47
74
0.42
51
0.09
17
0.16
39
0.33
56
0.21
25
0.38
44
0.35
58
LGtest1two views0.28
42
0.19
26
0.21
57
0.16
35
0.18
52
0.16
33
0.09
35
0.27
38
0.16
37
0.22
37
0.28
65
0.29
37
0.14
37
0.14
44
0.37
39
0.37
49
0.39
52
0.34
63
0.49
63
0.27
62
0.43
53
0.72
116
0.14
49
0.17
44
0.33
56
0.26
43
0.40
47
0.31
48
RAFT + AFFtwo views0.28
42
0.26
42
0.19
48
0.22
54
0.13
28
0.20
48
0.13
51
0.41
53
0.19
42
0.44
69
0.19
32
0.42
71
0.14
37
0.09
26
0.71
104
0.31
29
0.42
61
0.21
22
0.55
84
0.24
46
0.48
77
0.35
39
0.13
43
0.17
44
0.29
32
0.24
38
0.21
8
0.17
21
RYNettwo views0.28
42
0.23
35
0.18
42
0.15
30
0.17
48
0.19
44
0.13
51
0.26
36
0.32
133
0.17
28
0.20
39
0.19
25
0.14
37
0.14
44
0.66
94
0.29
21
0.27
27
0.42
109
0.29
30
0.19
24
0.28
27
0.23
14
0.29
172
0.19
49
0.28
30
1.19
234
0.35
37
0.23
32
AIO_testtwo views0.29
47
0.40
90
0.21
57
0.29
93
0.19
53
0.19
44
0.14
64
0.42
58
0.23
60
0.33
49
0.20
39
0.37
57
0.18
55
0.19
69
0.36
36
0.38
50
0.35
40
0.24
29
0.41
47
0.23
43
0.51
93
0.57
83
0.14
49
0.16
39
0.31
46
0.27
45
0.42
51
0.21
29
IGEV-Stereo+two views0.29
47
0.25
40
0.15
31
0.22
54
0.14
36
0.13
25
0.08
27
0.35
45
0.20
48
0.55
124
0.25
55
0.38
58
0.14
37
0.16
52
0.36
36
0.39
57
0.40
57
0.36
78
0.50
64
0.26
56
0.45
61
0.65
103
0.12
37
0.13
30
0.30
42
0.20
23
0.35
37
0.23
32
AASNettwo views0.29
47
0.34
59
0.23
71
0.25
77
0.26
92
0.34
112
0.26
133
0.33
43
0.17
38
0.29
43
0.39
97
0.26
33
0.18
55
0.25
125
0.40
46
0.34
39
0.35
40
0.32
54
0.33
34
0.28
65
0.36
41
0.34
36
0.17
68
0.24
73
0.31
46
0.29
51
0.36
41
0.25
37
AANet_RVCtwo views0.29
47
0.27
44
0.24
81
0.19
47
0.28
105
0.16
33
0.17
86
0.29
41
0.29
106
0.20
31
0.26
59
0.25
31
0.22
72
0.19
69
0.66
94
0.38
50
0.33
33
0.35
69
0.30
31
0.30
78
0.27
23
0.29
25
0.22
124
0.22
60
0.35
66
0.33
65
0.42
51
0.51
103
DFGA-Nettwo views0.30
51
0.37
75
0.17
39
0.26
82
0.15
41
0.23
60
0.16
77
0.40
52
0.21
51
0.41
58
0.25
55
0.31
39
0.17
49
0.13
40
0.49
58
0.42
63
0.40
57
0.30
50
0.43
54
0.21
36
0.38
45
0.39
45
0.14
49
0.23
65
0.33
56
0.28
49
0.52
68
0.29
42
UniTT-Stereotwo views0.30
51
0.27
44
0.16
34
0.15
30
0.13
28
0.18
40
0.09
35
0.35
45
0.19
42
0.49
92
0.24
51
0.41
65
0.18
55
0.15
47
0.51
62
0.42
63
0.43
63
0.35
69
0.58
98
0.26
56
0.46
65
0.37
42
0.14
49
0.20
53
0.34
63
0.41
91
0.31
29
0.37
62
MMNettwo views0.30
51
0.29
48
0.23
71
0.27
86
0.26
92
0.26
79
0.19
93
0.34
44
0.24
65
0.25
40
0.30
69
0.35
46
0.16
45
0.32
175
0.41
48
0.34
39
0.37
46
0.35
69
0.41
47
0.28
65
0.33
35
0.26
17
0.18
79
0.25
90
0.33
56
0.31
59
0.47
60
0.32
51
test_5two views0.31
54
0.39
86
0.17
39
0.23
66
0.15
41
0.21
50
0.14
64
0.54
92
0.20
48
0.39
56
0.41
100
0.44
78
0.35
153
0.10
31
0.53
65
0.39
57
0.34
38
0.32
54
0.34
37
0.22
41
0.33
35
0.47
60
0.10
25
0.23
65
0.29
32
0.30
53
0.52
68
0.31
48
YMNettwo views0.32
55
0.31
53
0.24
81
0.27
86
0.23
69
0.26
79
0.26
133
0.36
47
0.37
160
0.25
40
0.19
32
0.41
65
0.28
99
0.29
158
0.47
56
0.48
90
0.38
48
0.29
41
0.43
54
0.20
30
0.35
40
0.39
45
0.17
68
0.20
53
0.40
81
0.30
53
0.42
51
0.35
58
HUFtwo views0.32
55
0.34
59
0.22
59
0.22
54
0.21
64
0.20
48
0.11
44
0.51
80
0.22
55
0.42
60
0.19
32
0.35
46
0.23
77
0.19
69
0.50
59
0.50
100
0.39
52
0.27
36
0.58
98
0.29
72
0.54
112
0.63
99
0.17
68
0.19
49
0.32
50
0.24
38
0.40
47
0.28
41
MIF-Stereo (partial)two views0.32
55
0.44
114
0.18
42
0.16
35
0.16
46
0.21
50
0.12
48
0.37
48
0.23
60
0.37
54
0.24
51
0.33
44
0.17
49
0.14
44
0.50
59
0.48
90
0.47
77
0.38
87
0.43
54
0.26
56
0.46
65
0.47
60
0.18
79
0.22
60
0.40
81
0.32
61
0.51
67
0.43
82
RAFT_CTSACEtwo views0.32
55
0.38
79
0.16
34
0.15
30
0.15
41
0.25
77
0.18
89
0.53
87
0.20
48
0.55
124
0.19
32
0.44
78
0.28
99
0.16
52
0.37
39
0.33
35
0.38
48
0.28
38
0.38
42
0.19
24
0.39
46
0.85
142
0.11
31
0.18
46
0.32
50
0.30
53
0.62
106
0.26
38
IGEV-BASED-STEREO-two views0.33
59
0.24
37
0.18
42
0.23
66
0.19
53
0.18
40
0.09
35
0.49
78
0.25
70
0.54
118
0.21
42
0.32
41
0.17
49
0.17
60
0.35
32
0.43
68
0.45
67
0.36
78
0.51
66
0.29
72
0.57
120
0.95
156
0.13
43
0.14
32
0.33
56
0.27
45
0.46
57
0.30
45
plaintwo views0.33
59
0.44
114
0.20
51
0.20
51
0.16
46
0.21
50
0.11
44
0.41
53
0.19
42
0.48
84
0.19
32
0.36
51
0.17
49
0.10
31
0.54
66
0.48
90
0.46
71
0.40
93
0.55
84
0.25
53
0.45
61
0.52
68
0.14
49
0.22
60
0.36
68
0.33
65
0.39
46
0.47
87
HCRNettwo views0.33
59
0.39
86
0.20
51
0.39
139
0.17
48
0.29
92
0.19
93
0.41
53
0.19
42
0.80
249
0.41
100
0.49
94
0.18
55
0.22
92
0.42
49
0.33
35
0.38
48
0.30
50
0.41
47
0.20
30
0.34
38
0.30
30
0.19
89
0.18
46
0.28
30
0.36
80
0.53
77
0.30
45
AFF-stereotwo views0.33
59
0.35
68
0.28
93
0.18
45
0.17
48
0.34
112
0.12
48
0.50
79
0.24
65
0.46
74
0.29
66
0.42
71
0.17
49
0.13
40
0.61
87
0.38
50
0.39
52
0.26
33
0.59
103
0.24
46
0.44
57
0.43
53
0.17
68
0.18
46
0.41
85
0.37
81
0.50
65
0.32
51
SGD-Stereotwo views0.34
63
0.24
37
0.18
42
0.16
35
0.15
41
0.22
57
0.08
27
0.29
41
0.22
55
0.30
44
0.15
19
0.45
83
0.21
71
0.10
31
1.53
222
0.50
100
0.47
77
0.28
38
0.48
60
0.24
46
0.42
50
0.56
80
0.19
89
0.19
49
0.31
46
0.34
69
0.46
57
0.39
70
MIM_Stereotwo views0.34
63
0.41
98
0.27
92
0.28
88
0.20
60
0.28
87
0.15
71
0.45
67
0.18
40
0.48
84
0.29
66
0.42
71
0.19
60
0.16
52
0.50
59
0.54
130
0.45
67
0.37
81
0.48
60
0.31
81
0.48
77
0.57
83
0.12
37
0.24
73
0.32
50
0.27
45
0.48
61
0.33
53
DMCAtwo views0.34
63
0.31
53
0.31
104
0.24
72
0.25
81
0.28
87
0.22
111
0.37
48
0.33
141
0.31
46
0.41
100
0.41
65
0.24
82
0.25
125
0.51
62
0.41
61
0.41
60
0.39
89
0.37
41
0.29
72
0.42
50
0.37
42
0.27
161
0.27
105
0.32
50
0.35
72
0.41
50
0.38
64
CVANet_RVCtwo views0.34
63
0.41
98
0.32
106
0.41
151
0.31
124
0.38
131
0.25
128
0.44
62
0.27
88
0.31
46
0.71
201
0.38
58
0.30
108
0.21
87
0.34
29
0.38
50
0.36
43
0.33
59
0.33
34
0.28
65
0.36
41
0.34
36
0.19
89
0.26
94
0.33
56
0.27
45
0.35
37
0.37
62
S2M2_XLtwo views0.35
67
0.30
49
0.32
106
0.17
40
0.19
53
0.23
60
0.21
108
0.53
87
0.26
82
0.47
77
0.26
59
0.48
87
0.18
55
0.23
101
0.60
85
0.40
60
0.54
121
0.29
41
0.42
51
0.28
65
0.50
88
0.45
58
0.21
116
0.21
57
0.36
68
0.32
61
0.46
57
0.51
103
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
RAFT+CT+SAtwo views0.35
67
0.47
140
0.20
51
0.26
82
0.19
53
0.22
57
0.15
71
0.58
113
0.23
60
0.52
106
0.18
29
0.48
87
0.34
143
0.13
40
0.40
46
0.46
80
0.37
46
0.31
52
0.46
58
0.24
46
0.47
74
0.79
123
0.10
25
0.23
65
0.33
56
0.32
61
0.54
79
0.35
58
GANettwo views0.35
67
0.30
49
0.28
93
0.35
126
0.35
138
0.40
136
0.31
157
0.46
69
0.25
70
0.36
50
0.51
143
0.48
87
0.25
89
0.23
101
0.38
42
0.35
43
0.42
61
0.45
131
0.35
39
0.24
46
0.34
38
0.39
45
0.24
144
0.26
94
0.34
63
0.30
53
0.43
55
0.36
61
DEFOM-Stereo_RVCtwo views0.36
70
0.36
73
0.22
59
0.23
66
0.20
60
0.17
36
0.10
41
0.48
75
0.23
60
0.55
124
0.32
71
0.40
62
0.19
60
0.16
52
0.59
81
0.45
73
0.48
84
0.33
59
0.51
66
0.29
72
0.51
93
0.85
142
0.17
68
0.20
53
0.32
50
0.31
59
0.48
61
0.52
106
test_4two views0.36
70
0.34
59
0.29
96
0.21
52
0.19
53
0.17
36
0.11
44
0.59
117
0.26
82
0.58
150
0.30
69
0.51
102
0.20
63
0.19
69
0.45
52
0.58
142
0.46
71
0.34
63
0.42
51
0.30
78
0.46
65
0.58
86
0.17
68
0.26
94
0.41
85
0.40
90
0.60
98
0.42
80
ARAFTtwo views0.36
70
0.38
79
0.24
81
0.26
82
0.21
64
0.28
87
0.14
64
0.44
62
0.24
65
0.50
94
0.29
66
0.41
65
0.17
49
0.16
52
0.60
85
0.45
73
0.51
97
0.47
147
0.53
72
0.25
53
0.55
113
0.59
90
0.16
61
0.20
53
0.47
98
0.30
53
0.54
79
0.38
64
MGS-Stereotwo views0.37
73
0.46
127
0.22
59
0.22
54
0.19
53
0.23
60
0.16
77
0.45
67
0.19
42
0.36
50
0.27
63
0.30
38
0.20
63
0.23
101
1.20
187
0.45
73
0.53
112
0.45
131
0.56
90
0.34
88
0.51
93
0.54
77
0.22
124
0.24
73
0.35
66
0.30
53
0.48
61
0.44
84
LL-Strereo2two views0.38
74
0.30
49
0.23
71
0.24
72
0.20
60
0.18
40
0.13
51
0.63
153
0.27
88
0.58
150
0.23
49
0.44
78
0.22
72
0.15
47
0.47
56
0.51
108
0.48
84
0.35
69
0.73
138
0.32
82
0.49
84
1.24
173
0.22
124
0.21
57
0.34
63
0.35
72
0.53
77
0.34
55
TESTrafttwo views0.38
74
0.46
127
0.22
59
0.21
52
0.23
69
0.22
57
0.17
86
0.54
92
0.31
125
0.51
99
0.22
48
0.36
51
0.37
168
0.11
35
0.94
147
0.51
108
0.45
67
0.32
54
0.48
60
0.26
56
0.46
65
0.90
148
0.12
37
0.24
73
0.38
78
0.42
93
0.58
87
0.38
64
raft+_RVCtwo views0.38
74
0.35
68
0.28
93
0.25
77
0.23
69
0.26
79
0.18
89
0.54
92
0.27
88
0.52
106
0.43
110
0.47
86
0.23
77
0.18
63
0.59
81
0.53
122
0.44
65
0.35
69
0.63
116
0.28
65
0.44
57
0.53
75
0.14
49
0.22
60
0.43
91
0.38
83
0.59
89
0.42
80
RAFT-Stereo + iAFFtwo views0.39
77
0.41
98
0.36
120
0.24
72
0.19
53
0.30
99
0.14
64
0.58
113
0.25
70
0.46
74
0.36
88
0.50
99
0.19
60
0.16
52
0.93
141
0.38
50
0.43
63
0.29
41
0.66
122
0.30
78
0.50
88
0.59
90
0.20
99
0.23
65
0.54
122
0.37
81
0.60
98
0.43
82
CAStwo views0.40
78
0.45
121
0.26
90
0.29
93
0.29
112
0.23
60
0.14
64
0.41
53
0.27
88
0.41
58
0.57
160
0.36
51
0.36
159
0.21
87
0.59
81
0.42
63
0.50
91
0.34
63
0.54
77
0.28
65
0.46
65
0.58
86
0.19
89
0.23
65
0.55
126
0.51
121
0.63
110
0.76
176
TestStereo1two views0.40
78
0.51
172
0.20
51
0.22
54
0.23
69
0.24
72
0.16
77
0.55
99
0.30
112
0.52
106
0.21
42
0.36
51
0.41
178
0.11
35
0.98
158
0.52
114
0.46
71
0.33
59
0.54
77
0.26
56
0.53
108
0.82
130
0.15
56
0.23
65
0.38
78
0.43
95
0.61
103
0.39
70
SA-5Ktwo views0.40
78
0.51
172
0.20
51
0.22
54
0.23
69
0.24
72
0.16
77
0.55
99
0.30
112
0.52
106
0.21
42
0.36
51
0.41
178
0.11
35
0.98
158
0.52
114
0.46
71
0.33
59
0.54
77
0.26
56
0.53
108
0.82
130
0.15
56
0.23
65
0.38
78
0.43
95
0.61
103
0.39
70
UPFNettwo views0.40
78
0.34
59
0.36
120
0.33
114
0.33
131
0.40
136
0.30
150
0.48
75
0.34
147
0.43
62
0.42
106
0.41
65
0.31
118
0.34
183
0.66
94
0.42
63
0.47
77
0.41
105
0.53
72
0.37
115
0.36
41
0.39
45
0.26
154
0.29
113
0.41
85
0.41
91
0.56
85
0.38
64
HITNettwo views0.40
78
0.37
75
0.29
96
0.34
118
0.28
105
0.27
84
0.19
93
0.57
108
0.32
133
0.57
137
0.44
116
0.55
118
0.32
126
0.22
92
0.61
87
0.36
47
0.44
65
0.39
89
0.42
51
0.29
72
0.43
53
0.52
68
0.20
99
0.27
105
0.41
85
0.39
88
0.72
141
0.55
115
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IERtwo views0.42
83
0.38
79
0.32
106
0.30
101
0.28
105
0.36
124
0.25
128
0.47
73
0.28
95
0.44
69
0.60
169
0.79
178
0.30
108
0.35
186
0.65
92
0.46
80
0.48
84
0.42
109
0.45
57
0.36
100
0.43
53
0.46
59
0.28
167
0.28
110
0.41
85
0.56
136
0.55
83
0.51
103
S2M2_Ltwo views0.43
84
0.42
101
0.47
168
0.24
72
0.27
101
0.35
121
0.22
111
0.51
80
0.25
70
0.61
165
0.24
51
0.43
74
0.22
72
0.32
175
0.84
128
0.50
100
0.56
132
0.36
78
0.54
77
0.34
88
0.57
120
0.48
62
0.28
167
0.27
105
0.46
96
0.70
159
0.63
110
0.65
144
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
anonymousdsp2two views0.43
84
0.47
140
0.33
112
0.25
77
0.24
77
0.33
105
0.19
93
0.57
108
0.23
60
0.47
77
0.48
125
0.48
87
0.24
82
0.18
63
0.58
70
0.46
80
0.45
67
0.34
63
0.89
164
0.34
88
0.50
88
1.27
175
0.17
68
0.25
90
0.44
93
0.33
65
0.62
106
0.44
84
SAtwo views0.43
84
0.48
151
0.22
59
0.25
77
0.24
77
0.31
102
0.13
51
0.64
160
0.33
141
0.62
173
0.25
55
0.54
112
0.22
72
0.16
52
0.78
114
0.50
100
0.53
112
0.41
105
0.63
116
0.29
72
0.48
77
0.80
125
0.15
56
0.29
113
0.46
96
0.56
136
0.96
198
0.47
87
GMStereopermissivetwo views0.43
84
0.48
151
0.26
90
0.32
111
0.32
129
0.38
131
0.30
150
0.59
117
0.31
125
0.45
71
0.37
92
0.62
139
0.33
134
0.24
116
0.54
66
0.45
73
0.55
124
0.35
69
0.75
142
0.39
126
0.55
113
0.43
53
0.23
135
0.29
113
0.51
109
0.47
110
0.71
136
0.41
75
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
G2L-Stereotwo views0.44
88
0.40
90
0.29
96
0.35
126
0.40
164
0.34
112
0.23
117
0.53
87
0.34
147
0.52
106
0.62
173
0.51
102
0.38
171
0.26
138
0.73
108
0.48
90
0.51
97
0.40
93
0.47
59
0.34
88
0.46
65
0.44
56
0.29
172
0.29
113
0.52
114
0.67
153
0.70
131
0.49
93
Former-RAFT_DAM_RVCtwo views0.44
88
0.33
58
0.31
104
0.29
93
0.25
81
0.26
79
0.16
77
0.55
99
0.40
175
0.55
124
0.50
137
0.49
94
0.27
96
0.23
101
0.80
117
0.47
85
0.52
108
0.41
105
0.54
77
0.38
119
0.48
77
0.85
142
0.17
68
0.24
73
0.52
114
0.85
191
0.44
56
0.56
117
CASnettwo views0.44
88
0.53
188
0.25
86
0.28
88
0.28
105
0.30
99
0.14
64
0.62
148
0.30
112
0.61
165
0.43
110
0.64
147
0.29
104
0.24
116
0.91
138
0.39
57
0.47
77
0.31
52
0.76
146
0.28
65
0.68
156
0.74
119
0.21
116
0.26
94
0.44
93
0.34
69
0.62
106
0.56
117
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
4D-IteraStereotwo views0.45
91
0.28
47
0.36
120
0.34
118
0.24
77
0.25
77
0.15
71
0.63
153
0.28
95
0.61
165
0.38
95
0.52
106
0.23
77
0.23
101
0.66
94
0.62
157
0.50
91
0.43
116
0.66
122
0.35
97
0.71
163
1.31
177
0.15
56
0.24
73
0.44
93
0.49
116
0.65
117
0.38
64
CIPLGtwo views0.45
91
0.47
140
0.25
86
0.32
111
0.22
66
0.33
105
0.19
93
0.63
153
0.26
82
0.55
124
0.50
137
0.61
136
0.32
126
0.42
206
0.94
147
0.50
100
0.53
112
0.37
81
0.58
98
0.40
134
0.58
126
0.91
149
0.20
99
0.26
94
0.49
102
0.32
61
0.59
89
0.38
64
IPLGR_Ctwo views0.45
91
0.47
140
0.24
81
0.31
108
0.22
66
0.33
105
0.19
93
0.63
153
0.25
70
0.55
124
0.50
137
0.62
139
0.33
134
0.42
206
0.85
130
0.51
108
0.53
112
0.37
81
0.57
95
0.40
134
0.58
126
0.89
146
0.20
99
0.26
94
0.48
99
0.34
69
0.60
98
0.39
70
ACREtwo views0.45
91
0.47
140
0.24
81
0.33
114
0.22
66
0.34
112
0.19
93
0.63
153
0.25
70
0.55
124
0.50
137
0.61
136
0.32
126
0.42
206
0.94
147
0.51
108
0.53
112
0.37
81
0.57
95
0.41
142
0.59
131
0.91
149
0.20
99
0.26
94
0.48
99
0.33
65
0.59
89
0.39
70
rafts_anoytwo views0.45
91
0.52
180
0.39
130
0.29
93
0.30
117
0.34
112
0.23
117
0.59
117
0.28
95
0.51
99
0.54
151
0.49
94
0.24
82
0.18
63
0.78
114
0.60
150
0.52
108
0.50
169
0.61
113
0.36
100
0.52
98
0.71
113
0.20
99
0.30
119
0.56
131
0.46
108
0.54
79
0.52
106
UNettwo views0.45
91
0.43
110
0.41
148
0.38
136
0.37
148
0.41
143
0.29
146
0.58
113
0.36
156
0.50
94
0.49
130
0.48
87
0.34
143
0.38
196
0.56
68
0.49
96
0.54
121
0.46
140
0.58
98
0.41
142
0.49
84
0.50
64
0.28
167
0.36
162
0.48
99
0.49
116
0.59
89
0.56
117
HGLStereotwo views0.45
91
0.43
110
0.39
130
0.35
126
0.37
148
0.40
136
0.24
125
0.48
75
0.32
133
0.47
77
0.74
210
0.43
74
0.30
108
0.32
175
0.56
68
0.53
122
0.57
137
0.51
176
0.56
90
0.40
134
0.52
98
0.60
93
0.23
135
0.35
156
0.53
118
0.54
128
0.60
98
0.45
86
RASNettwo views0.45
91
0.45
121
0.45
161
0.33
114
0.34
134
0.38
131
0.28
139
0.58
113
0.38
167
0.47
77
0.43
110
0.49
94
0.35
153
0.26
138
0.52
64
0.45
73
0.49
89
0.40
93
0.50
64
0.32
82
0.51
93
0.68
108
0.20
99
0.47
199
0.43
91
0.55
134
0.77
151
0.70
158
LoS_RVCtwo views0.46
99
0.46
127
0.47
168
0.19
47
0.25
81
0.24
72
0.16
77
0.44
62
0.28
95
0.51
99
0.49
130
0.43
74
0.33
134
0.22
92
0.71
104
0.52
114
0.46
71
0.42
109
0.75
142
0.33
85
0.99
204
0.97
158
0.20
99
0.33
140
0.63
159
0.45
101
0.59
89
0.61
133
tt_lltwo views0.46
99
0.46
127
0.47
168
0.19
47
0.25
81
0.24
72
0.16
77
0.44
62
0.28
95
0.51
99
0.49
130
0.43
74
0.33
134
0.22
92
0.71
104
0.52
114
0.46
71
0.42
109
0.75
142
0.33
85
0.99
204
0.97
158
0.20
99
0.33
140
0.63
159
0.45
101
0.59
89
0.61
133
RALCasStereoNettwo views0.46
99
0.51
172
0.39
130
0.36
133
0.30
117
0.32
103
0.25
128
0.60
123
0.26
82
0.56
135
0.48
125
0.59
128
0.26
91
0.18
63
0.73
108
0.63
163
0.55
124
0.49
161
0.53
72
0.37
115
0.52
98
0.78
122
0.22
124
0.34
146
0.55
126
0.48
113
0.50
65
0.58
126
DMCA-RVCcopylefttwo views0.46
99
0.37
75
0.36
120
0.34
118
0.38
155
0.33
105
0.45
184
0.47
73
0.55
210
0.43
62
0.48
125
0.69
157
0.34
143
0.29
158
0.84
128
0.49
96
0.48
84
0.45
131
0.51
66
0.40
134
0.51
93
0.56
80
0.30
176
0.33
140
0.40
81
0.42
93
0.59
89
0.61
133
trnettwo views0.47
103
0.52
180
0.43
156
0.35
126
0.26
92
0.28
87
0.15
71
0.61
129
0.31
125
0.60
158
0.43
110
0.74
169
0.36
159
0.25
125
0.71
104
0.63
163
0.59
152
0.35
69
0.53
72
0.34
88
0.60
134
0.60
93
0.18
79
0.31
124
0.57
137
0.62
141
0.66
120
0.70
158
CEStwo views0.47
103
0.35
68
0.32
106
0.28
88
0.27
101
0.30
99
0.12
48
1.04
262
0.28
95
0.54
118
0.69
198
0.53
111
0.25
89
0.23
101
0.80
117
0.67
177
0.59
152
0.38
87
0.57
95
0.36
100
0.85
192
0.63
99
0.23
135
0.25
90
0.59
141
0.43
95
0.60
98
0.67
148
CREStereo++_RVCtwo views0.47
103
0.43
110
0.47
168
0.31
108
0.34
134
0.27
84
0.19
93
0.56
103
0.32
133
0.58
150
0.40
99
0.58
124
0.58
216
0.23
101
0.81
121
0.53
122
0.62
177
0.34
63
0.55
84
0.32
82
0.58
126
0.56
80
0.16
61
0.29
113
0.53
118
0.64
146
0.85
174
0.68
152
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TestStereotwo views0.47
103
0.52
180
0.41
148
0.43
157
0.31
124
0.45
156
0.26
133
0.70
193
0.28
95
0.76
242
0.34
85
0.65
149
0.32
126
0.24
116
0.59
81
0.38
50
0.55
124
0.34
63
0.81
155
0.38
119
0.64
148
0.50
64
0.25
152
0.32
130
0.54
122
0.45
101
0.76
150
0.55
115
RALAANettwo views0.47
103
0.42
101
0.40
137
0.29
93
0.29
112
0.34
112
0.25
128
0.54
92
0.28
95
0.48
84
0.49
130
0.44
78
0.26
91
0.20
81
0.77
113
0.48
90
0.50
91
0.50
169
0.77
149
0.46
157
0.61
139
1.20
168
0.22
124
0.33
140
0.50
105
0.44
99
0.71
136
0.47
87
CREStereotwo views0.47
103
0.52
180
0.44
159
0.35
126
0.26
92
0.29
92
0.15
71
0.61
129
0.31
125
0.58
150
0.43
110
0.72
163
0.36
159
0.25
125
0.74
112
0.65
174
0.60
160
0.35
69
0.53
72
0.34
88
0.61
139
0.60
93
0.19
89
0.31
124
0.57
137
0.62
141
0.65
117
0.70
158
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
DSFCAtwo views0.47
103
0.50
164
0.40
137
0.40
145
0.37
148
0.45
156
0.34
162
0.46
69
0.40
175
0.40
57
0.58
163
0.50
99
0.30
108
0.25
125
0.66
94
0.50
100
0.50
91
0.49
161
0.65
120
0.40
134
0.52
98
0.65
103
0.33
188
0.39
176
0.51
109
0.51
121
0.63
110
0.58
126
CFNettwo views0.47
103
0.45
121
0.35
116
0.49
173
0.40
164
0.40
136
0.33
159
0.53
87
0.33
141
0.48
84
0.49
130
0.69
157
0.43
184
0.31
168
0.68
100
0.41
61
0.49
89
0.43
116
0.54
77
0.35
97
0.49
84
0.41
49
0.24
144
0.32
130
0.64
164
0.64
146
0.73
145
0.70
158
DISCOtwo views0.47
103
0.44
114
0.30
101
0.40
145
0.38
155
0.50
173
0.45
184
0.46
69
0.43
189
0.50
94
0.59
166
0.41
65
0.30
108
0.30
164
0.70
103
0.45
73
0.55
124
0.47
147
0.71
136
0.42
149
0.50
88
0.58
86
0.27
161
0.34
146
0.49
102
0.49
116
0.63
110
0.53
109
coex_refinementtwo views0.48
112
0.43
110
0.34
114
0.35
126
0.35
138
0.45
156
0.24
125
0.56
103
0.50
203
0.50
94
0.63
175
0.55
118
0.29
104
0.29
158
0.89
136
0.49
96
0.51
97
0.44
123
0.56
90
0.34
88
0.48
77
0.43
53
0.29
172
0.33
140
0.53
118
0.59
138
0.70
131
0.78
178
GMOStereotwo views0.48
112
0.40
90
0.23
71
0.30
101
0.26
92
0.29
92
0.19
93
0.67
172
0.30
112
0.66
203
0.33
80
0.54
112
0.34
143
0.20
81
0.58
70
0.69
193
0.51
97
0.44
123
0.69
127
0.36
100
0.52
98
1.87
201
0.16
61
0.24
73
0.62
153
0.45
101
0.83
166
0.41
75
error versiontwo views0.48
112
0.40
90
0.23
71
0.30
101
0.26
92
0.29
92
0.19
93
0.67
172
0.30
112
0.66
203
0.33
80
0.54
112
0.34
143
0.20
81
0.58
70
0.69
193
0.51
97
0.44
123
0.69
127
0.36
100
0.52
98
1.87
201
0.16
61
0.24
73
0.62
153
0.45
101
0.83
166
0.41
75
test-vtwo views0.48
112
0.40
90
0.23
71
0.30
101
0.26
92
0.29
92
0.19
93
0.67
172
0.30
112
0.66
203
0.33
80
0.54
112
0.34
143
0.20
81
0.58
70
0.69
193
0.51
97
0.44
123
0.69
127
0.36
100
0.52
98
1.87
201
0.16
61
0.24
73
0.62
153
0.45
101
0.83
166
0.41
75
test-2two views0.48
112
0.40
90
0.23
71
0.30
101
0.26
92
0.29
92
0.19
93
0.67
172
0.30
112
0.66
203
0.33
80
0.54
112
0.34
143
0.20
81
0.58
70
0.69
193
0.51
97
0.44
123
0.69
127
0.36
100
0.52
98
1.87
201
0.16
61
0.24
73
0.62
153
0.45
101
0.83
166
0.41
75
raftrobusttwo views0.48
112
0.34
59
0.40
137
0.28
88
0.28
105
0.28
87
0.18
89
0.63
153
0.26
82
0.63
181
0.53
149
0.52
106
0.27
96
0.22
92
0.93
141
0.70
198
0.51
97
0.42
109
1.06
181
0.39
126
0.55
113
0.86
145
0.21
116
0.26
94
0.61
151
0.53
127
0.56
85
0.52
106
ADLNettwo views0.48
112
0.53
188
0.38
126
0.41
151
0.41
170
0.45
156
0.40
176
0.54
92
0.36
156
0.45
71
0.54
151
0.77
175
0.37
168
0.62
256
0.73
108
0.44
70
0.50
91
0.43
116
0.51
66
0.38
119
0.44
57
0.59
90
0.35
192
0.28
110
0.51
109
0.59
138
0.58
87
0.48
90
GLC_STEREOtwo views0.49
119
0.52
180
0.43
156
0.39
139
0.38
155
0.37
127
0.29
146
0.64
160
0.29
106
0.62
173
0.54
151
0.56
120
0.29
104
0.30
164
0.63
90
0.51
108
0.67
198
0.42
109
0.69
127
0.42
149
0.72
166
0.72
116
0.23
135
0.32
130
0.49
102
0.38
83
0.84
170
0.53
109
ddtwo views0.51
120
0.51
172
0.29
96
0.91
243
0.32
129
0.66
214
0.30
150
0.60
123
0.24
65
0.54
118
0.32
71
0.77
175
0.28
99
0.27
148
0.88
133
0.50
100
0.75
222
0.40
93
1.07
182
0.38
119
0.50
88
0.49
63
0.24
144
0.32
130
0.56
131
0.43
95
0.75
148
0.57
123
IPLGtwo views0.51
120
0.46
127
0.33
112
0.28
88
0.27
101
0.33
105
0.22
111
0.62
148
0.22
55
0.51
99
0.41
100
0.57
121
0.31
118
0.32
175
1.55
224
0.48
90
0.57
137
0.49
161
0.56
90
0.41
142
0.45
61
1.52
190
0.19
89
0.31
124
0.50
105
0.83
185
0.66
120
0.50
102
PDISCO_ROBtwo views0.51
120
0.40
90
0.40
137
0.39
139
0.35
138
0.40
136
0.30
150
0.51
80
0.35
150
0.37
54
0.51
143
0.51
102
0.35
153
0.31
168
0.82
126
0.60
150
0.56
132
0.69
241
0.60
105
0.48
168
0.69
158
0.98
160
0.26
154
0.37
166
0.59
141
0.55
134
0.86
178
0.61
133
castereo++two views0.52
123
0.36
73
0.37
124
0.43
157
0.24
77
0.21
50
0.17
86
0.59
117
0.30
112
0.63
181
0.38
95
0.74
169
0.23
77
0.22
92
0.78
114
0.68
187
0.58
142
0.42
109
0.67
126
0.36
100
0.84
190
1.89
207
0.21
116
0.31
124
0.55
126
0.70
159
0.77
151
0.48
90
LMCR-Stereopermissivemany views0.52
123
0.46
127
0.35
116
0.32
111
0.33
131
0.44
154
0.24
125
0.57
108
0.38
167
0.55
124
0.47
123
0.66
151
0.40
174
0.27
148
0.85
130
0.53
122
0.63
185
0.49
161
1.13
186
0.57
190
0.71
163
0.75
120
0.26
154
0.35
156
0.51
109
0.52
123
0.64
115
0.68
152
iResNet_ROBtwo views0.52
123
0.49
156
0.44
159
0.42
156
0.31
124
0.43
152
0.35
164
0.60
123
0.34
147
0.52
106
0.60
169
0.48
87
0.58
216
0.25
125
0.87
132
0.53
122
0.58
142
0.50
169
1.23
193
0.39
126
0.52
98
0.42
51
0.26
154
0.44
190
0.59
141
0.54
128
0.80
159
0.64
142
raft_robusttwo views0.53
126
0.44
114
0.25
86
0.38
136
0.30
117
0.33
105
0.22
111
0.73
208
0.36
156
0.69
220
0.34
85
0.57
121
0.31
118
0.24
116
0.69
101
0.58
142
0.55
124
0.47
147
1.05
180
0.39
126
0.77
182
1.44
184
0.24
144
0.30
119
0.59
141
0.71
163
0.70
131
0.59
129
CFNet_pseudotwo views0.54
127
0.44
114
0.46
166
0.54
191
0.43
174
0.54
184
0.35
164
0.62
148
0.36
156
0.61
165
0.64
182
0.58
124
0.55
213
0.36
189
1.26
199
0.56
137
0.51
97
0.47
147
0.69
127
0.37
115
0.49
84
0.54
77
0.27
161
0.35
156
0.58
139
0.60
140
0.69
130
0.75
173
PMTNettwo views0.54
127
0.49
156
0.48
173
0.31
108
0.30
117
0.27
84
0.23
117
0.54
92
0.30
112
0.57
137
0.42
106
0.60
132
0.24
82
0.23
101
1.51
220
0.62
157
0.58
142
0.37
81
1.17
190
0.34
88
0.76
179
0.62
97
0.20
99
0.23
65
0.81
209
0.70
159
0.67
124
0.92
192
NLCA_NET_v2_RVCtwo views0.54
127
0.53
188
0.50
181
0.44
161
0.58
211
0.42
147
0.65
220
0.56
103
0.62
224
0.52
106
0.51
143
0.67
152
0.38
171
0.58
252
1.16
182
0.44
70
0.48
84
0.43
116
0.58
98
0.40
134
0.46
65
0.51
66
0.31
181
0.34
146
0.50
105
0.77
176
0.63
110
0.64
142
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
iResNetv2_ROBtwo views0.54
127
0.46
127
0.34
114
0.48
171
0.39
161
0.50
173
0.30
150
0.65
165
0.35
150
0.52
106
0.66
190
0.72
163
0.56
215
0.28
153
0.73
108
0.52
114
0.51
97
0.47
147
1.17
190
0.48
168
0.69
158
0.54
77
0.30
176
0.45
193
0.58
139
0.54
128
0.81
161
0.57
123
Sa-1000two views0.55
131
0.48
151
0.23
71
0.26
82
0.27
101
0.32
103
0.16
77
0.65
165
0.37
160
0.63
181
0.33
80
0.51
102
0.28
99
0.30
164
1.16
182
0.53
122
0.60
160
0.45
131
0.92
168
0.33
85
0.56
118
2.21
216
0.18
79
0.30
119
0.74
185
0.52
123
1.00
206
0.48
90
CFNet_RVCtwo views0.55
131
0.52
180
0.49
174
0.50
177
0.49
190
0.49
170
0.33
159
0.52
83
0.38
167
0.51
99
0.68
195
0.58
124
0.35
153
0.31
168
1.18
186
0.49
96
0.52
108
0.48
154
0.60
105
0.44
153
0.60
134
0.62
97
0.28
167
0.39
176
0.68
175
0.74
168
0.84
170
0.74
169
castereotwo views0.56
133
0.37
75
0.40
137
0.34
118
0.26
92
0.26
79
0.18
89
0.56
103
0.29
106
0.60
158
0.46
122
0.69
157
0.22
72
0.20
81
0.95
151
0.71
202
0.61
170
0.39
89
0.94
171
0.37
115
1.06
209
2.50
224
0.20
99
0.27
105
0.63
159
0.62
141
0.59
89
0.57
123
AF-Nettwo views0.56
133
0.50
164
0.45
161
0.50
177
0.54
202
0.62
205
0.60
207
0.61
129
0.56
212
0.43
62
0.65
184
0.87
198
0.42
181
0.41
201
0.81
121
0.47
85
0.47
77
0.44
123
0.61
113
0.41
142
0.48
77
0.70
111
0.42
211
0.41
181
0.56
131
0.64
146
0.85
174
0.72
165
Nwc_Nettwo views0.56
133
0.50
164
0.45
161
0.50
177
0.54
202
0.62
205
0.60
207
0.61
129
0.56
212
0.43
62
0.65
184
0.87
198
0.42
181
0.41
201
0.81
121
0.47
85
0.47
77
0.44
123
0.61
113
0.41
142
0.48
77
0.70
111
0.42
211
0.41
181
0.56
131
0.64
146
0.85
174
0.72
165
NVstereo2Dtwo views0.56
133
0.48
151
0.43
156
0.52
185
0.49
190
0.66
214
0.65
220
0.61
129
0.40
175
0.48
84
0.59
166
0.54
112
0.31
118
0.64
258
1.34
204
0.63
163
0.59
152
0.56
201
0.55
84
0.42
149
0.53
108
0.52
68
0.55
245
0.47
199
0.65
168
0.52
123
0.59
89
0.53
109
DLCB_ROBtwo views0.56
133
0.51
172
0.49
174
0.41
151
0.46
183
0.45
156
0.43
182
0.56
103
0.46
196
0.57
137
0.62
173
0.71
162
0.54
209
0.41
201
0.80
117
0.53
122
0.58
142
0.49
161
0.54
77
0.45
156
0.59
131
0.71
113
0.39
205
0.44
190
0.99
242
0.79
180
0.72
141
0.62
138
DN-CSS_ROBtwo views0.56
133
0.44
114
0.49
174
0.41
151
0.40
164
0.35
121
0.22
111
0.69
186
0.35
150
0.59
155
0.77
213
0.67
152
0.49
200
0.24
116
0.90
137
0.43
68
0.60
160
0.43
116
1.77
214
0.40
134
0.85
192
0.58
86
0.32
183
0.51
212
0.55
126
0.46
108
0.67
124
0.54
114
LoStwo views0.57
139
0.45
121
0.30
101
0.37
134
0.37
148
0.41
143
0.22
111
1.37
279
0.32
133
0.86
262
0.79
216
0.68
154
0.40
174
0.24
116
0.66
94
0.75
214
0.60
160
0.41
105
0.79
153
0.38
119
1.05
208
0.83
140
0.22
124
0.26
94
0.82
214
0.64
146
0.66
120
0.68
152
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
MIPNettwo views0.57
139
0.51
172
0.35
116
0.33
114
0.30
117
0.38
131
0.26
133
0.62
148
0.24
65
0.50
94
0.50
137
0.62
139
0.44
186
0.31
168
1.22
192
0.56
137
0.60
160
0.50
169
0.79
153
0.47
161
0.45
61
1.65
194
0.20
99
0.30
119
0.73
184
1.29
246
0.71
136
0.60
131
AACVNettwo views0.57
139
0.48
151
0.41
148
0.59
200
0.62
217
0.54
184
0.38
172
0.61
129
0.41
179
0.59
155
0.63
175
0.59
128
0.34
143
0.36
189
0.97
153
0.56
137
0.59
152
0.54
190
0.72
137
0.53
176
0.57
120
0.65
103
0.38
200
0.46
194
0.60
148
0.69
156
0.84
170
0.82
184
STTStereotwo views0.57
139
0.56
198
0.54
194
0.45
167
0.52
199
0.44
154
0.62
212
0.52
83
0.47
200
0.47
77
0.55
156
0.73
166
0.46
192
0.57
245
1.46
216
0.46
80
0.50
91
0.52
180
0.55
84
0.39
126
0.53
108
0.51
66
0.33
188
0.36
162
0.55
126
0.66
152
0.71
136
0.98
195
HSMtwo views0.57
139
0.50
164
0.51
186
0.49
173
0.48
186
0.42
147
0.38
172
0.71
195
0.37
160
0.61
165
0.65
184
0.60
132
0.48
196
0.31
168
1.03
166
0.52
114
0.65
192
0.48
154
0.78
150
0.49
172
0.69
158
0.64
102
0.27
161
0.47
199
0.64
164
0.72
164
0.88
182
0.68
152
iinet-ftwo views0.58
144
0.44
114
0.37
124
0.34
118
0.25
81
0.49
170
0.27
138
0.43
60
0.28
95
0.52
106
0.92
228
0.61
136
0.45
190
0.26
138
1.34
204
0.61
154
0.53
112
0.40
93
1.60
209
0.52
175
0.62
143
1.51
188
0.27
161
0.27
105
0.56
131
0.38
83
0.79
154
0.56
117
TANstereotwo views0.58
144
0.42
101
0.38
126
0.40
145
0.40
164
0.46
166
0.21
108
0.52
83
0.31
125
0.54
118
0.41
100
0.38
58
0.40
174
0.43
210
0.81
121
0.74
209
0.67
198
0.78
259
1.11
184
0.91
260
0.65
150
0.80
125
0.94
276
0.34
146
0.36
68
0.54
128
1.09
218
0.56
117
XX-TBDtwo views0.58
144
0.42
101
0.38
126
0.40
145
0.40
164
0.46
166
0.21
108
0.52
83
0.31
125
0.54
118
0.41
100
0.38
58
0.40
174
0.43
210
0.81
121
0.74
209
0.67
198
0.78
259
1.11
184
0.91
260
0.65
150
0.80
125
0.94
276
0.34
146
0.36
68
0.54
128
1.09
218
0.56
117
psm_uptwo views0.59
147
0.51
172
0.55
198
0.56
194
0.46
183
0.59
198
0.36
166
0.72
202
0.66
229
0.55
124
0.53
149
0.62
139
0.53
207
0.40
199
0.93
141
0.55
133
0.60
160
0.49
161
0.89
164
0.48
168
0.55
113
0.57
83
0.32
183
0.55
222
0.71
178
0.80
181
0.81
161
0.67
148
BEATNet_4xtwo views0.59
147
0.40
90
0.35
116
0.40
145
0.36
143
0.33
105
0.28
139
0.64
160
0.41
179
0.66
203
0.45
120
0.63
145
0.42
181
0.25
125
1.20
187
0.64
169
0.60
160
0.58
209
0.59
103
0.38
119
1.07
210
2.22
217
0.26
154
0.40
178
0.50
105
0.52
123
0.82
164
0.67
148
EGLCR-Stereotwo views0.60
149
0.49
156
0.47
168
0.30
101
0.31
124
0.45
156
0.14
64
0.57
108
0.27
88
0.57
137
0.37
92
0.59
128
0.24
82
0.22
92
0.62
89
0.59
146
0.53
112
0.45
131
0.86
159
0.34
88
0.74
170
3.50
245
0.20
99
0.26
94
0.56
131
0.49
116
1.34
245
0.69
156
sAnonymous2two views0.60
149
0.42
101
0.32
106
0.29
93
0.30
117
0.45
156
0.29
146
0.71
195
0.41
179
0.47
77
0.54
151
0.52
106
0.44
186
0.23
101
0.97
153
0.85
227
0.70
212
0.68
237
1.36
198
0.61
206
0.86
194
1.20
168
0.30
176
0.37
166
0.65
168
0.72
164
0.72
141
0.72
165
CroCo_RVCtwo views0.60
149
0.42
101
0.32
106
0.29
93
0.30
117
0.45
156
0.29
146
0.71
195
0.41
179
0.47
77
0.54
151
0.52
106
0.44
186
0.23
101
0.97
153
0.85
227
0.70
212
0.68
237
1.36
198
0.61
206
0.86
194
1.20
168
0.30
176
0.37
166
0.65
168
0.72
164
0.72
141
0.72
165
APVNettwo views0.60
149
0.47
140
0.39
130
0.46
169
0.50
193
0.59
198
0.56
200
0.61
129
0.42
186
0.46
74
0.65
184
0.52
106
0.31
118
0.36
189
0.97
153
0.76
217
0.73
219
0.64
226
0.97
175
0.55
182
0.62
143
1.21
171
0.35
192
0.50
211
0.60
148
0.48
113
0.87
180
0.60
131
UCFNet_RVCtwo views0.60
149
0.79
241
0.46
166
0.60
203
0.56
205
0.53
181
0.40
176
0.59
117
0.40
175
0.59
155
0.61
171
0.83
190
0.47
194
0.33
182
1.17
185
0.47
85
0.51
97
0.50
169
0.70
134
0.47
161
0.61
139
0.63
99
0.39
205
0.44
190
0.81
209
0.75
170
0.67
124
0.85
187
IPLGRtwo views0.62
154
0.56
198
0.41
148
0.44
161
0.38
155
0.36
124
0.23
117
0.61
129
0.30
112
0.55
124
0.67
194
0.64
147
0.33
134
0.29
158
1.69
229
0.52
114
0.58
142
0.56
201
1.14
187
0.55
182
0.58
126
1.55
192
0.21
116
0.37
166
0.78
199
1.24
241
0.75
148
0.58
126
ICVPtwo views0.62
154
0.49
156
0.68
229
0.51
182
0.50
193
0.54
184
0.37
169
0.60
123
0.46
196
0.61
165
0.58
163
0.62
139
0.60
221
0.32
175
0.92
139
0.66
176
0.59
152
0.52
180
0.74
139
0.53
176
0.61
139
1.31
177
0.60
253
0.52
217
0.63
159
0.75
170
0.78
153
0.74
169
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
GEStwo views0.63
156
0.53
188
0.40
137
0.40
145
0.41
170
0.54
184
0.39
175
0.59
117
0.41
179
0.56
135
0.63
175
0.50
99
0.31
118
0.43
210
1.52
221
0.69
193
0.67
198
0.56
201
2.30
233
0.59
197
0.75
175
0.80
125
0.32
183
0.46
194
0.53
118
0.48
113
0.65
117
0.70
158
FADNet-RVC-Resampletwo views0.63
156
0.52
180
0.42
153
0.46
169
0.40
164
0.41
143
0.44
183
0.73
208
0.42
186
0.68
215
0.50
137
1.09
222
0.45
190
0.43
210
1.67
228
0.52
114
0.59
152
0.61
222
0.87
161
0.57
190
0.56
118
0.91
149
0.35
192
0.61
231
0.59
141
0.77
176
0.55
83
0.79
179
RPtwo views0.63
156
0.58
206
0.74
238
0.62
209
0.57
207
0.58
197
0.67
228
0.63
153
0.60
220
0.42
60
0.79
216
0.79
178
0.53
207
0.44
217
1.02
163
0.51
108
0.55
124
0.45
131
0.66
122
0.47
161
0.55
113
0.96
157
0.38
200
0.47
199
0.64
164
0.69
156
0.92
190
0.77
177
PS-NSSStwo views0.63
156
0.82
246
0.45
161
0.90
241
0.56
205
0.73
226
0.66
226
0.64
160
0.39
172
0.64
188
0.43
110
1.56
246
0.51
202
0.44
217
1.01
161
0.45
73
0.53
112
0.45
131
0.95
173
0.44
153
0.46
65
0.35
39
0.38
200
0.36
162
0.68
175
0.68
155
0.71
136
0.80
180
FADNet-RVCtwo views0.64
160
0.50
164
0.39
130
0.51
182
0.43
174
0.40
136
0.64
217
0.69
186
0.38
167
0.64
188
0.51
143
1.15
229
0.46
192
0.34
183
2.01
247
0.56
137
0.55
124
0.45
131
1.26
195
0.53
176
0.59
131
0.66
107
0.33
188
0.52
217
0.60
148
0.75
170
0.67
124
0.80
180
DeepPruner_ROBtwo views0.64
160
0.45
121
0.56
200
0.52
185
0.54
202
0.50
173
0.42
179
0.62
148
0.47
200
0.60
158
0.68
195
0.62
139
0.51
202
0.32
175
1.40
214
0.62
157
0.63
185
0.59
215
0.70
134
0.49
172
1.24
221
0.83
140
0.36
197
0.46
194
0.62
153
1.07
222
0.73
145
0.62
138
sCroCo_RVCtwo views0.65
162
0.42
101
0.29
96
0.29
93
0.29
112
0.40
136
0.23
117
0.60
123
0.41
179
0.53
117
0.44
116
0.48
87
0.51
202
0.24
116
0.92
139
1.03
245
0.75
222
0.63
224
1.04
179
0.59
197
1.12
213
2.73
230
0.29
172
0.40
178
0.64
164
0.62
141
0.93
193
0.63
141
s12784htwo views0.66
163
0.69
230
0.55
198
0.65
214
0.47
185
0.35
121
0.25
128
0.61
129
0.32
133
0.60
158
0.48
125
0.81
182
0.60
221
0.26
138
0.69
101
0.55
133
0.62
177
0.39
89
0.78
150
0.36
100
1.30
235
0.73
118
0.19
89
0.31
124
0.77
195
1.05
220
1.56
267
2.02
251
pcwnet_v2two views0.66
163
0.47
140
0.53
193
0.62
209
0.50
193
0.63
208
0.46
187
0.66
169
0.46
196
0.65
194
0.78
214
0.65
149
0.89
241
0.56
244
1.39
212
0.64
169
0.60
160
0.51
176
0.88
163
0.44
153
0.58
126
0.77
121
0.35
192
0.46
194
0.76
191
0.76
174
0.88
182
1.02
200
AE-Stereotwo views0.67
165
0.49
156
0.50
181
0.50
177
0.36
143
0.37
127
0.28
139
0.55
99
0.29
106
0.64
188
0.32
71
0.90
203
0.31
118
0.24
116
0.93
141
0.73
207
0.69
205
0.53
186
0.91
167
0.55
182
0.75
175
3.32
241
0.23
135
0.52
217
0.83
217
0.67
153
0.96
198
0.62
138
SACVNettwo views0.67
165
0.54
196
0.52
190
0.56
194
0.57
207
0.54
184
0.63
215
0.69
186
0.57
215
0.67
211
0.57
160
0.60
132
0.38
171
0.41
201
1.15
180
0.63
163
0.66
194
0.58
209
0.98
176
0.65
221
0.75
175
1.46
185
0.37
198
0.51
212
0.77
195
0.76
174
0.87
180
0.83
185
FADNettwo views0.69
167
0.55
197
0.42
153
0.53
188
0.44
178
0.49
170
0.70
234
0.76
216
0.43
189
0.66
203
0.63
175
0.82
189
0.51
202
0.37
194
1.80
235
0.53
122
0.53
112
0.54
190
1.67
212
0.54
179
0.74
170
0.81
129
0.35
192
0.42
186
0.76
191
0.86
192
0.80
159
1.04
203
PA-Nettwo views0.69
167
0.68
228
0.66
225
0.50
177
0.68
230
0.51
177
0.65
220
0.66
169
0.73
233
0.54
118
0.55
156
0.58
124
0.59
220
0.59
255
1.36
207
0.59
146
0.47
77
0.55
194
0.63
116
0.55
182
0.52
98
0.99
161
0.37
198
0.54
221
0.66
172
1.45
255
0.67
124
1.32
228
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views0.71
169
0.64
220
0.61
207
0.65
214
0.67
227
0.64
211
0.74
237
0.67
172
0.75
236
0.43
62
0.79
216
0.83
190
0.72
231
0.48
225
1.02
163
0.55
133
0.59
152
0.65
230
0.82
157
0.57
190
0.62
143
0.92
152
0.55
245
0.48
206
0.80
205
0.95
207
0.94
194
0.99
197
Abc-Nettwo views0.71
169
0.64
220
0.61
207
0.65
214
0.67
227
0.64
211
0.74
237
0.67
172
0.75
236
0.43
62
0.79
216
0.83
190
0.72
231
0.48
225
1.02
163
0.55
133
0.59
152
0.65
230
0.82
157
0.57
190
0.62
143
0.92
152
0.55
245
0.48
206
0.80
205
0.95
207
0.94
194
0.99
197
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
test-3two views0.72
171
0.38
79
0.40
137
0.34
118
0.34
134
0.34
112
0.23
117
0.65
165
0.27
88
0.61
165
0.36
88
0.91
204
0.32
126
0.21
87
1.24
194
0.61
154
0.56
132
0.43
116
2.65
246
0.39
126
0.60
134
5.03
271
0.17
68
0.32
130
0.52
114
0.38
83
0.70
131
0.53
109
test_1two views0.72
171
0.38
79
0.40
137
0.34
118
0.34
134
0.34
112
0.23
117
0.65
165
0.27
88
0.62
173
0.36
88
0.91
204
0.32
126
0.21
87
1.24
194
0.61
154
0.55
124
0.43
116
2.65
246
0.39
126
0.60
134
5.03
271
0.17
68
0.32
130
0.52
114
0.38
83
0.70
131
0.53
109
R-Stereo Traintwo views0.72
171
0.56
198
0.50
181
0.49
173
0.37
148
0.51
177
0.19
93
0.61
129
0.33
141
0.67
211
0.66
190
0.73
166
0.36
159
0.25
125
1.13
174
0.95
233
0.66
194
0.52
180
2.17
229
0.46
157
1.03
206
2.24
218
0.22
124
0.38
172
0.75
187
0.94
205
0.79
154
1.08
210
RAFT-Stereopermissivetwo views0.72
171
0.56
198
0.50
181
0.49
173
0.37
148
0.51
177
0.19
93
0.61
129
0.33
141
0.67
211
0.66
190
0.73
166
0.36
159
0.25
125
1.13
174
0.95
233
0.66
194
0.52
180
2.17
229
0.46
157
1.03
206
2.24
218
0.22
124
0.38
172
0.75
187
0.94
205
0.79
154
1.08
210
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
PWCDC_ROBbinarytwo views0.72
171
0.35
68
0.39
130
0.30
101
0.45
180
0.37
127
0.38
172
0.43
60
1.24
273
0.27
42
0.71
201
0.45
83
2.48
275
0.57
245
1.31
202
0.78
220
0.58
142
0.56
201
0.66
122
0.56
187
0.73
167
2.56
227
0.46
218
0.42
186
0.40
81
0.63
145
0.52
68
0.74
169
MyStereo04two views0.73
176
0.53
188
0.61
207
0.44
161
0.38
155
0.37
127
0.26
133
0.68
181
0.45
194
0.63
181
0.44
116
0.69
157
0.35
153
0.26
138
1.05
169
0.73
207
0.57
137
0.55
194
3.42
265
0.65
221
1.20
218
1.04
162
0.28
167
0.43
189
0.81
209
1.31
249
0.98
204
0.65
144
NCCL2two views0.73
176
0.74
237
0.68
229
0.58
198
0.58
211
0.52
180
0.49
190
0.70
193
0.58
218
0.68
215
0.68
195
0.68
154
0.48
196
0.41
201
1.22
192
0.75
214
0.67
198
0.58
209
0.78
150
0.59
197
0.80
184
1.30
176
0.51
235
0.64
235
0.98
240
0.96
209
0.88
182
1.20
223
LG-Stereo_Zeroshottwo views0.74
178
0.38
79
0.25
86
0.51
182
0.74
241
0.89
244
0.49
190
0.61
129
0.26
82
1.56
305
0.37
92
2.62
265
0.27
96
0.22
92
0.65
92
0.54
130
0.58
142
0.46
140
1.00
177
0.39
126
0.66
153
2.13
215
0.20
99
0.25
90
0.61
151
0.50
120
0.90
186
2.02
251
UDGNettwo views0.74
178
0.67
225
0.49
174
1.35
270
1.04
263
1.22
265
0.92
252
0.60
123
0.45
194
0.52
106
0.64
182
0.57
121
0.24
82
1.17
286
0.80
117
0.47
85
0.58
142
0.53
186
0.76
146
0.54
179
0.69
158
1.99
211
0.84
268
0.31
124
0.72
182
0.70
159
0.64
115
0.66
147
test_3two views0.74
178
0.39
86
0.39
130
0.34
118
0.33
131
0.34
112
0.23
117
0.67
172
0.29
106
0.64
188
0.34
85
0.93
206
0.36
159
0.21
87
1.39
212
0.58
142
0.57
137
0.46
140
2.73
251
0.40
134
0.57
120
5.06
273
0.15
56
0.35
156
0.54
122
0.47
110
0.68
129
0.49
93
stereogantwo views0.75
181
0.68
228
0.66
225
0.69
222
0.74
241
0.75
229
0.65
220
0.71
195
0.61
223
0.51
99
0.63
175
1.09
222
0.64
226
0.45
220
1.13
174
0.60
150
0.57
137
0.51
176
0.92
168
0.61
206
0.63
147
2.04
212
0.47
220
0.49
209
0.62
153
0.69
156
1.20
233
0.87
188
MLCVtwo views0.75
181
0.49
156
0.54
194
0.74
226
0.51
198
0.66
214
0.45
184
0.82
236
0.43
189
0.70
224
0.88
224
1.05
217
0.85
239
0.29
158
1.11
172
0.50
100
0.67
198
0.53
186
2.58
244
0.47
161
0.67
155
1.04
162
0.40
207
0.61
231
0.75
187
0.80
181
0.84
170
0.74
169
NaN_ROBtwo views0.77
183
0.59
208
0.61
207
0.64
212
0.79
248
0.55
190
0.51
195
0.88
243
0.64
226
0.73
232
0.59
166
1.98
258
0.65
227
0.46
223
1.01
161
0.58
142
0.58
142
0.55
194
0.74
139
0.56
187
0.57
120
0.79
123
0.40
207
0.66
238
0.92
230
1.30
248
0.97
203
1.66
241
Any-RAFTtwo views0.78
184
0.49
156
0.88
247
0.53
188
0.43
174
0.39
135
0.28
139
0.64
160
0.32
133
0.57
137
0.76
212
0.88
201
0.24
82
0.23
101
1.38
211
0.79
221
0.60
160
0.46
140
2.52
242
0.47
161
1.19
217
1.79
197
0.24
144
0.34
146
1.01
247
1.36
252
0.74
147
1.59
238
HSM-Net_RVCpermissivetwo views0.79
185
0.53
188
0.63
217
0.79
234
0.64
223
0.63
208
0.40
176
0.76
216
0.49
202
0.73
232
1.54
265
1.35
239
0.84
238
0.37
194
1.15
180
0.62
157
0.66
194
0.53
186
0.81
155
0.55
182
0.81
186
1.08
165
0.44
215
0.71
243
0.97
236
1.10
224
1.11
224
1.09
212
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
GANetREF_RVCpermissivetwo views0.80
186
0.75
238
0.69
234
0.76
229
0.66
225
0.70
223
0.60
207
0.99
254
0.74
235
0.94
269
0.52
147
1.36
240
0.72
231
0.45
220
0.95
151
0.59
146
0.69
205
0.63
224
1.16
189
0.63
213
0.84
190
0.71
113
0.60
253
0.73
244
0.95
232
0.90
200
1.21
235
1.05
204
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
RGCtwo views0.81
187
0.73
235
1.00
258
0.71
224
0.74
241
0.77
233
0.58
203
0.74
212
0.76
238
0.57
137
0.98
233
0.85
195
0.86
240
0.57
245
1.09
171
0.64
169
0.64
189
0.56
201
0.94
171
0.64
219
0.73
167
1.62
193
0.53
240
0.59
226
0.84
219
1.01
215
1.03
209
1.19
220
XPNet_ROBtwo views0.81
187
0.77
239
0.59
205
0.54
191
0.62
217
0.64
211
0.64
217
0.54
92
0.67
230
0.58
150
0.78
214
2.38
261
0.48
196
0.44
217
1.16
182
0.71
202
0.87
239
0.57
208
0.86
159
0.58
195
0.80
184
1.79
197
0.46
218
0.52
217
0.66
172
0.74
168
1.47
261
0.97
194
GCAP-BATtwo views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
test_for_modeltwo views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
testlalala2two views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
testlalalatwo views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
testlalala_basetwo views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
GCAP-Stereotwo views0.82
189
0.46
127
0.22
59
0.22
54
0.25
81
0.23
60
0.13
51
0.61
129
0.25
70
0.57
137
0.32
71
0.81
182
0.20
63
0.19
69
0.58
70
0.67
177
10.84
317
0.40
93
0.60
105
0.36
100
1.27
226
0.82
130
0.18
79
0.24
73
0.37
72
0.35
72
0.52
68
0.49
93
GEStereo_RVCtwo views0.83
195
0.59
208
0.42
153
0.54
191
0.50
193
0.61
202
0.51
195
0.71
195
0.43
189
0.60
158
0.52
147
0.78
177
0.49
200
0.40
199
0.99
160
0.96
235
0.79
229
0.75
256
1.96
222
0.65
221
0.82
189
4.23
255
0.32
183
0.56
223
0.65
168
0.64
146
0.85
174
1.13
216
FCDSN-DCtwo views0.83
195
0.62
218
0.63
217
0.67
218
0.63
220
0.60
200
0.61
211
0.68
181
0.42
186
0.75
237
0.42
106
0.60
132
0.36
159
0.50
229
1.90
239
0.70
198
0.81
233
0.78
259
0.65
120
0.57
190
0.73
167
4.71
265
0.48
223
0.89
262
0.70
177
0.78
178
0.62
106
0.69
156
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
CASStwo views0.84
197
0.56
198
0.58
203
0.66
217
0.57
207
0.60
200
0.59
205
0.78
224
0.53
206
0.71
227
0.75
211
0.69
157
0.48
196
0.29
158
0.93
141
0.70
198
1.12
266
0.55
194
1.66
211
0.59
197
2.89
277
1.98
210
0.38
200
0.38
172
0.91
228
0.80
181
0.91
188
1.01
199
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
Anonymous3two views0.85
198
0.60
211
0.45
161
0.38
136
0.44
178
0.57
194
0.50
193
0.79
228
0.64
226
0.68
215
0.48
125
1.49
244
0.54
209
0.31
168
1.53
222
1.39
282
0.90
242
0.82
268
1.53
204
0.70
237
1.35
239
2.55
226
0.41
209
0.42
186
0.78
199
0.88
195
1.03
209
0.70
158
GANet-ADLtwo views0.87
199
0.60
211
0.57
202
0.61
205
0.59
213
0.63
208
0.48
189
0.67
172
0.53
206
0.65
194
0.65
184
0.76
173
0.47
194
0.39
197
1.27
200
0.82
225
0.69
205
0.52
180
1.94
221
0.66
226
0.71
163
4.56
263
0.43
214
0.49
209
0.71
178
1.19
234
1.05
214
0.88
190
RTSCtwo views0.89
200
0.49
156
0.49
174
0.48
171
0.53
200
0.57
194
0.66
226
0.68
181
0.71
231
0.55
124
0.79
216
0.59
128
0.60
221
0.43
210
4.83
298
0.96
235
0.99
258
0.60
219
1.40
201
0.60
203
0.97
202
1.51
188
0.32
183
0.57
225
0.63
159
0.73
167
0.96
198
1.39
231
MSMDNettwo views0.92
201
0.53
188
0.54
194
0.35
126
0.36
143
0.45
156
0.34
162
0.69
186
0.30
112
0.63
181
0.72
205
0.72
163
0.36
159
0.23
101
1.05
169
1.51
294
0.64
189
0.51
176
2.89
255
0.82
250
1.60
244
5.72
285
0.24
144
0.32
130
0.76
191
0.84
187
0.86
178
0.75
173
LALA_ROBtwo views0.92
201
0.98
265
0.69
234
0.64
212
0.71
232
0.84
239
0.69
232
0.71
195
0.82
244
0.68
215
1.06
236
2.63
266
0.58
216
0.51
232
1.59
226
0.70
198
0.87
239
0.73
250
0.93
170
0.69
236
0.91
198
1.74
196
0.50
227
0.64
235
0.78
199
0.92
203
1.19
232
1.25
224
model_zeroshottwo views0.93
203
0.47
140
0.49
174
0.44
161
0.41
170
0.43
152
0.28
139
0.72
202
0.37
160
0.63
181
1.22
249
0.98
209
0.30
108
0.25
125
2.00
246
1.37
279
0.69
205
0.55
194
3.10
259
0.75
246
1.25
223
2.31
221
0.23
135
0.41
181
1.11
258
1.11
225
1.07
217
2.16
257
dadtwo views0.93
203
0.58
206
0.38
126
1.42
273
0.64
223
0.78
234
2.27
280
1.43
282
0.38
167
0.93
268
0.39
97
0.85
195
0.79
235
0.34
183
1.20
187
0.57
141
0.79
229
0.46
140
1.86
218
0.41
142
0.79
183
0.69
109
0.30
176
0.51
212
1.17
262
0.47
110
2.78
301
1.90
249
cross-rafttwo views0.93
203
0.57
204
0.52
190
0.44
161
0.35
138
0.42
147
0.28
139
0.73
208
0.33
141
0.65
194
0.72
205
0.74
169
0.30
108
0.23
101
1.13
174
1.20
266
0.63
185
0.48
154
2.91
256
0.61
206
1.80
254
5.83
290
0.23
135
0.34
146
0.84
219
0.89
198
0.94
194
0.98
195
SGM-Foresttwo views0.93
203
0.71
233
0.40
137
1.13
258
0.66
225
0.75
229
0.46
187
0.68
181
0.39
172
0.61
165
0.45
120
1.17
230
1.11
246
0.49
227
1.46
216
0.64
169
0.56
132
0.47
147
0.75
142
0.46
157
0.64
148
4.86
266
0.45
216
0.47
199
0.92
230
0.89
198
2.04
286
1.59
238
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
AnonymousMtwo views0.94
207
0.35
68
0.22
59
0.24
72
0.23
69
0.21
50
0.15
71
0.57
108
0.21
51
0.57
137
0.44
116
0.46
85
0.16
45
0.19
69
0.64
91
0.60
150
0.56
132
0.40
93
0.55
84
0.35
97
0.68
156
1.23
172
0.21
116
0.24
73
0.32
50
0.54
128
1.89
279
13.18
317
EAI-Stereotwo views0.94
207
0.52
180
0.62
213
0.52
185
0.50
193
0.57
194
0.64
217
0.72
202
0.37
160
0.62
173
2.08
278
0.84
193
0.26
91
0.26
138
1.99
245
1.49
291
0.61
170
0.50
169
3.11
260
0.65
221
0.88
197
2.39
223
0.20
99
0.36
162
0.81
209
1.09
223
1.59
269
1.15
218
FC-DCNNcopylefttwo views0.95
209
0.97
264
1.28
282
1.39
272
0.98
259
1.34
270
0.91
250
0.94
247
0.80
241
0.87
263
0.66
190
1.14
228
0.54
209
0.57
245
0.93
141
0.74
209
0.82
234
0.69
241
0.87
161
0.60
203
0.81
186
0.93
154
0.50
227
0.88
260
1.28
267
1.14
227
1.29
243
1.92
250
ETE_ROBtwo views0.95
209
0.91
259
0.60
206
0.68
219
0.71
232
0.85
240
0.65
220
0.67
172
0.90
252
0.64
188
1.06
236
2.65
267
0.55
213
0.55
241
1.45
215
0.75
214
0.94
250
0.64
226
1.02
178
0.70
237
0.98
203
2.12
214
0.51
235
0.61
231
0.81
209
0.92
203
1.53
265
1.25
224
RAFT-Testtwo views0.97
211
0.51
172
0.52
190
0.53
188
0.35
138
0.41
143
0.30
150
0.72
202
0.31
125
0.62
173
3.46
294
0.68
154
0.32
126
0.23
101
1.20
187
1.42
286
0.63
185
0.50
169
3.05
258
0.68
232
1.73
250
2.86
234
0.24
144
0.32
130
0.82
214
1.87
274
0.95
197
0.89
191
GwcNet-ADLtwo views0.97
211
0.85
254
0.82
245
0.91
243
0.72
236
0.71
224
0.55
198
0.78
224
0.51
204
0.72
229
4.46
299
1.21
232
0.67
230
0.47
224
0.97
153
0.97
239
0.75
222
0.56
201
1.30
197
0.74
245
0.70
162
1.12
167
0.59
252
0.60
227
0.82
214
1.02
216
0.91
188
1.71
244
iResNettwo views0.97
211
0.57
204
0.64
222
0.75
228
0.71
232
1.00
250
0.58
203
1.00
256
0.58
218
0.66
203
0.82
222
1.42
243
1.53
262
0.31
168
1.82
236
0.71
202
0.76
227
0.68
237
4.15
267
0.72
242
0.91
198
0.82
130
0.42
211
0.96
266
0.75
187
0.90
200
1.03
209
0.87
188
ADCP+two views0.98
214
0.59
208
0.63
217
0.44
161
0.45
180
0.56
191
0.91
250
0.66
169
1.76
288
0.48
84
1.07
239
1.65
252
0.34
143
0.43
210
1.95
243
0.54
130
0.54
121
0.48
154
1.25
194
0.41
142
0.65
150
1.35
180
0.33
188
0.32
130
0.67
174
3.29
298
0.79
154
3.83
287
EKT-Stereotwo views1.00
215
0.65
222
0.61
207
0.59
200
0.49
190
0.62
205
0.74
237
0.71
195
0.32
133
0.64
188
1.67
272
0.74
169
0.32
126
0.27
148
1.35
206
1.29
273
0.70
212
0.78
259
1.50
203
0.61
206
1.73
250
6.50
299
0.22
124
0.34
146
0.96
233
1.00
212
1.06
216
0.71
164
CC-Net-ROBtwo views1.00
215
1.19
278
0.70
236
1.57
277
1.10
265
1.68
282
1.26
266
0.79
228
0.60
220
0.81
252
0.58
163
3.27
277
0.58
216
0.88
276
1.04
168
0.46
80
0.75
222
0.66
232
1.43
202
0.59
197
0.60
134
0.53
75
1.88
295
0.47
199
0.88
225
0.82
184
0.79
154
1.19
220
CSANtwo views1.00
215
0.84
252
0.75
239
0.87
239
0.87
252
0.75
229
0.67
228
1.00
256
0.99
264
0.94
269
0.72
205
2.06
260
1.74
267
0.51
232
1.50
219
0.65
174
0.78
228
0.68
237
1.15
188
0.72
242
0.86
194
0.89
146
0.54
242
0.79
255
1.09
256
1.65
268
1.28
242
1.63
240
Reg-Stereo(zero)two views1.01
218
0.47
140
0.62
213
0.39
139
0.29
112
0.42
147
0.36
166
0.75
213
0.37
160
0.62
173
6.07
309
0.80
180
0.33
134
0.28
153
0.88
133
0.68
187
0.62
177
0.46
140
1.53
204
0.47
161
0.74
170
5.82
288
0.21
116
0.34
146
0.59
141
0.84
187
1.42
251
1.03
201
HItwo views1.01
218
0.47
140
0.62
213
0.39
139
0.29
112
0.42
147
0.36
166
0.75
213
0.37
160
0.62
173
6.07
309
0.80
180
0.33
134
0.28
153
0.88
133
0.68
187
0.62
177
0.46
140
1.53
204
0.47
161
0.74
170
5.82
288
0.21
116
0.34
146
0.59
141
0.84
187
1.42
251
1.03
201
FC-DCNN v2copylefttwo views1.02
220
0.99
267
1.34
287
1.51
276
1.00
260
1.44
275
0.89
246
1.09
266
0.86
246
0.87
263
0.70
199
1.18
231
0.89
241
0.57
245
0.94
147
0.74
209
0.82
234
0.69
241
0.90
166
0.60
203
0.81
186
0.94
155
0.50
227
0.88
260
1.39
272
1.22
237
1.45
255
2.29
260
FADNet_RVCtwo views1.02
220
0.69
230
0.58
203
0.90
241
0.80
249
0.56
191
0.56
200
0.78
224
0.56
212
0.70
224
0.92
228
1.40
241
1.11
246
0.55
241
2.54
262
0.68
187
0.85
237
0.90
274
3.38
264
0.82
250
1.24
221
2.31
221
0.38
200
0.64
235
0.71
178
0.90
200
1.03
209
1.14
217
ADCReftwo views1.02
220
0.65
222
0.50
181
0.39
139
0.48
186
0.67
218
0.71
236
0.61
129
1.07
266
0.52
106
0.63
175
0.76
173
0.43
184
0.39
197
2.08
252
0.74
209
0.62
177
0.59
215
1.57
207
0.61
206
0.74
170
1.42
182
0.50
227
0.47
199
0.80
205
1.24
241
0.82
164
7.57
309
PSMNet-ADLtwo views1.03
223
0.63
219
0.68
229
0.68
219
0.73
238
0.68
219
0.59
205
0.76
216
0.60
220
0.84
259
4.85
303
0.96
207
1.50
261
0.45
220
1.70
232
1.06
251
0.70
212
0.55
194
2.03
225
0.71
240
0.92
200
1.40
181
0.54
242
0.51
212
0.77
195
0.97
211
1.42
251
0.67
148
AMNettwo views1.03
223
0.98
265
0.95
252
0.98
251
1.01
261
1.04
251
0.96
255
0.86
242
0.93
255
0.97
272
1.01
235
1.12
225
0.82
236
1.05
284
1.03
166
1.10
255
1.17
268
1.05
281
1.08
183
1.05
272
1.14
214
1.06
164
0.84
268
0.99
271
1.02
248
1.06
221
1.20
233
1.30
227
test-1two views1.04
225
0.34
59
0.56
200
0.37
134
0.41
170
0.61
202
0.37
169
0.72
202
0.39
172
0.69
220
0.70
199
1.12
225
0.44
186
0.25
125
1.56
225
1.36
277
0.64
189
0.60
219
2.29
232
0.59
197
1.20
218
7.59
306
0.23
135
0.37
166
0.83
217
1.13
226
1.12
225
1.55
236
HHtwo views1.05
226
0.34
59
1.01
260
0.43
157
0.39
161
0.53
181
0.42
179
0.69
186
0.35
150
0.65
194
0.49
130
1.07
219
0.26
91
0.28
153
1.24
194
2.30
311
0.62
177
0.54
190
2.45
239
0.67
228
3.56
289
5.13
274
0.26
154
0.35
156
0.87
223
1.27
244
1.09
218
1.11
214
HanStereotwo views1.05
226
0.34
59
1.01
260
0.43
157
0.39
161
0.53
181
0.42
179
0.69
186
0.35
150
0.65
194
0.49
130
1.07
219
0.26
91
0.28
153
1.24
194
2.30
311
0.62
177
0.54
190
2.45
239
0.67
228
3.56
289
5.13
274
0.26
154
0.35
156
0.87
223
1.27
244
1.09
218
1.11
214
DAStwo views1.08
228
0.61
215
0.51
186
0.79
234
0.63
220
0.69
221
0.62
212
0.84
237
0.93
255
0.65
194
1.46
263
1.69
253
1.27
252
0.35
186
1.69
229
0.97
239
0.95
251
0.73
250
1.91
219
1.03
270
2.01
259
2.78
231
0.47
220
0.98
268
0.97
236
1.17
229
1.45
255
1.06
206
SepStereotwo views1.08
228
0.61
215
0.51
186
0.79
234
0.63
220
0.69
221
0.62
212
0.84
237
0.93
255
0.65
194
1.46
263
1.69
253
1.27
252
0.35
186
1.69
229
0.97
239
0.95
251
0.73
250
1.91
219
1.03
270
2.01
259
2.78
231
0.47
220
0.98
268
0.97
236
1.17
229
1.45
255
1.06
206
NOSS_ROBtwo views1.12
230
0.85
254
0.51
186
0.74
226
0.62
217
0.78
234
0.53
197
0.80
230
0.54
208
0.70
224
0.61
171
0.63
145
0.93
243
0.63
257
2.30
257
1.12
256
0.80
231
0.70
245
0.76
146
0.61
206
1.17
216
7.46
304
0.51
235
0.80
256
0.91
228
1.78
273
1.49
263
0.93
193
MSKI-zero shottwo views1.13
231
0.50
164
0.49
174
0.41
151
0.37
148
0.47
168
0.33
159
0.76
216
0.31
125
0.65
194
1.67
272
0.84
193
0.33
134
0.22
92
1.36
207
1.50
293
0.65
192
0.48
154
3.12
261
0.63
213
2.22
264
7.37
303
0.20
99
0.41
181
0.98
240
1.45
255
1.24
238
1.57
237
ITSA-stereotwo views1.17
232
0.73
235
0.62
213
1.22
263
0.86
251
0.66
214
0.70
234
0.95
249
0.78
239
0.84
259
2.26
280
1.41
242
1.24
251
0.82
271
1.61
227
1.03
245
0.88
241
0.67
236
1.59
208
0.63
213
1.32
236
2.11
213
0.56
248
0.77
250
0.99
242
1.26
243
1.02
207
3.94
288
DCVSM-stereotwo views1.22
233
0.67
225
0.81
244
0.91
243
0.67
227
1.16
262
0.74
237
0.95
249
0.81
242
1.04
277
3.89
296
3.69
284
1.60
264
0.50
229
2.30
257
0.88
230
0.71
216
0.59
215
2.11
227
0.89
257
1.16
215
1.24
173
0.84
268
0.77
250
0.80
205
1.18
232
1.09
218
1.07
208
SHDtwo views1.22
233
0.56
198
0.77
241
0.76
229
0.73
238
0.68
219
0.67
228
1.01
259
0.98
263
0.77
244
1.06
236
1.01
211
1.32
256
0.57
245
6.75
304
1.21
268
0.97
255
0.72
247
2.06
226
0.85
253
1.52
243
2.27
220
0.48
223
0.86
258
1.00
245
1.16
228
0.92
190
1.29
226
XQCtwo views1.22
233
0.91
259
0.73
237
0.92
246
0.94
256
0.94
247
0.89
246
1.10
267
0.91
253
0.85
261
1.10
243
1.07
219
1.40
259
0.73
265
4.40
291
1.15
259
0.91
246
0.69
241
1.69
213
0.89
257
1.26
224
2.63
228
0.63
256
0.77
250
1.21
264
1.88
275
1.27
241
1.10
213
DeepPrunerFtwo views1.23
236
0.50
164
0.40
137
0.57
197
2.81
304
0.50
173
0.67
228
0.53
87
0.57
215
0.43
62
0.65
184
0.44
78
0.33
134
0.42
206
1.72
233
0.77
218
0.60
160
0.47
147
0.95
173
0.48
168
0.66
153
0.82
130
0.41
209
0.38
172
14.97
324
0.87
194
0.66
120
0.61
133
ADCLtwo views1.30
237
0.83
251
0.67
227
0.60
203
0.53
200
0.74
227
0.95
253
0.77
222
2.74
308
0.68
215
0.99
234
0.89
202
0.52
206
0.52
235
1.90
239
0.67
177
0.69
205
0.58
209
1.26
195
0.67
228
1.22
220
1.42
182
0.51
235
0.51
212
1.51
283
1.42
254
0.89
185
10.57
313
ccs_robtwo views1.30
237
0.79
241
0.68
229
0.86
238
0.61
216
0.90
246
0.84
244
0.99
254
0.52
205
0.75
237
6.22
311
5.88
298
1.15
249
0.51
232
1.29
201
1.13
258
0.69
205
0.66
232
1.17
190
0.73
244
1.60
244
2.54
225
0.50
227
0.56
223
0.71
178
0.78
178
0.90
186
1.19
220
PWC_ROBbinarytwo views1.31
239
0.71
233
1.05
265
0.61
205
0.72
236
0.72
225
1.06
258
0.85
240
1.54
284
0.76
242
1.39
259
1.03
215
2.52
277
0.58
252
2.91
266
1.03
245
1.16
267
0.90
274
2.44
238
0.98
264
1.99
258
3.73
249
0.45
216
1.00
272
0.85
221
0.88
195
1.26
240
2.28
259
IGEV_Zeroshot_testtwo views1.32
240
0.47
140
1.27
280
1.16
259
0.48
186
0.61
202
0.65
220
0.80
230
0.41
179
0.67
211
4.86
304
0.97
208
0.31
118
0.26
138
1.20
187
1.48
290
0.61
170
0.49
161
2.56
243
0.66
226
2.26
265
8.15
312
0.22
124
0.41
181
1.05
251
1.03
219
1.16
230
1.43
232
RTStwo views1.35
241
0.60
211
0.63
217
0.61
205
0.59
213
0.96
248
1.15
262
0.81
233
0.87
248
0.60
158
0.71
201
1.31
236
0.62
224
0.54
239
7.39
308
1.17
263
1.20
269
0.78
259
2.36
236
0.88
254
1.29
232
1.87
201
0.50
227
0.69
241
1.39
272
4.38
307
1.15
228
1.45
234
RTSAtwo views1.35
241
0.60
211
0.63
217
0.61
205
0.59
213
0.96
248
1.15
262
0.81
233
0.87
248
0.60
158
0.71
201
1.31
236
0.62
224
0.54
239
7.39
308
1.17
263
1.20
269
0.78
259
2.36
236
0.88
254
1.29
232
1.87
201
0.50
227
0.69
241
1.39
272
4.38
307
1.15
228
1.45
234
UDGtwo views1.44
243
2.27
291
1.02
263
2.58
284
2.46
296
2.49
287
2.57
286
0.76
216
0.86
246
0.77
244
1.07
239
1.54
245
0.66
229
2.59
297
1.37
209
0.72
205
2.12
289
0.82
268
2.32
234
1.00
267
1.33
238
1.93
208
1.63
292
0.67
239
0.76
191
0.83
185
0.96
198
0.80
180
DDUNettwo views1.45
244
2.20
289
0.95
252
2.67
286
2.44
295
2.57
288
2.52
284
0.80
230
0.84
245
0.63
181
0.95
231
1.61
251
0.54
209
2.64
300
1.14
178
0.79
221
2.07
288
0.79
265
2.32
234
0.94
262
1.26
224
1.85
199
2.70
298
0.61
231
0.74
185
0.75
170
0.99
205
0.84
186
FBW_ROBtwo views1.50
245
1.46
283
1.13
274
2.05
283
1.56
283
1.42
273
2.03
279
1.00
256
0.71
231
0.73
232
1.21
248
2.38
261
0.93
243
1.53
292
2.03
248
0.63
163
0.90
242
0.66
232
6.51
285
0.63
213
1.69
247
1.54
191
1.47
291
1.14
282
1.05
251
1.23
238
1.02
207
1.77
245
MFN_U_SF_DS_RVCtwo views1.53
246
0.91
259
0.64
222
1.28
267
0.94
256
1.25
268
2.61
289
1.29
271
1.18
270
0.99
274
0.89
226
1.87
257
1.18
250
1.17
286
4.72
296
0.81
223
0.74
220
0.58
209
2.74
252
0.71
240
2.13
262
3.81
251
0.85
271
0.76
248
1.45
279
1.65
268
1.36
248
2.88
274
AIO-Stereo-zeroshotpermissivetwo views1.54
247
0.50
164
1.32
284
0.77
231
0.45
180
1.06
253
0.69
232
0.77
222
0.62
224
0.79
248
6.69
317
1.04
216
0.35
153
0.26
138
1.31
202
1.71
299
0.69
205
0.72
247
2.66
249
0.67
228
2.89
277
7.46
304
0.20
99
0.48
206
1.02
248
2.82
293
1.34
245
2.33
263
HBP-ISPtwo views1.57
248
0.87
257
0.96
255
0.99
252
0.71
232
0.88
242
0.56
200
0.89
245
0.54
208
0.82
254
0.88
224
1.01
211
0.36
159
0.70
263
7.21
306
5.74
320
0.71
216
0.70
245
0.74
139
0.64
219
1.32
236
8.85
313
0.50
227
0.67
239
0.85
221
1.00
212
2.10
287
1.16
219
CBMVpermissivetwo views1.58
249
0.86
256
0.61
207
0.89
240
0.84
250
0.78
234
0.55
198
0.90
246
0.81
242
0.82
254
0.63
175
3.20
275
0.83
237
0.52
235
2.06
251
1.17
263
0.96
254
0.74
255
2.62
245
0.68
232
2.85
275
7.74
308
0.49
225
1.14
282
1.10
257
1.23
238
2.42
294
5.18
298
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MFMNet_retwo views1.60
250
1.18
277
1.12
273
1.28
267
1.17
272
1.64
280
1.39
272
1.30
273
1.62
285
1.14
282
1.36
258
2.69
268
1.82
268
0.90
278
2.94
268
1.37
279
1.57
279
1.32
300
3.84
266
1.26
286
2.71
273
1.71
195
1.17
281
1.29
291
1.13
259
1.02
216
1.59
269
1.69
243
FAT-Stereotwo views1.62
251
0.79
241
1.44
290
1.12
257
1.36
279
1.06
253
0.89
246
1.30
273
0.87
248
1.21
288
5.38
307
3.07
274
1.32
256
0.66
259
2.20
255
1.36
277
0.91
246
0.94
279
1.85
217
1.09
274
2.32
266
4.27
257
0.71
259
1.03
276
0.90
226
1.18
232
1.54
266
2.97
276
ADCMidtwo views1.65
252
0.92
262
1.01
260
0.71
224
0.87
252
1.07
255
1.52
275
1.33
275
1.73
287
0.75
237
1.66
269
1.30
235
1.53
262
0.73
265
2.87
265
1.09
253
1.00
260
0.79
265
2.81
253
0.90
259
1.70
248
2.92
235
1.08
280
0.76
248
1.05
251
1.59
267
1.05
214
9.78
312
S-Stereotwo views1.70
253
0.82
246
0.95
252
1.19
261
1.22
273
1.32
269
1.59
276
1.03
260
1.08
267
1.24
290
4.20
297
4.08
290
1.12
248
0.67
261
3.06
271
1.65
298
0.91
246
1.05
281
2.24
231
1.12
276
1.50
242
5.83
290
1.32
290
1.21
288
0.90
226
1.17
229
1.25
239
2.15
256
AnyNet_C32two views1.81
254
0.66
224
0.75
239
0.68
219
0.75
245
0.89
244
1.33
270
0.97
252
3.04
312
0.75
237
1.43
262
0.98
209
0.65
227
0.71
264
4.23
289
1.15
259
1.11
265
0.95
280
1.83
215
0.79
247
2.38
270
3.19
239
0.67
258
0.92
263
1.14
260
2.45
288
1.17
231
13.30
318
PVDtwo views1.82
255
1.04
271
1.50
291
1.10
256
1.14
269
1.21
264
1.17
264
1.91
300
2.04
295
0.81
252
1.42
261
1.57
248
1.93
271
0.91
279
8.84
312
1.56
295
1.42
274
1.10
288
2.49
241
1.20
281
1.98
257
3.12
238
0.79
264
1.13
281
1.65
286
2.06
281
1.72
274
2.19
258
SANettwo views1.82
255
0.95
263
1.10
271
1.07
255
1.10
265
1.35
271
0.84
244
1.76
297
1.79
289
0.77
244
1.22
249
6.64
302
7.62
304
0.84
272
2.04
249
0.81
223
1.29
271
0.90
274
1.61
210
0.88
254
1.38
240
1.86
200
0.89
272
1.33
293
1.39
272
2.61
291
2.03
284
3.05
278
MSC_U_SF_DS_RVCtwo views1.83
257
1.25
280
1.05
265
1.57
277
1.11
267
1.22
265
3.48
296
1.50
283
2.11
296
1.30
292
0.96
232
1.56
246
1.05
245
1.92
294
4.01
283
1.25
271
0.90
242
1.05
281
6.24
283
1.22
284
1.75
252
3.71
248
1.18
282
1.17
285
1.51
283
1.50
261
1.12
225
2.71
271
MFN_U_SF_RVCtwo views1.86
258
1.06
272
0.88
247
1.27
266
1.03
262
1.56
278
2.57
286
1.40
280
1.19
272
1.50
302
2.86
288
2.04
259
1.60
264
2.16
295
4.89
299
1.02
244
0.93
249
0.83
271
6.71
286
1.21
283
3.28
283
2.85
233
0.65
257
1.16
284
1.25
265
1.33
250
1.29
243
1.66
241
G-Nettwo views1.89
259
0.99
267
1.27
280
0.92
246
0.97
258
1.11
258
0.80
241
1.62
289
2.02
294
1.00
275
2.80
287
7.25
306
1.67
266
0.55
241
1.85
238
1.77
302
1.07
261
0.92
277
3.00
257
2.69
315
1.95
256
1.95
209
0.80
265
1.04
277
1.06
255
1.69
271
2.80
303
5.50
300
SAMSARAtwo views1.90
260
0.80
244
1.02
263
0.94
248
0.93
255
0.88
242
1.07
259
1.60
288
1.28
274
0.97
272
1.07
239
1.33
238
2.67
282
0.88
276
8.67
311
1.44
289
1.09
264
0.93
278
2.65
246
1.06
273
2.36
268
3.27
240
0.58
251
1.04
277
2.85
301
4.21
306
2.73
300
2.88
274
edge stereotwo views1.94
261
1.17
276
2.17
301
1.48
274
1.31
277
1.61
279
1.43
274
1.68
292
1.28
274
1.19
286
3.32
293
4.32
293
2.92
285
0.81
270
2.94
268
1.49
291
1.08
263
0.82
268
5.33
276
0.98
264
1.70
248
4.30
259
0.95
278
0.94
264
1.34
269
1.21
236
1.72
274
2.87
273
pmcnntwo views1.94
261
0.81
245
0.54
194
1.21
262
1.23
274
1.23
267
0.99
257
0.97
252
0.55
210
0.75
237
2.87
289
4.26
292
5.53
295
0.32
175
2.16
253
1.42
286
1.30
272
0.89
273
4.30
270
1.01
268
4.96
308
5.40
280
0.92
274
1.01
274
1.14
260
1.02
216
2.43
295
3.12
279
gcap-zeroshottwo views1.97
263
0.45
121
0.90
250
0.59
200
0.38
155
0.56
191
0.30
150
0.73
208
0.29
106
0.74
236
2.87
289
1.22
234
0.34
143
0.25
125
1.47
218
1.39
282
0.62
177
0.55
194
29.53
321
0.81
249
1.07
210
3.94
252
0.24
144
0.37
166
0.79
203
1.00
212
0.96
198
0.75
173
ADCStwo views2.04
264
1.07
273
1.00
258
0.94
248
1.14
269
1.12
259
1.36
271
1.33
275
2.44
300
0.89
265
1.32
256
1.60
249
3.55
286
0.93
281
3.79
281
2.20
310
1.53
277
1.25
297
3.17
262
1.36
288
3.65
294
4.50
262
0.80
265
1.17
285
1.34
269
4.40
310
1.46
259
5.67
301
FINETtwo views2.14
265
0.39
86
0.40
137
0.45
167
0.31
124
0.36
124
0.37
169
0.46
69
0.46
196
0.48
84
0.42
106
0.49
94
0.41
178
0.30
164
10.18
316
0.64
169
0.52
108
0.37
81
0.69
127
0.38
119
0.57
120
0.65
103
0.31
181
0.33
140
0.54
122
36.06
331
0.61
103
0.59
129
iRaft-Stereo_20wtwo views2.15
266
0.53
188
1.39
288
1.22
263
0.48
186
0.79
237
0.50
193
0.75
213
0.43
189
0.73
232
6.67
316
0.86
197
0.29
104
0.27
148
1.12
173
1.28
272
0.61
170
0.45
131
1.83
215
0.63
213
1.11
212
5.64
283
0.22
124
0.28
110
0.96
233
25.03
325
1.45
255
2.62
269
SQANettwo views2.17
267
2.74
295
1.21
275
3.10
294
2.22
291
3.35
293
2.73
291
0.95
249
0.65
228
1.00
275
0.73
209
2.76
269
1.34
258
2.32
296
3.29
276
0.63
163
1.34
273
0.73
250
10.90
300
0.70
237
2.37
269
3.46
244
3.27
300
0.60
227
1.05
251
1.52
262
1.39
250
2.31
262
MADNet+two views2.24
268
1.21
279
1.26
279
1.48
274
1.30
276
1.12
259
2.54
285
1.95
301
1.46
282
1.34
294
1.29
255
2.44
263
2.24
273
1.30
290
8.99
313
2.12
308
2.64
299
1.14
291
2.82
254
1.90
305
4.19
298
4.31
260
1.30
288
2.17
316
2.03
291
1.57
263
1.59
269
2.76
272
ADCPNettwo views2.25
269
0.78
240
0.91
251
0.83
237
1.24
275
0.87
241
1.74
277
1.04
262
1.32
276
0.83
257
1.84
276
1.05
217
8.05
306
0.76
269
4.11
284
1.21
268
0.99
258
0.72
247
4.28
269
1.01
268
1.66
246
3.55
247
0.73
260
0.80
256
1.57
285
2.02
279
1.35
247
15.39
320
CBMV_ROBtwo views2.30
270
0.82
246
0.68
229
1.36
271
1.15
271
1.09
257
0.82
242
1.03
260
0.57
215
0.72
229
0.82
222
9.72
317
6.90
302
0.58
252
4.50
293
0.77
218
0.82
234
0.59
215
5.75
278
1.23
285
4.26
299
5.15
276
0.53
240
0.73
244
1.47
280
3.61
303
2.91
304
3.40
282
DDVStwo views2.34
271
0.70
232
0.83
246
0.70
223
0.75
245
0.75
229
0.60
207
1.08
265
0.87
248
0.82
254
32.66
332
3.89
287
1.27
252
0.53
238
1.37
209
1.39
282
0.74
220
0.66
232
2.14
228
0.96
263
1.75
252
3.32
241
0.49
225
0.60
227
0.72
182
0.88
195
1.37
249
1.33
229
SPS-STEREOcopylefttwo views2.34
271
1.27
281
1.24
278
1.58
279
1.36
279
1.49
276
1.27
267
1.67
291
1.36
279
1.38
296
2.76
286
3.04
273
1.30
255
1.06
285
4.12
286
1.82
304
1.66
281
1.39
302
9.69
297
1.36
288
4.41
301
7.92
310
1.28
286
1.43
295
1.48
281
1.76
272
2.03
284
2.03
253
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
AnyNet_C01two views2.37
273
1.10
275
1.07
268
1.16
259
1.12
268
1.05
252
3.27
294
1.75
295
2.58
305
1.20
287
1.66
269
3.03
272
2.81
284
1.03
283
4.41
292
3.73
317
2.42
293
2.18
318
3.18
263
1.64
300
4.45
303
7.10
301
1.26
283
1.22
289
2.09
292
1.57
263
1.52
264
4.30
290
RainbowNettwo views2.44
274
2.98
301
1.98
298
3.35
299
2.61
300
3.55
295
3.57
299
1.29
271
0.91
253
1.53
304
0.89
226
3.23
276
2.50
276
2.96
304
2.91
266
0.91
231
1.93
283
1.05
281
5.80
279
1.56
296
3.09
280
4.31
260
4.23
305
1.01
274
1.40
277
1.57
263
1.81
278
2.97
276
otakutwo views2.54
275
3.10
305
1.32
284
3.38
300
2.41
294
3.63
298
3.11
292
1.05
264
0.97
261
1.13
279
0.81
221
2.95
270
1.88
270
2.63
299
3.57
279
0.67
177
1.56
278
0.77
258
13.58
308
1.10
275
2.70
272
4.14
254
4.46
308
0.78
253
1.18
263
1.37
253
1.72
274
2.50
268
Ntrotwo views2.56
276
3.44
313
1.64
292
3.56
302
2.56
299
3.77
302
3.41
295
1.11
269
1.04
265
1.16
284
0.92
228
2.98
271
1.40
259
2.75
303
3.10
273
0.68
187
1.91
282
0.84
272
11.74
303
1.16
277
2.88
276
5.44
281
4.15
304
0.75
246
1.27
266
1.58
266
1.61
272
2.30
261
ACVNet-4btwo views2.61
277
2.78
298
1.77
294
3.15
295
2.34
293
3.59
297
3.82
301
1.34
277
1.35
278
1.27
291
0.72
205
3.29
279
2.76
283
3.05
306
3.12
274
0.82
225
2.46
294
1.10
288
10.23
299
1.26
286
3.40
285
5.28
278
4.07
303
0.95
265
1.28
267
1.29
246
1.47
261
2.47
267
ACVNet_1two views2.64
278
3.24
308
2.43
304
4.43
308
3.01
308
3.83
304
4.20
306
1.35
278
1.18
270
1.22
289
1.08
242
3.35
280
2.52
277
3.12
308
1.93
242
0.72
205
2.67
300
1.17
293
9.65
296
1.16
277
3.59
292
2.70
229
4.47
309
1.11
279
1.43
278
2.04
280
1.46
259
2.10
254
SFCPSMtwo views2.77
279
0.82
246
0.65
224
0.77
231
0.70
231
0.74
227
0.63
215
0.84
237
0.97
261
0.71
227
1.85
277
2.58
264
4.16
289
0.57
245
2.35
259
0.96
235
0.75
222
0.64
226
44.80
330
1.20
281
0.92
200
1.50
186
0.56
248
0.60
227
0.97
236
0.96
209
1.22
237
1.37
230
DGSMNettwo views2.86
280
0.99
267
1.40
289
1.06
253
1.09
264
1.14
261
1.07
259
1.42
281
0.94
259
2.17
317
11.83
328
1.77
255
1.86
269
0.95
282
7.21
306
3.88
318
6.07
311
1.70
311
5.05
274
1.75
303
7.07
320
8.89
314
0.97
279
1.24
290
1.03
250
1.46
257
1.44
254
1.85
246
DPSNettwo views2.86
280
0.84
252
0.79
242
1.23
265
1.35
278
1.35
271
0.95
253
1.10
267
1.48
283
0.80
249
1.17
245
7.04
304
4.28
291
0.75
268
6.78
305
2.57
313
1.59
280
1.27
299
14.87
312
1.61
299
5.07
309
9.58
315
1.81
294
1.44
297
1.49
282
2.52
289
1.66
273
1.87
248
PSMNet_ROBtwo views2.93
282
3.42
312
2.10
299
2.90
290
2.09
289
4.14
307
3.88
302
1.50
283
1.44
281
1.61
307
2.63
285
3.83
286
5.07
292
5.05
316
3.50
277
0.96
235
2.14
290
1.10
288
8.78
292
1.70
302
2.75
274
2.96
237
5.52
318
1.38
294
2.15
293
2.21
284
1.95
281
2.38
265
WAO-7two views2.94
283
1.85
287
2.82
310
7.24
314
1.77
287
1.84
284
2.02
278
2.09
302
2.63
306
2.22
318
5.33
306
4.72
295
6.89
301
1.25
288
3.06
271
1.30
274
1.96
285
1.23
296
8.68
291
1.55
293
2.35
267
3.54
246
0.89
272
1.69
305
1.89
288
3.34
299
2.02
283
3.26
280
WAO-6two views2.96
284
2.29
292
1.76
293
3.04
292
2.29
292
3.05
291
3.14
293
1.77
298
2.34
299
1.52
303
1.58
266
4.04
289
5.83
296
2.65
301
3.52
278
1.40
285
5.11
310
1.42
306
5.06
275
1.57
297
3.08
279
5.20
277
2.70
298
1.78
307
2.74
298
3.12
297
2.78
301
5.24
299
Deantwo views2.99
285
3.25
309
1.92
296
5.91
311
3.47
315
3.67
299
3.78
300
1.88
299
1.96
293
1.49
301
1.39
259
3.77
285
4.25
290
2.99
305
2.38
260
0.98
242
2.82
301
1.33
301
6.23
282
1.76
304
3.56
289
5.37
279
4.77
310
1.59
302
2.73
297
2.30
285
2.62
299
2.67
270
IMH-64-1two views3.00
286
2.74
295
2.51
305
3.26
296
2.79
302
3.76
300
4.17
304
1.68
292
2.47
302
1.13
279
1.25
252
3.66
282
6.37
297
3.61
309
2.63
263
1.16
261
2.53
295
1.41
304
6.20
280
1.55
293
3.46
286
5.75
286
4.82
312
1.44
297
2.82
299
1.99
277
2.35
289
3.59
283
IMH-64two views3.00
286
2.74
295
2.51
305
3.26
296
2.79
302
3.76
300
4.17
304
1.68
292
2.47
302
1.13
279
1.25
252
3.66
282
6.37
297
3.61
309
2.63
263
1.16
261
2.53
295
1.41
304
6.20
280
1.55
293
3.46
286
5.75
286
4.82
312
1.44
297
2.82
299
1.99
277
2.35
289
3.59
283
IMHtwo views3.37
288
2.80
299
2.52
307
3.30
298
2.81
304
3.78
303
4.24
307
1.75
295
2.57
304
1.17
285
1.23
251
3.99
288
10.97
309
5.78
322
2.21
256
1.12
256
2.58
297
1.39
302
6.86
287
1.60
298
3.49
288
5.44
281
4.89
315
1.50
300
3.02
303
2.37
287
2.52
296
5.01
295
anonymitytwo views3.37
288
0.42
101
1.10
271
0.58
198
0.43
174
0.48
169
0.31
157
0.78
224
0.35
150
0.62
173
65.69
336
0.87
198
0.30
108
0.25
125
1.14
178
1.37
279
0.61
170
0.44
123
1.39
200
0.63
213
0.75
175
7.27
302
0.25
152
0.32
130
0.99
242
1.23
238
1.10
223
1.44
233
SGM_RVCbinarytwo views3.37
288
1.46
283
0.88
247
1.79
281
1.36
279
1.81
283
1.40
273
1.65
290
1.12
269
0.83
257
1.60
267
7.12
305
3.65
287
0.43
210
2.16
253
0.62
157
0.80
231
0.58
209
11.35
302
0.68
232
2.17
263
1.08
165
0.52
239
0.98
268
2.24
294
1.97
276
6.00
320
34.83
329
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
ACVNet_2two views3.45
291
3.01
302
2.34
303
4.63
309
2.95
307
3.55
295
3.53
297
1.59
287
1.33
277
1.30
292
1.13
244
3.27
277
2.54
279
2.69
302
1.95
243
0.87
229
9.85
315
1.08
287
21.96
316
1.38
290
3.39
284
4.29
258
4.23
305
1.43
295
2.01
289
2.58
290
1.90
280
2.34
264
ELAS_RVCcopylefttwo views3.56
292
2.05
288
1.92
296
2.68
287
2.14
290
5.31
318
2.31
281
2.50
309
1.91
291
1.84
312
4.76
301
7.99
309
8.55
308
0.84
272
3.62
280
1.05
250
1.96
285
1.22
295
4.63
272
1.51
292
4.77
307
9.74
316
1.27
285
1.99
314
8.57
319
3.59
302
3.42
308
3.96
289
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views3.61
293
2.21
290
1.84
295
3.04
292
2.46
296
3.47
294
2.38
283
2.81
314
2.86
309
1.46
298
4.82
302
8.36
311
8.06
307
0.87
274
4.11
284
1.04
248
1.99
287
1.15
292
4.54
271
1.19
280
4.74
306
10.44
321
1.26
283
1.86
312
6.96
317
4.71
311
3.75
310
5.16
297
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MeshStereopermissivetwo views3.67
294
1.54
285
1.08
269
2.64
285
1.78
288
2.12
286
1.19
265
2.47
307
1.38
280
0.91
267
6.33
313
9.51
315
7.65
305
0.50
229
9.98
315
1.96
305
0.90
242
0.75
256
8.92
293
0.82
250
8.67
321
10.38
320
0.73
260
1.12
280
3.41
306
2.18
283
5.22
317
4.91
294
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
MDST_ROBtwo views4.20
295
2.33
293
0.80
243
3.91
305
1.60
286
2.83
289
1.12
261
1.14
270
0.79
240
0.78
247
1.19
246
1.60
249
25.00
322
0.36
189
11.29
318
0.67
177
0.68
204
0.49
161
4.16
268
0.65
221
1.82
255
6.21
298
0.61
255
0.78
253
8.88
320
3.05
295
18.20
327
12.37
315
DispFullNettwo views4.35
296
3.21
306
4.31
321
2.72
288
2.48
298
2.93
290
2.71
290
2.81
314
1.89
290
4.52
327
6.61
314
8.91
314
5.38
293
2.59
297
2.40
261
7.94
323
3.27
304
2.03
314
27.02
318
2.94
319
4.26
299
4.88
267
1.79
293
1.18
287
1.35
271
1.33
250
2.38
292
3.59
283
LVEtwo views4.48
297
3.05
303
2.13
300
26.62
328
3.20
311
3.95
305
12.38
327
1.56
285
1.65
286
1.86
313
1.66
269
3.36
281
4.03
288
3.08
307
2.05
250
1.07
252
2.36
292
1.44
307
17.31
314
1.64
300
3.69
295
5.87
292
4.40
307
1.82
310
2.86
302
2.32
286
2.39
293
3.29
281
WAO-8two views4.61
298
3.39
310
2.82
310
10.45
319
3.06
309
4.31
308
7.22
313
2.68
312
4.40
316
1.75
310
3.16
291
6.16
299
13.19
313
5.21
318
4.20
287
1.35
275
3.33
305
1.55
309
12.12
304
2.51
313
3.15
281
4.91
268
3.42
301
1.62
303
5.04
312
4.04
304
3.84
314
5.71
302
Venustwo views4.61
298
3.39
310
2.82
310
10.45
319
3.06
309
4.31
308
7.22
313
2.68
312
4.40
316
1.75
310
3.16
291
6.16
299
13.19
313
5.21
318
4.20
287
1.35
275
3.33
305
1.55
309
12.12
304
2.51
313
3.15
281
4.91
268
3.42
301
1.62
303
5.04
312
4.04
304
3.84
314
5.71
302
TRStereotwo views4.80
300
0.88
258
1.21
275
0.56
194
0.36
143
1.43
274
0.49
190
0.68
181
0.30
112
0.65
194
0.47
123
1.13
227
0.28
99
0.23
101
1.25
198
1.09
253
0.58
142
0.48
154
2.00
224
0.51
174
0.76
179
5.69
284
0.19
89
0.30
119
0.79
203
104.35
338
1.77
277
1.07
208
PWCKtwo views5.22
301
3.06
304
2.20
302
3.63
303
2.67
301
4.53
312
5.48
310
2.47
307
2.98
311
3.29
323
4.30
298
9.76
318
5.51
294
1.79
293
3.20
275
1.42
286
2.58
297
1.45
308
51.06
333
2.39
311
4.63
304
4.24
256
2.66
297
1.80
308
3.05
304
3.57
301
2.56
297
4.64
292
SGM-ForestMtwo views5.65
302
4.50
318
1.05
265
2.91
291
1.57
284
4.11
306
4.85
308
2.98
316
2.33
297
0.72
229
4.70
300
7.33
307
6.60
300
0.49
227
39.89
329
0.68
187
0.97
255
0.56
201
8.53
290
0.68
232
4.43
302
1.50
186
0.54
242
0.96
266
7.49
318
21.53
322
7.62
321
13.00
316
notakertwo views5.86
303
5.54
323
3.78
319
13.93
322
5.35
321
5.67
320
9.28
323
2.38
306
2.66
307
2.06
316
1.78
274
13.93
324
24.00
320
4.00
312
4.62
294
1.76
301
5.10
309
2.17
317
17.07
313
2.17
308
6.58
319
6.08
295
6.15
322
2.16
315
1.79
287
2.08
282
2.35
289
3.69
286
MADNet++two views5.91
304
3.53
314
3.85
320
2.86
289
4.61
319
3.06
292
4.05
303
4.68
322
5.50
318
4.18
326
5.19
305
6.42
301
6.59
299
6.60
323
7.82
310
6.76
321
4.79
308
4.06
323
7.98
289
5.77
323
9.82
324
16.30
326
2.35
296
4.40
325
4.10
311
14.38
318
5.24
318
4.57
291
JetBluetwo views6.09
305
3.86
315
3.31
317
6.02
312
4.23
318
6.50
321
9.13
321
3.53
317
2.89
310
1.48
299
1.60
267
8.25
310
1.97
272
5.45
321
6.44
303
3.14
315
3.63
307
2.97
321
5.48
277
2.48
312
10.91
325
12.33
323
4.85
314
2.26
317
6.93
316
17.02
319
3.81
313
24.06
324
AIO-Stereo-zeroshot1permissivetwo views6.10
306
0.61
215
1.30
283
0.77
231
0.74
241
1.19
263
0.83
243
0.81
233
0.96
260
0.80
249
6.66
315
1.02
213
0.37
168
0.27
148
1.82
236
1.97
306
0.71
216
0.62
223
123.79
336
0.58
195
1.43
241
7.73
307
0.23
135
0.40
178
0.96
233
4.91
312
1.12
225
2.12
255
UNDER WATER-64two views6.32
307
5.21
321
3.26
316
12.14
321
5.88
322
6.71
323
9.26
322
4.87
323
3.46
313
2.30
321
2.35
282
11.93
323
12.73
311
5.12
317
5.34
301
1.80
303
12.41
324
2.22
320
8.98
295
4.33
322
6.38
317
7.95
311
8.71
328
2.66
320
3.83
309
8.23
315
4.61
316
7.84
310
TorneroNet-64two views6.40
308
4.65
319
2.74
309
15.54
324
3.31
312
4.94
313
8.03
315
2.22
304
9.83
323
1.42
297
1.34
257
7.37
308
29.26
326
4.42
314
5.17
300
1.23
270
11.76
323
1.76
313
17.82
315
2.71
316
5.61
314
6.19
296
5.20
316
1.81
309
3.54
307
4.38
307
2.30
288
8.17
311
STStereotwo views6.54
309
2.50
294
5.20
323
5.17
310
2.86
306
5.44
319
3.55
298
6.26
325
6.79
319
1.56
305
7.62
320
9.51
315
14.78
317
0.67
261
10.87
317
0.93
232
0.98
257
0.64
226
36.61
326
1.16
277
2.12
261
4.60
264
0.80
265
1.84
311
5.84
314
11.36
316
3.79
311
23.26
323
SGM+DAISYtwo views7.37
310
1.43
282
1.33
286
1.85
282
1.57
284
2.10
285
2.58
288
1.57
286
1.92
292
1.37
295
7.84
321
8.83
313
13.00
312
1.27
289
12.20
319
2.02
307
1.50
276
1.26
298
11.20
301
1.43
291
6.12
316
10.35
319
1.28
286
1.58
301
22.91
326
36.14
332
3.33
307
41.05
333
UNDER WATERtwo views7.65
311
4.75
320
3.20
315
10.38
318
5.97
323
6.52
322
8.90
318
4.43
318
3.71
315
1.97
315
2.13
279
10.58
321
57.67
333
4.90
315
4.62
294
1.61
297
12.55
325
2.15
316
9.80
298
4.02
320
6.55
318
7.81
309
8.85
329
2.70
321
3.94
310
5.71
313
3.74
309
7.34
307
JetRedtwo views7.88
312
5.28
322
6.04
325
3.77
304
5.01
320
7.11
324
10.17
324
4.64
321
3.46
313
3.00
322
2.43
283
6.74
303
2.58
280
7.32
324
6.13
302
7.14
322
8.68
314
7.10
325
4.85
273
4.17
321
11.09
326
12.68
324
8.09
327
3.36
323
11.02
321
24.14
324
12.36
324
24.50
325
KSHMRtwo views8.09
313
4.19
316
3.02
314
20.01
327
3.97
317
5.23
317
5.85
311
2.62
311
2.46
301
2.23
319
2.33
281
4.57
294
77.01
337
5.26
320
3.82
282
1.74
300
3.01
303
2.05
315
30.62
322
2.04
307
5.15
310
6.07
294
7.51
326
1.94
313
3.25
305
2.86
294
3.03
305
6.46
305
MaskLacGwcNet_RVCtwo views8.44
314
0.67
225
1.08
269
0.97
250
0.87
252
0.82
238
1.29
268
0.85
240
0.73
233
0.90
266
5.88
308
182.08
338
2.36
274
1.37
291
1.72
233
1.04
248
0.95
251
1.05
281
6.37
284
0.80
248
3.60
293
4.99
270
0.56
248
0.86
258
1.00
245
1.48
260
1.21
235
2.39
266
LSM0two views8.46
315
1.08
274
0.97
256
1.68
280
1.46
282
1.66
281
2.34
282
2.26
305
2.33
297
1.64
308
3.73
295
4.12
291
7.50
303
0.66
259
61.95
336
74.50
337
1.94
284
1.07
286
12.24
306
2.24
309
5.75
315
11.09
322
0.92
274
1.32
292
2.02
290
3.44
300
3.80
312
14.65
319
ACV-stereotwo views8.54
316
1.03
270
0.99
257
1.31
269
0.73
238
1.51
277
0.96
255
0.88
243
1.09
268
1.07
278
1.26
254
1.09
222
24.12
321
0.52
235
4.26
290
3.65
316
1.07
261
0.79
265
168.90
337
1.90
305
3.75
296
3.35
243
0.73
260
0.75
246
0.78
199
1.47
258
1.57
268
1.05
204
ktntwo views8.56
317
3.21
306
2.95
313
6.28
313
3.33
313
4.46
311
10.27
325
2.14
303
9.87
324
2.28
320
1.79
275
40.24
331
55.84
332
3.95
311
2.98
270
2.12
308
12.68
326
2.18
318
33.93
323
2.29
310
3.76
297
3.97
253
4.78
311
2.28
318
2.60
295
2.77
292
3.18
306
5.01
295
TorneroNettwo views8.57
318
4.31
317
2.73
308
29.82
330
3.34
314
5.12
314
6.26
312
2.59
310
9.76
321
1.48
299
2.49
284
11.42
322
68.87
336
4.30
313
4.82
297
1.20
266
10.34
316
1.71
312
23.71
317
2.90
318
5.60
313
5.95
293
5.37
317
1.69
305
3.61
308
3.06
296
2.60
298
6.24
304
zero-FEtwo views9.27
319
0.42
101
0.30
101
61.33
337
0.57
207
106.65
338
1.29
268
0.72
202
0.30
112
0.66
203
0.56
159
63.71
336
0.72
231
0.26
138
0.82
126
0.62
157
0.61
170
0.48
154
2.66
249
0.42
149
1.29
232
2.95
236
0.27
161
0.26
94
0.51
109
0.44
99
0.92
190
0.65
144
XX-Stereotwo views9.59
320
0.38
79
0.41
148
0.62
209
0.28
105
0.54
184
0.28
139
0.69
186
0.28
95
0.69
220
6.22
311
1.02
213
0.30
108
0.24
116
1.91
241
1.60
296
0.61
170
0.52
180
1.97
223
0.54
179
0.76
179
1.31
177
0.19
89
0.29
113
233.45
337
0.86
192
1.03
209
1.85
246
MANEtwo views10.17
321
2.87
300
4.55
322
3.48
301
3.67
316
4.33
310
5.37
309
5.85
324
8.41
320
1.15
283
6.84
319
8.81
312
11.91
310
0.74
267
34.96
326
9.77
325
2.33
291
17.98
330
8.97
294
0.99
266
5.17
311
10.08
317
0.75
263
2.44
319
19.90
325
30.18
328
24.05
330
39.03
332
DGTPSM_ROBtwo views12.60
322
5.94
324
17.42
330
4.21
306
7.87
324
5.18
315
8.36
316
4.59
319
11.62
326
4.53
328
8.72
322
5.12
296
17.04
318
12.93
328
25.30
325
14.55
327
6.98
312
15.75
328
13.36
307
12.08
327
9.26
322
21.71
329
5.68
319
11.58
327
12.26
322
31.67
329
13.08
325
33.34
327
DPSMNet_ROBtwo views13.44
323
5.95
325
17.43
331
4.22
307
7.88
325
5.18
315
8.37
317
4.59
319
11.63
327
4.55
329
8.85
323
5.31
297
22.17
319
12.96
329
41.18
332
14.59
328
7.06
313
15.81
329
14.45
311
12.09
328
9.28
323
21.72
330
5.68
319
11.58
327
12.30
323
31.67
329
13.08
325
33.34
327
DLNR_Zeroshot_testpermissivetwo views17.85
324
67.20
338
1.21
275
81.88
338
0.36
143
0.45
156
74.74
338
0.76
216
0.28
95
0.69
220
0.57
160
1.21
232
0.30
108
8.16
325
84.46
337
99.85
338
23.71
330
15.03
327
7.28
288
0.56
187
5.49
312
3.79
250
0.19
89
0.46
194
0.77
195
0.84
187
0.81
161
0.80
180
LE_ROBtwo views18.13
325
1.84
286
5.86
324
9.46
317
53.77
338
8.04
325
45.58
333
11.04
330
28.98
331
1.91
314
6.75
318
38.77
330
49.52
331
0.36
189
14.59
320
0.59
146
0.86
238
0.60
219
36.50
325
7.48
325
4.68
305
6.20
297
25.95
333
12.06
329
26.61
327
25.97
326
28.65
332
36.99
330
DPSM_ROBtwo views18.33
326
16.23
327
21.89
332
9.40
315
8.73
326
13.60
327
9.09
319
10.89
327
15.09
328
8.44
330
8.95
324
10.11
319
13.19
313
16.30
330
18.97
321
18.97
330
18.34
328
20.44
331
13.82
309
14.87
330
26.45
332
27.55
331
6.48
323
14.45
331
32.48
332
38.81
333
37.03
334
44.38
334
DPSMtwo views18.33
326
16.23
327
21.89
332
9.40
315
8.73
326
13.60
327
9.09
319
10.89
327
15.09
328
8.44
330
8.95
324
10.11
319
13.19
313
16.30
330
18.97
321
18.97
330
18.34
328
20.44
331
13.82
309
14.87
330
26.45
332
27.55
331
6.48
323
14.45
331
32.48
332
38.81
333
37.03
334
44.38
334
HanzoNettwo views20.46
328
15.45
326
7.17
327
35.04
332
15.40
329
42.60
333
42.25
332
19.41
331
22.53
330
3.57
324
8.95
324
41.20
332
59.36
335
45.57
336
19.76
323
4.23
319
41.32
334
3.33
322
50.89
332
8.87
326
11.85
327
10.25
318
15.36
332
3.51
324
5.98
315
5.84
314
5.30
319
7.56
308
LRCNet_RVCtwo views21.82
329
29.16
330
11.33
329
31.73
331
29.10
334
34.20
332
27.48
330
21.70
334
10.00
325
29.64
335
30.45
331
32.28
328
25.87
323
34.03
334
20.67
324
2.95
314
25.60
331
21.94
333
44.10
329
20.69
332
15.98
330
6.68
300
36.66
334
27.37
333
2.65
296
1.65
268
8.66
323
6.68
306
BEATNet-Init1two views24.80
330
35.34
333
3.40
318
54.39
336
11.05
328
52.62
337
30.07
331
9.50
326
9.78
322
1.71
309
9.05
327
32.52
329
48.55
330
0.91
279
59.64
335
13.60
326
2.94
302
1.21
294
78.28
334
35.97
335
14.53
329
17.14
328
1.30
288
2.98
322
29.70
330
22.69
323
52.62
336
38.22
331
PMLtwo views30.79
331
20.86
329
7.14
326
29.36
329
20.49
333
28.87
331
10.60
326
10.92
329
87.59
338
20.00
334
153.26
338
98.26
337
119.13
338
10.64
327
9.27
314
9.16
324
16.55
327
7.27
326
34.78
324
7.44
324
12.95
328
13.29
325
5.71
321
6.19
326
32.49
334
12.75
317
34.25
333
12.19
314
FlowAnythingtwo views36.82
332
32.60
331
44.20
338
18.89
326
17.64
331
27.10
329
18.35
329
21.81
335
30.46
333
17.52
333
18.20
330
20.29
326
26.53
324
33.10
333
36.77
327
37.70
332
36.79
332
40.89
334
27.34
319
30.02
334
53.13
337
55.97
337
12.99
331
29.60
335
64.32
335
78.22
337
74.36
338
89.35
338
CasAABBNettwo views36.82
332
32.66
332
44.09
337
18.77
325
17.41
330
27.26
330
18.09
328
21.65
333
30.38
332
17.51
332
18.08
329
20.27
325
26.53
324
32.72
332
37.32
328
38.13
333
36.79
332
41.08
335
27.46
320
29.84
333
53.33
338
55.90
336
12.92
330
28.97
334
65.31
336
78.04
336
74.31
337
89.23
337
HaxPigtwo views41.43
334
43.78
335
40.67
334
44.87
333
47.40
336
44.66
334
45.90
334
46.29
336
45.65
335
48.99
336
49.28
333
47.25
334
43.73
328
43.21
335
40.38
331
39.12
335
48.32
335
51.04
336
43.25
327
42.26
336
42.89
334
36.79
333
50.70
336
43.01
337
27.27
328
19.90
320
20.68
328
21.39
322
AVERAGE_ROBtwo views41.95
335
44.71
336
42.09
335
45.93
334
46.78
335
45.54
335
46.49
335
47.00
337
43.80
334
49.16
337
49.81
334
47.19
333
43.01
327
49.34
337
40.06
330
38.39
334
48.88
336
51.23
337
43.85
328
42.36
337
43.28
335
39.80
334
49.36
335
42.83
336
28.47
329
20.13
321
23.38
329
19.90
321
MEDIAN_ROBtwo views44.92
336
47.22
337
43.96
336
48.39
335
49.65
337
48.09
336
49.12
336
49.68
338
46.28
336
52.49
338
53.49
335
50.50
335
45.47
329
49.67
338
43.04
333
41.33
336
51.67
337
54.31
338
46.89
331
45.84
338
45.76
336
41.31
335
52.59
337
45.67
338
30.78
331
26.35
327
25.34
331
27.98
326
STTRV1_RVCtwo views0.82
246
0.67
227
1.06
253
0.75
245
1.07
255
0.90
249
0.94
247
0.93
255
0.95
271
1.19
246
1.84
256
2.61
281
0.87
274
1.01
243
1.49
275
0.73
250
2.75
317
2.45
271
1.00
272
1.39
272
1.47
258
1.98
282
4.80
293
DPSimNet_ROBtwo views42.01
334
9.19
328
15.49
323
19.18
332
8.81
326
51.60
337
21.45
332
69.48
337
4.09
325
130.66
337
21.85
327
59.34
334
9.82
326
51.06
334
15.06
329
4.22
324
102.54
335
14.43
329
17.28
331
16.43
327
6.62
325
13.29
330
45.88
335
8.52
322
55.57
336