The Quest for Robustness and Accuracy - Mission Impossible?

U.Franke, S.Gehrig, F.Stein

Fast alle Paper claimen Robustheit, und sind es häufig auch, wenn man Standard-Datensätze nimmt. Wenn man sich reale Bilder ansieht, ändert sich dieses Bild drastisch.

Stereo: Wir müssen größte Anstrengungen unternehmen, um kleinste Fehler der Kalibrierung zu verkraften, wir kämpfen mit Reflexen und Verschmutzung auf der Windschutzscheibe und massivem zeitlichen Rauschen der Disparitätsschätzungen bei low-contrast - trotz modernster global optimierender Verfahren (SGM, GC). Nimmt man robuste Matching Scores, rächt sich das mit heftigem Pixel-Locking Effekt, was wiederrum die Bewegungsschätzung sehr negativ beeinflusst - eine Tatsache, die meist ignoriert wird.

Flow: da gibt es die ganze bekannte Palette von Illumination Changes und large displacements - und viele mehr! Es gibt Ansätze, dass zu verbessern, aber eine generelle Lösung lässt auf sich warten. Daher ja auch die OF-Challenge auf der GCPR.

Objektbildung: Alle low-level Algorithmen treffen am Ende eine Entscheidung für eine Disarität oder ein Displacement - und ihre Konfidenz wird üblicherweise auf die binären Werte 0 und 1 abgebildet. Dieses muss sich ändern, wenn wir Fortschritte in der Interpretation der Daten erreichen wollen.

Natürlich haben wir zu all diesen Punkte Teil-Antworten, die ich mitbringen will, die aber die Probleme nicht final lösen. Meine Motivation ist es, durch aussagekräftige Beispiele die Sensibilität für diese Fragestellungen zu schärfen.




Imprint-Dataprotection