Bilddaten latenzarm komprimiert

 Bilddaten latenzarm komprimiert

Die Zahl der Kameras in Autos steigt. Durch die Datenflut stoßen die internen Netzwerke jedoch an ihre Grenzen. Spezielle Kompressionsverfahren reduzieren die Menge der Videodaten, weisen jedoch eine hohe Latenz für die Codierung auf. Bild: Fraunhofer HHI

Die Zahl der Kameras in Autos steigt. Durch die Datenflut stoßen die internen Netzwerke jedoch an ihre Grenzen. Spezielle Kompressionsverfahren reduzieren die Menge der Videodaten, weisen jedoch eine hohe Latenz für die Codierung auf. Fraunhofer-Forscher haben die Videokompression so angepasst, dass eine Latenz fast nicht mehr wahrnehmbar ist. So wird sie interessant für den Einsatz im Straßenverkehr beziehungsweise das autonome Fahren.

Bis zu zwölf Kameras sind heute in neuen Fahrzeugmodellen installiert. Meist in den Front- oder Rückscheinwerfern oder den Seitenspiegeln. Ein im Auto verbauter Bordrechner nutzt die Daten beispielsweise für den Spurassistenten, die Einparkhilfe oder um andere Verkehrsteilnehmer oder mögliche Hindernisse zu erkennen. „Kommt das autonome Fahren so schnell wie derzeit prognostiziert, dann wird die Zahl der Kameras weiter zunehmen“, prophezeit Prof. Benno Stabernack vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin.

Zehnmal mehr Daten

Das bedeutet noch mehr Last für die internen Datennetzwerke der Fahrzeuge. Aktuell können diese ein Datenvolumen von etwa einem Gigabit pro Sekunde verarbeiten. Bei HD-Qualität ist diese Datenmenge bereits bei einer Kamera erreicht. Abhilfe schaffen hier Kompressionsverfahren. Das Fraunhofer HHI beispielsweise hat maßgeblich zur Entwicklung der beiden Videocodierungsstandards H.264/Advanced Video Coding (AVC) bzw. H.265/MPEG High Efficiency Video Coding (HEVC) beigetragen. „Mit diesen Verfahren lassen sich die Datenmengen stark reduzieren“, ist Stabernack überzeugt. Dadurch könne beispielsweise mehr als die zehnfache Datenmenge übertragen werden.

Üblicherweise werden 30 bis 60 Bilder pro Sekunde von einer Kamera an die zentrale Rechnereinheit des Fahrzeugs geschickt. Durch die Kompression der Bilddaten entsteht eine kleine Verzögerung bei der Übertagung, die Latenz. „In der Regel beträgt diese fünf bis sechs Bilder pro Sekunde«, erklärt Stabernack. Der Grund läge darin, dass die Verfahren ein Bild mit den bereits Übertragenen abglichen, um die Differenzen zwischen dem aktuellen Bild und seinen Vorgängern herauszurechnen. Durch die Netzwerke geschickt würden dann nur noch die Veränderungen von Bild zu Bild. Diese Berechnung dauere eine gewisse Zeit.

Latenzzeit unter einem Bild pro Sekunde

„Dieser Zeitverlust kann im Straßenverkehr jedoch von entscheidender Bedeutung sein“, warnt Stabernack. Um die Latenz zu vermeiden, benutzen der Professor und sein Team nur spezielle Mechanismen des H.264-Codierungsverfahrens: Der Abgleich der Unterschiede einzelner Bilder erfolgt dabei nicht mehr zwischen Bildern, sondern innerhalb eines Bilds. Das macht das Verfahren latenzarm. „Mit unserer Methode beträgt die Verzögerung nun unter einem Bild pro Sekunde, nahezu Echtzeit“, erklärt Prof. Benno Stabernack. „Damit können wir das H.264-Verfahren nun auch für Kameras in Fahrzeugen nutzen“. Die Technologie unter anderem in Form eines speziellen Chips umgesetzt: In der Kamera komprimiert er die Bilddaten, im Bordrechner decodiert er diese wieder.

Die Berliner Forscherinnen und Forscher haben ihr Verfahren patentieren lassen und verkaufen ihr Know-how als Lizenz an die Industrie. Kunden sind Automobilzulieferer, erste Fahrzeugmodelle mit der Fraunhofer-Technologie sind bereits auf dem Markt. »Bei der Entwicklung haben wir unser Know-how aus den Arbeiten zu den Videokompressionsstandards und unsere Hardwareexpertise miteinander kombiniert“, berichtet Stabernack. Die Übertragung von Bilddaten in Echtzeit sei Voraussetzung dafür, dass sich die Videokompression bei Videodaten aus Autokameras durchsetze. Durch sie käme dann auch der Einsatz von Geräten mit höherer Bildwiederholungsfrequenz und Auflösung in Frage.

Im nächsten Schritt wollen die Forscher ihr Verfahren auch auf den HEVC-Standard übertragen und ihre Erfahrungen in nächste Standardisierungsformate einfließen lassen. (ig)