Image: Wie Autos „fühlen“M PlanM PlanIntelligente Sensoren ermöglichen Autonomes Fahren | ©JackyLeung
NewsSensortechnik

Wie Autos „fühlen“

Lesezeit ca.: 4 Minuten

Automati­siertes Fahren – das geht nur mit hoch entwickelten Sensoren. Was Kamera, Lidar und Radar der nächsten Fahrzeug­gene­ra­tion leisten müssen.

14. März 2018

Autos werden in Zukunft das Steuer selbst in die Hand nehmen. Auf dem Weg dahin tüfteln die Entwicklungs­ab­tei­lungen der Hersteller zunächst über teil- und vollauto­ma­ti­sierte Steuerfunk­tionen für Autos, bei denen der Mensch den Computer noch nicht alleine schalten und walten lassen kann, wie etwa beim neuen Audi A8. In der Sprache der Autoentwickler handelt es sich um Level 3 der Skala gemäß Definition der Bundesan­stalt für das Straßenwesen (BASt). 

Bereits diese Stufe, die zum Beispiel Fußgänger­er­ken­nung und Notbremsung umfasst, verlangt eine ausgefeilte Sensorik, die Datenmengen in der Größenord­nung von mehreren Megabytes je Sekunde erzeugt. Damit steigen auch die Anforderungen an die nachgela­gerten Datenpfade und die Leistung der Rechner, die diese Datenmengen so verarbeiten, dass am Ende ein einfacher Befehl wie „Stop!“ oder „Ausweichen!“ herauskommt – das aber presto, denn langes Nachdenken ist in einer solchen Situation keine Lösung. Kurze Latenzzeiten stehen gegenwärtig ganz oben auf der Prioritä­ten­liste der Autohersteller – die Reaktion des Autos auf eine Gefahren­si­tua­tion darf nur Millisekunden auf sich warten lassen. Ebenfalls stark gefragt sind Fähigkeiten wie das Zurechtfinden unter schlechten Sichtbedin­gungen, bei Dunkelheit oder bei schnell wechselnden Lichtbedin­gungen.

Vier Kameras für die Rundumsicht

Basis für die Fahrentschei­dungen sind die Sensoren der künftigen Autos: Kamera, Radar und Lidar sowie, mittlerweile nicht mehr nur für das Einparken, Ultraschall­sen­soren. Und das alles in mehrfacher Ausferti­gung. Um ein 360-Grad-Umgebungs­bild zu erzeugen, sind vier Kameras nötig – zusätzlich zu der Frontkamera, deren Aufgabe es ist, Verkehrs­zei­chen, Straßenmar­kie­rungen und Hindernisse zu erkennen. Bis zu vier Radare tasten die Umgebung des Autos ab. Ein Langstre­cken­radar „schaut“ dabei bis zu 300 Meter nach vorne, während drei Mittelstre­cken­ra­dare checken, ob da jemand von hinten naht und ob die benachbarten Fahrstreifen frei sind. Ähnlich der Aufwand bei den Lidar-Sensoren: Während heute noch ein einzelner Lidar-Sensor die Radarsignale verifiziert, sind künftig bis zu vier vorgesehen – an jeder Ecke des Autos einer. Um die fahrerischen Anforderungen der kommenden Automati­sie­rungs­ge­ne­ra­tion zu erfüllen, erzeugen diese „Fühler“ detailrei­chere, höher aufgelöste Bilder als jede Generation zuvor: Die Kamers liefern heute mindestens HD-Bildqualität mit ca. 8 Megapixel bei bis zu 33 Bildern je Sekunde. Dazu kommt eine höhere Dynamik: Die Kameras müssen den Vordermann oder den querstehenden LKW bei der Fahrt durch die Nacht ebenso erkennen wie im gleißenden Sonnenlicht. Weil dazu mehr Bit pro Pixel nötig sind, erhöht auch das die Datenrate. Nebenbei müssen die Kameras schneller als das menschliche Auge von Hell auf Dunkel und umgekehrt umstellen, etwa wenn das Auto aus einem Tunnel in ein sonnenbe­schie­nenes Schneefeld fährt, oder umgekehrt. 
Bei den Radarsen­soren sehen Branchen­be­ob­achter eine dramatische Entwicklung: Die neueste Sensorge­ne­ra­tion, die im Frequenz­band 77 bis 81 GHz sendet, liefert Radarbilder mit deutlich höherer Auflösung als bisher. Zudem ist die Einführung einer neuen Generation von Nachbereichs-Radarsen­soren für Distanzen im einstelligen Meterbereich geplant. Bis zu fünf dieser Sensoren sollen, integriert in die Stoßfänger, zusammen­ar­beiten und nach dem Prinzip des „Phased Array“ den Raum unmittelbar vor dem Fahrzeug ausleuchten, heißt es etwa beim Halbleiter­her­steller NXP. Auf diese Weise werden noch detaillier­tere Radarbilder für das Fahren im innerstäd­ti­schen Gewühl entstehen. 

Lidar-Technik: Jetzt muss der Preis runter

Einen zunehmenden Anteil an der Sensorik spielt auch Lidar. Diese Technik ähnelt dem Radar, nur dass es hier kein gebündelter Hochfrequenz­strahl ist, der die Umgebung abtastet, sondern ein Laserstrahl. Die Kombination von Radar, Lidar und Kamerabil­dern ermöglicht aussagekräf­tige Plausibi­li­täts­kon­trollen: Was der eine Sensor „sieht“ und der andere nicht, kann der dritte verifizieren oder falsifizieren. Zudem ergänzen sich Lidar und Radar. Während Radarsen­soren auch die Geschwin­dig­keit von Objekten messen, liefern Lidarsen­soren ein hoch aufgelöstes Bild („Punktewolke“) ihrer Umgebung. Das Problem: Rotierende Lidarsen­soren, die ein Rundum-Bild ihrer Umgebung erzeugen, sind noch sehr teuer. Neueste Entwicklungen zielen darauf ab, die Strahlablen­kung über Mikrospiegel-Arrays vorzunehmen, die als Halbleiter­chips (MEMS) gefertigt werden und daher deutlich preiswerter zu bauen sind. Einstweilen läuft diese Technik unter der Rubrik „Zukunfts­mu­sik“. Bei Bosch, einem der weltweit größten Hersteller von MEMS-Produkten, heißt es: „Wir arbeiten dran. Eine Entschei­dung ist aber noch nicht gefallen.“