Wie Autos „fühlen“
Lesezeit ca.: 4 MinutenAutomatisiertes Fahren – das geht nur mit hoch entwickelten Sensoren. Was Kamera, Lidar und Radar der nächsten Fahrzeuggeneration leisten müssen.
14. März 2018Autos werden in Zukunft das Steuer selbst in die Hand nehmen. Auf dem Weg dahin tüfteln die Entwicklungsabteilungen der Hersteller zunächst über teil- und vollautomatisierte Steuerfunktionen für Autos, bei denen der Mensch den Computer noch nicht alleine schalten und walten lassen kann, wie etwa beim neuen Audi A8. In der Sprache der Autoentwickler handelt es sich um Level 3 der Skala gemäß Definition der Bundesanstalt für das Straßenwesen (BASt).
Bereits diese Stufe, die zum Beispiel Fußgängererkennung und Notbremsung umfasst, verlangt eine ausgefeilte Sensorik, die Datenmengen in der Größenordnung von mehreren Megabytes je Sekunde erzeugt. Damit steigen auch die Anforderungen an die nachgelagerten Datenpfade und die Leistung der Rechner, die diese Datenmengen so verarbeiten, dass am Ende ein einfacher Befehl wie „Stop!“ oder „Ausweichen!“ herauskommt – das aber presto, denn langes Nachdenken ist in einer solchen Situation keine Lösung. Kurze Latenzzeiten stehen gegenwärtig ganz oben auf der Prioritätenliste der Autohersteller – die Reaktion des Autos auf eine Gefahrensituation darf nur Millisekunden auf sich warten lassen. Ebenfalls stark gefragt sind Fähigkeiten wie das Zurechtfinden unter schlechten Sichtbedingungen, bei Dunkelheit oder bei schnell wechselnden Lichtbedingungen.
Vier Kameras für die Rundumsicht
Basis für die Fahrentscheidungen sind die Sensoren der künftigen Autos: Kamera, Radar und Lidar sowie, mittlerweile nicht mehr nur für das Einparken, Ultraschallsensoren. Und das alles in mehrfacher Ausfertigung. Um ein 360-Grad-Umgebungsbild zu erzeugen, sind vier Kameras nötig – zusätzlich zu der Frontkamera, deren Aufgabe es ist, Verkehrszeichen, Straßenmarkierungen und Hindernisse zu erkennen. Bis zu vier Radare tasten die Umgebung des Autos ab. Ein Langstreckenradar „schaut“ dabei bis zu 300 Meter nach vorne, während drei Mittelstreckenradare checken, ob da jemand von hinten naht und ob die benachbarten Fahrstreifen frei sind. Ähnlich der Aufwand bei den Lidar-Sensoren: Während heute noch ein einzelner Lidar-Sensor die Radarsignale verifiziert, sind künftig bis zu vier vorgesehen – an jeder Ecke des Autos einer. Um die fahrerischen Anforderungen der kommenden Automatisierungsgeneration zu erfüllen, erzeugen diese „Fühler“ detailreichere, höher aufgelöste Bilder als jede Generation zuvor: Die Kamers liefern heute mindestens HD-Bildqualität mit ca. 8 Megapixel bei bis zu 33 Bildern je Sekunde. Dazu kommt eine höhere Dynamik: Die Kameras müssen den Vordermann oder den querstehenden LKW bei der Fahrt durch die Nacht ebenso erkennen wie im gleißenden Sonnenlicht. Weil dazu mehr Bit pro Pixel nötig sind, erhöht auch das die Datenrate. Nebenbei müssen die Kameras schneller als das menschliche Auge von Hell auf Dunkel und umgekehrt umstellen, etwa wenn das Auto aus einem Tunnel in ein sonnenbeschienenes Schneefeld fährt, oder umgekehrt.
Bei den Radarsensoren sehen Branchenbeobachter eine dramatische Entwicklung: Die neueste Sensorgeneration, die im Frequenzband 77 bis 81 GHz sendet, liefert Radarbilder mit deutlich höherer Auflösung als bisher. Zudem ist die Einführung einer neuen Generation von Nachbereichs-Radarsensoren für Distanzen im einstelligen Meterbereich geplant. Bis zu fünf dieser Sensoren sollen, integriert in die Stoßfänger, zusammenarbeiten und nach dem Prinzip des „Phased Array“ den Raum unmittelbar vor dem Fahrzeug ausleuchten, heißt es etwa beim Halbleiterhersteller NXP. Auf diese Weise werden noch detailliertere Radarbilder für das Fahren im innerstädtischen Gewühl entstehen.
Lidar-Technik: Jetzt muss der Preis runter
Einen zunehmenden Anteil an der Sensorik spielt auch Lidar. Diese Technik ähnelt dem Radar, nur dass es hier kein gebündelter Hochfrequenzstrahl ist, der die Umgebung abtastet, sondern ein Laserstrahl. Die Kombination von Radar, Lidar und Kamerabildern ermöglicht aussagekräftige Plausibilitätskontrollen: Was der eine Sensor „sieht“ und der andere nicht, kann der dritte verifizieren oder falsifizieren. Zudem ergänzen sich Lidar und Radar. Während Radarsensoren auch die Geschwindigkeit von Objekten messen, liefern Lidarsensoren ein hoch aufgelöstes Bild („Punktewolke“) ihrer Umgebung. Das Problem: Rotierende Lidarsensoren, die ein Rundum-Bild ihrer Umgebung erzeugen, sind noch sehr teuer. Neueste Entwicklungen zielen darauf ab, die Strahlablenkung über Mikrospiegel-Arrays vorzunehmen, die als Halbleiterchips (MEMS) gefertigt werden und daher deutlich preiswerter zu bauen sind. Einstweilen läuft diese Technik unter der Rubrik „Zukunftsmusik“. Bei Bosch, einem der weltweit größten Hersteller von MEMS-Produkten, heißt es: „Wir arbeiten dran. Eine Entscheidung ist aber noch nicht gefallen.“