Deep-Dive: Autonomes Fahren

Publiziert am

Autor:

Autonomes Fahren bringt eine Vielzahl gesellschaftlicher, ökologischer und ökonomischer Vorteile mit sich. Es macht die Straßen sicherer, den Verkehr effizienter, spart dem Mensch wertvolle Zeit und kann dazu beitragen, Mobilitätskonzepte zu schaffen, die sich jeder leisten und jeder nutzen kann. Zudem kann durch eine bessere Auslastung sowohl die Anzahl der Autos als auch die Anzahl benötigter Parkplätze in Stadtzentren reduziert werden, was zusätzlich Ressourcen spart.

Im Vergleich zur E-Mobilität stehen die Entwicklungen hier noch recht am Anfang, bis zur vollständigen Marktreife gilt es noch einige Herausforderungen zu lösen. Die aktuellen Player am Markt befinden sich in unterschiedlichen Autonomie-Stufen und verfolgten teilweise unterschiedliche Ansätze.

Tesla Waymo Baidu
Ansatz Computer-Vision Lidar + Computer-Vision Lidar + Computer-Vision
Autonomie-Level aktuell im Einsatz Level 2 Level 4 in Testgebieten Level 4 in Testgebieten
Gefahrene Kilometer 4,8 Milliarden 32 Millionen 8 Millionen
Flottengröße 1.500.000 600 500

Das zu Google gehörende Waymo betreibt in Arizona bereits ein autonomes Testsystem der Stufe 4, in dem ein autonomes Fahrzeug Personen in einem festgelegten Gebiet von 130 Quadratkilometer transportiert. Für dieses Gebiet wurde eine hochaufgelöste dreidimensionale Umgebungskarte erstellt, die alle Straßen, Ampeln und Schilder zeigt. Waymo nutzt neben Kameras und Radarsensoren auch Lidar-Sensoren, um die Umgebung zu erkennen und seine Autos autonom fahren zu lassen.

Der chinesische Player BaiDu verfolgt mit seinem Projekt “Apollo” einen ähnlichen Ansatz mit den drei Sensorsystemen Kamera, Radar und Lidar. BaiDu betreibt derzeit 10 “Apollo Go”-Fahrzeuge in einem 3,1 Quadratkilometer großen erfassten Gebiet mit 8 vordefinierten Zielen, in denen Nutzer einen Transport für eine Pauschalgebühr von 4,60 US-Dollar buchen können.

Der wohl bekannteste Player im Bereich autonomes Fahren ist Tesla. Anders als die anderen Anbieter basiert Teslas Ansatz lediglich auf Computer Vision mit Kameras, was die Anzahl der benötigten Sensoren reduziert. Kürzlich hat Tesla damit begonnen, neue Autos ohne Radarsensor auszuliefern.

Der Weg zur vollständigen Autonomie

Der Zeitpunkt der vollständigen Marktreife der Autonomiestufe 5 ist abhängig von zwei entscheidenden Faktoren: der technologischen Reife und der regulatorischen Zulassung.

Tesla verfolgt bei der angestrebten Zulassung einen datengetriebenen Ansatz. Das Unternehmen vergleicht dabei die über sein System gesammelten Unfalldaten mit aktiviertem und mit deaktiviertem Autopiloten. Im ersten Quartal 2021 waren Teslas Fahrzeuge, bei denen der Autopilot aktiviert war, im Durchschnitt alle 6,7 Millionen Kilometer in einen Unfall verwickelt. Bei denjenigen mit deaktiviertem Autopiloten, aber aktiven Fahrassistenz-Features, betrug die durchschnittliche Strecke pro Unfall 3,2 Millionen Kilometer. Wurde keines der angebotenen technischen Features genutzt, waren es lediglich 1,5 Millionen unfallfreie Kilometer. Mit diesen Daten verdeutlicht Tesla, dass bereits jetzt das Level 2 des autonomen Fahrsystems zu deutlich mehr Sicherheit im Straßenverkehr beiträgt.

Aktuelle Level 2 und Level 3 Fahrassistenzsysteme dürfen unter der Voraussetzung eingesetzt werden, dass der Fahrer zu jedem Zeitpunkt eingreifen kann. Er ist dazu verpflichtet, in Sekundenabständen Kontakt zum Lenkrad herzustellen.

Die Autonomiestufe 4 sieht in der Praxis keine durchgängige Bereitschaft eines Fahrers vor. Dies ermöglicht es, die Fahrtzeit für Schlafen, Arbeiten oder Entertainment-Programme zu nutzen. In diesem Szenario ist das System also bereits in der Lage, sich ohne menschliches Eingreifen in einen sicheren Zustand zu versetzen. Der Fahrer wird lediglich im Ernstfall hinzugeschaltet und kann die Steuerung direkt oder per Datenverbindung remote übernehmen, bis die Software wieder eigenständig agieren kann.

BCG erwartet, dass ab 2035 10 Prozent der verkauften Neuwagen eine Level 4 Autonomie Ausstattung haben werden. Laut McKinsey werden Autos der Autonomiestufe 3 und 4 im Kontext von Mobilitäts­dienstleistungen zwischen 2025 und 2027 das Preisniveau von nicht autonomen Fahrzeugen erreichen, wodurch die Akzeptanz erhöht und Marktpenetration beschleunigt werden wird. Bis zur Adaption der Level 5 Autonomie, bei welcher gar kein Fahrer mehr benötigt wird, wird es unserer Einschätzung nach nicht nur aus technologischer und regulatorischer Sicht, sondern auch im Hinblick auf die gesellschaftliche Akzeptanz noch ein wenig länger dauern.

Dennoch zeichnet sich in unseren Augen schon heute ein 10xPotenzial im Markt für autonomes Fahren ab. Autonome Fahrdienste werden nach Einschätzung von RethinkX mittelfristig zehnmal günstiger sein als heutige Taxis. Ark geht sogar von noch optimistischeren Kostensenkungen aus und rechnet damit, dass im großen Maßstab eine autonome Robo-Taxi Fahrt 0,13 € pro Kilometer kosten wird. Allein die ökonomischen Vorteile für Anbieter und Verbraucher werden ein starker Treiber bei der Adaption sein. ARK prognostiziert, dass autonome Taxis bis 2035 allein in den USA mehr als 2 Billionen US-Dollar zum BIP beitragen werden. Mit Aufkommen dieser Technologie könnte sich der weltweite Verkehr bis 2030 verdreifachen, da die Nachfrage durch sinkende Kosten steigen wird. Damit steigt auch das Potenzial des autonomen Fahrens.

Im folgenden Abschnitt erläutern wir anhand einiger Hypothesen, welcher Technologie-Ansatz sich unserer Einschätzung nach durchsetzen wird, was aktuell die größten technologischen Herausforderungen sind und wie die konkurrierenden Player sich differenzieren können.

Langfristig wird sich der Computer-Vision-Ansatz mit mehreren Kameras als Hauptsensoren durchsetzen. Die Lidar-Technologie wird eine untergeordnete Rolle spielen.
Hypothese 1
Sensor Pro Contra
Kamera
  • kostengünstig
  • optisches Sehen in ähnlichem Frequenzbereich wie das menschliche Auge
  • Objekterkennung von Schildern und Ampeln durch Computer Vision
  • keine unmittelbare Tiefeninformation
  • Schwierigkeiten bei Nebel, Schnee
Radar
  • Erkennung von Entfernung und Relativgeschwindigkeit von Objekten
  • langwelliges Radiospektrum ist robust gegen Umwelteinflüsse wie Nebel oder Schnee
  • liefert ungenaue Daten bei sehr kleinen Relativ­geschwindigkeiten
  • Ampeln und Schilder sind nicht erkennbar
Lidar
  • hohes räumliches Auflösungsvermögen
  • präzise Erfassung von Tiefeninformationen
  • bisher hohe Sensorkosten
  • Ampeln und Schilder sind nicht erkennbar

Der aktuell gängigste Weg ist die Verwendung mehrerer Arten von Sensoren. Unternehmen wie Waymo oder Baidu verfolgen diesen Ansatz und statten ihre Autos mit verschiedenen Kameras, Lidar- und Radarsensoren aus, um Objekte und Umgebung erkennen zu können. Die Herausforderung hier ist, dass in bestimmten Situationen verschiedene Sensoren widersprüchliche Informationen liefern, die erst zu einem einheitlichen digitalen Modell vereint werden müssen. In den Testgebieten von Waymo und Baidu kommen zudem hochauflösende Lidar-Karten zum Einsatz, die eine präzise Positionierung des Fahrzeugs ermöglichen sollen. Allerdings ist die Erstellung dieser Karten kaum skalierbar, da hierfür jede Umgebung, jede Straße auf der ganzen Welt abgefahren und alle Abstände, Straßenmarkierungen, Ampeln und Co. erfasst und regelmäßig aktualisiert werden müssten. Das reine Computer-Vision-System mit ausschließlich optischen Kameras als Hauptsensoren ist hingegen überall einsetzbar, sobald die bestehenden technologischen Herausforderungen gelöst sind.

Eine der größten Schwierigkeiten hierbei ist die Bestimmung von Entfernungen und Tiefen ohne Radar und Lidar. Dennoch setzt Tesla bei seinen Modellen inzwischen auf einen reinen Computer-Vision-Ansatz, der nur noch Kameras als Input-Sensoren nutzt. Deshalb liefert Tesla zukünftig nur noch Autos ohne Radar aus. Laut Andrej Karpathy, Teslas Chief of AI, ist der Deep-Learning-Algorithmus des Computer-Vision-Ansatzes inzwischen so fortgeschritten, dass er durch Radardaten behindert würde.

Auch Prof. Dr. Daniel Cremers, Professor für Informatik und Mathematik am Lehrstuhl für Computer Vision und Künstliche Intelligenz an der TU München, der seit mehr als 10 Jahren auf diesem Gebiet arbeitet, schätzt Computer-Vision als den sinnvolleren Ansatz auf dem Weg zum autonomen Fahren ein.

Die zentrale Herausforderung ist es, ein Softwaresystem zu entwickeln, das mithilfe der Sensor-Inputs seine Umgebung erfassen und zuverlässige Vorhersagen über mögliche Bewegungen umliegender Objekte treffen kann.
Hypothese 2

Damit ein Fahrzeug komplett autonom fahren kann, muss es in der Lage sein, die Objekte in seiner Umgebung zu erkennen, zu klassifizieren und eine Vorhersage über ihre möglichen Bewegungen zu treffen. Das ist nicht einfach, denn selbst Objekte mit demselben Aussehen haben verschiedene Bewegungsmuster, zum Beispiel Fahrzeuge, die am Straßenrand parken. Zudem ändern sich ständig die Sichtverhältnisse durch Wetter, Licht und Umgebung. Auch muss die Umgebung nicht nur identifiziert, sondern auch kontextualisiert werden. Ein Stoppschild auf der Straße hat eine andere Bedeutung als eines an einem Bus oder unter dem Arm eines Bauarbeiters.

Um die Datensätze der Sensoren auswerten zu können, braucht es ein komplexes Softwaresystem – eine Art Gehirn, das die verschiedenen Sensordaten zu einem gemeinsamen Modell zusammenführt und dieses auswertet. In der Softwareentwicklung werden dafür unter anderem sogenannte tiefe neuronale Netze eingesetzt, die die Strukturen im menschlichen Gehirn nachbilden sollen und seit 2012 große Fortschritte gemacht haben.

Um das künstliche Gehirn zu trainieren, werden in der Regel große Mengen an Trainingsdaten benötigt. Diese werden zum Beispiel bei den Fahrzeugen von Tesla immer dann erfasst, wenn der Fahrer in ein Assistenzsystem eingreift, um Gefahren zu verhindern oder um Hindernisse zu umfahren. Zur Auswertung der Daten und Verbesserung des künstlichen Gehirns hat Tesla einen der schnellsten Supercomputer der Welt mit dem Namen „Dojo“ und einen eigens entwickelten KI-Chip, der explizit für das autonome Fahren entwickelt wurde und 21 mal schneller ist als der Chip, den Tesla zuvor von Nvidia bezogen hatte.

Ein umfangreicher und vielfältiger Datensatz aus dem realen Fahrbetrieb zum Trainieren des Algorithmus ist ein wichtiger Schlüsselpunkt im Bereich Level 5 Autonomie und ein entscheidendes Asset im Rennen um die Marktführerschaft.
Hypothese 3

Im Straßenverkehr gibt es zahllose, verschiedenste Situation, auf die ad hoc reagiert werden muss. Eine Baustelle, ein Tier auf der Fahrbahn oder ein Unfall. Während der Mensch in den meisten Fällen kognitiv in der Lage ist, die richtige Entscheidung zu treffen, muss das autonome Fahrsystem eine ähnliche Situation schon einmal in einem Trainingsdatensatz gesehen haben und daraus folgern können, welches Verhalten in der Situation angemessen wäre. Diese sogenannten Edge-Case-Szenarien treten sehr selten auf, sodass eine riesige Menge von Fahrdaten nötig ist, um sie zu erfassen.

Heutige Systeme können die meisten Standard-Situationen im Verkehr verlässlich einschätzen und bewerten. Ein autonomes Fahrsystem der Stufe 5 muss allerdings in 100 Prozent der Fälle, in denen ein Mensch korrekt agieren könnte, richtig agieren und braucht deshalb für jeden Edge-Case entsprechende Datensätze oder Abstraktionsverfahren.

Tesla hat hier einen großen Datenvorteil, denn jedes seiner Fahrzeuge ist in der Lage, Fahrdaten zu sammeln und an das Forschungs- und Entwicklungszentrum zu übertragen. Seit dem Verkauf der ersten Version des Autopiloten im Jahr 2015 sammelt Tesla alle relevanten Autopilot-Fahrdaten von mittlerweile über 1 Million verkauften Autos. Im April 2020 gab das Unternehmen bekannt, 3 Milliarden Meilen an autonomen Fahrdaten gesammelt zu haben – ein Vorsprung, der kaum einzuholen sein dürfte.

Neben den Daten der externen Sensoren sammelt Tesla auch Daten zum Verhalten der Fahrer, Informationen über die Position ihrer Hände auf den Instrumenten und deren Bedienung. Die gesammelten Daten helfen Tesla nicht nur, seine Systeme zu verfeinern, sondern haben auch einen enormen Wert an sich. Laut McKinsey soll der Markt für die von Fahrzeugen gesammelten Daten bis 2030 einen Wert von 750 Milliarden Dollar pro Jahr erreichen.

Fazit

Die volle Autonomie im Straßenverkehr wird die größte Veränderung der Mobilität seit der Erfindung des Autos mit sich bringen. Obwohl die Menschheit als Ganzes enorm profitieren wird, sind dies für die etablierten OEMs und die 800.000 Beschäftigten allein in Deutschland herausfordernde Zeiten. Sind die europäischen Automobilkonzerne und -zulieferer nicht in der Lage, die benötigte Technologie selbst zu entwickeln oder sich Zugang dazu zu verschaffen, werden sie es im Automarkt der Zukunft schwer haben. Darüber hinaus gehen einige Schätzungen davon aus, dass die sich im Umlauf befindliche Fahrzeugflotte um 80 Prozent sinken wird. Dies lässt sich auf die höhere Auslastung und das zu erwartende veränderte Konsumentenverhalten zurückführen. Im Artikel zum Bereich Shared Mobility gehen wir genauer darauf ein.

Entscheidend für die Lösung der aktuellen Herausforderungen im Bereich autonomes Fahren ist die richtige Kombination aus Sensoren (Hardware) und Algorithmen (Software), die es dem Auto ermöglichen, seine Umgebung verlässlich zu erkennen und eine Vorhersage über deren Verhalten zu treffen. Den Computer-Vision-Ansatz, den unter anderem Tesla verfolgt, erachten wir als richtigen Weg hin zu einer global skalierbaren Lösung. Die für das Training der Software benötigten Datensätze sind einer der wertvollsten Assets der Zukunft.