Deep-Dive: Autonomes Fahren

Publiziert am , zuletzt aktualisiert am

Autor:

Autonomes Fahren bringt eine Vielzahl gesellschaftlicher, ökologischer und ökonomischer Vorteile mit sich. Es macht die Straßen sicherer, den Verkehr effizienter, spart Menschen wertvolle Zeit und kann dazu beitragen, Mobilitätskonzepte zu schaffen, die sich jeder leisten und jeder nutzen kann. Zudem kann durch eine bessere Auslastung der Fahrzeuge sowohl die Anzahl der Autos als auch die Anzahl benötigter Parkplätze in Stadtzentren reduziert werden, was zusätzlich Ressourcen spart.

Im Vergleich zur E-Mobilität stehen die Entwicklungen hier noch recht am Anfang. Bis zur Marktreife vollständig autonomer Autos gilt es noch einige Herausforderungen zu lösen. Die aktuellen Player am Markt befinden sich in unterschiedlichen Autonomie-Leveln und verfolgen teilweise unterschiedliche Ansätze. Die fünf Autonomie-Level sind in nachfolgender Abbildung zusammengefasst. Level 1 und 2 unterstützen den Fahrer mit Assistenzsystemen und übernehmen die Fahrzeugkontrolle beim Überholen oder Einparken. Aktuelle Level 1 und 2 Fahrassistenzsysteme dürfen unter der Voraussetzung eingesetzt werden, dass der Fahrer zu jedem Zeitpunkt eingreifen kann. Er ist dazu verpflichtet, in Sekundenabständen Kontakt zum Lenkrad herzustellen. Das ändert sich ab Level 3, ab dem der Fahrer beispielsweise Zeitung lesen kann und erst nach einer definierten Zeit das Steuer wieder übernehmen muss.

Abbildung: Autonomie Level

Level 4 Autonomie sieht in der Praxis keine durchgängige Bereitschaft eines Fahrers mehr vor, ist jedoch noch räumlich oder z.B. durch Witterungsbedinungen eingeschränkt. Dies ermöglicht es innerhalb der definierten Grenzen, die Fahrtzeit für Schlafen, Arbeiten oder Entertainment-Programme zu nutzen. Sollte das Fahrzeug die erlaubten Nutzungsgrenzen verlassen, ist das System in der Lage, sich ohne menschliches Eingreifen in einen sicheren Zustand zu versetzen. Nur in einem solchen Szenario, wird ein Fahrer hinzugeschaltet und kann die Steuerung direkt oder per Datenverbindung remote übernehmen, bis die Software wieder eigenständig agieren kann. Beim Level 5 fällen diese Einschränkungen weg und das Auto kann ohne räumliche Beschränkung und unter allen Bedinungen, die auch für Menschen möglich sind, sicher autonom fahren.

Das zu Google gehörende Waymo betreibt in Arizona bereits ein autonomes Testsystem mit Level 4 Autonomie, in dem ein autonomes Fahrzeug Personen in einem festgelegten Gebiet von 130 Quadratkilometern transportiert. Für dieses Gebiet wurde eine hochaufgelöste dreidimensionale Umgebungskarte erstellt, die alle Straßen, Ampeln und Schilder zeigt. Waymo nutzt neben Kameras auch Lidar- und Radarsensoren, um die Umgebung zu erkennen und seine Autos autonom fahren zu lassen. Der chinesische Player Baidu verfolgt mit seinem Projekt “Apollo” einen ähnlichen Multi-Sensor-Ansatz. Die Flotte aus “Apollo Go”-Fahrzeugen wächst stetig und hat bereits mehr als 25 Millionen Kilometer in ausgewiesenen Testgebieten zurückgelegt. Zuletzt hat das Unternehmen ein Fahrzeug vorgestellt, dass bereits ohne Lenkrad auskommt und ab 2023 in ganz China eingesetzt werden soll.

Auch im LKW-Bereich, in dem TuSimple basierend auf der Nvidia-Plattform autonomes Fahren für den Frachtverkehr anbietet, gibt es verschiedene Anbieter, die allerdings im Vergleich zu PKWs mit anderen Ansätzen wie beispielsweise Hub-to-Hub Fahrten arbeiten und vor teils anderen Herausforderungen wie beispielsweise erhöhten Sicherheitsanforderungen stehen. Im März 2022 erfolgte die weltweit erste fahrerlose LKW-Fahrt auf öffentlichen Straßen.

Ein weiterer bekannter Player im Bereich des autonomen Fahrens ist Tesla. Anders als die anderen Anbieter basiert Teslas Ansatz lediglich auf Computer-Vision mit Kameras (ohne Lidar und Radar), was die Anzahl der benötigten Sensoren reduziert.

Der Weg zur vollständigen Autonomie

Wann volle Level 5 Autonomie kommen wird ist abhängig von zwei entscheidenden Faktoren: der technologischen Reife und der regulatorischen Zulassung.

Tesla verfolgt bei der angestrebten Zulassung einen datengetriebenen Ansatz. Das Unternehmen vergleicht dabei die über sein System gesammelten Unfalldaten mit aktiviertem und mit deaktiviertem Autopiloten. Im ersten Quartal 2021 waren Teslas Fahrzeuge, bei denen der Autopilot aktiviert war, im Durchschnitt alle 6,7 Millionen Kilometer in einen Unfall verwickelt. Bei denjenigen mit deaktiviertem Autopiloten, aber aktiven Fahrassistenz-Features, betrug die durchschnittliche Strecke pro Unfall 3,2 Millionen Kilometer. Wurde keines der angebotenen technischen Features genutzt, waren es lediglich 1,5 Millionen unfallfreie Kilometer. Mit diesen Daten verdeutlicht Tesla, dass bereits jetzt das Level 2 Autonomie zu deutlich mehr Sicherheit im Straßenverkehr beiträgt.

BCG erwartet, dass ab 2035 10 Prozent der verkauften Neuwagen eine Level 4 Autonomie Ausstattung haben werden. Laut McKinsey werden Autos der Autonomiestufe 3 und 4 im Kontext von Mobilitäts­dienstleistungen zwischen 2025 und 2027 das Preisniveau von nicht autonomen Fahrzeugen erreichen, wodurch die Akzeptanz erhöht und Marktpenetration beschleunigt werden wird. Bis zur Adaption der Level 5 Autonomie, bei welcher gar kein Fahrer mehr benötigt wird, wird es unserer Einschätzung nach nicht nur aus technologischer und regulatorischer Sicht, sondern auch im Hinblick auf die gesellschaftliche Akzeptanz noch einige Jahre dauern.

Dennoch zeichnet sich in unseren Augen schon heute ein großes Potenzial im Markt für autonomes Fahren ab. Autonome Fahrdienste werden nach Einschätzung von RethinkX mittelfristig zehnmal günstiger sein als heutige Taxis. ARK geht sogar von noch optimistischeren Kostensenkungen aus und rechnet damit, dass im großen Maßstab eine autonome Robo-Taxi Fahrt 0,13 € pro Kilometer kosten wird. Allein die ökonomischen Vorteile für Anbieter und Verbraucher werden ein starker Treiber bei der Adaption sein. ARK prognostiziert, dass autonome Taxis bis 2035 allein in den USA mehr als 2 Billionen US-Dollar zum BIP beitragen werden. Mit Aufkommen dieser Technologie könnte sich der weltweite Verkehr bis 2030 verdreifachen, da die Nachfrage durch sinkende Kosten steigen wird. Damit steigt auch das Potenzial des autonomen Fahrens.

Im folgenden Abschnitt erläutern wir anhand einiger Hypothesen, welcher Technologie-Ansatz sich unserer Einschätzung nach durchsetzen wird, was aktuell die größten technologischen Herausforderungen sind und wie die konkurrierenden Player sich differenzieren können.

In der jetzigen frühen Phase eignet sich der Multi-Sensor-Ansatz für Anwendungen wie Robotaxis oder Frachtverkehr in vordefinierten Gebieten. Für eine global skalierbare Lösung, die räumlich unbeschränkt einsetzbar ist, ist langfristig der Computer-Vision-Ansatz mit mehreren Kameras am vielversprechendsten.
Hypothese 1
Sensor Vorteile Nachteile
Kamera
  • Günstig
  • Optisches Sehen in ähnlichem Frequenzbereich wie das menschliche Auge
  • Objekterkennung von Schildern und Ampeln durch Computer-Vision
  • Keine unmittelbare Tiefeninformation
  • Abhängigkeit von Umwelteinflüssen wie Nebel oder Niederschlag
Lidar
  • Hohes räumliches Auflösungsvermögen
  • Präzise Erfassung von Tiefeninformationen
  • Teuer verglichen mit anderen Sensorarten
  • Ampeln und Schilder nicht erkennbar
Radar
  • Günstig
  • Erkennung von Entfernung und Relativgeschwindigkeit von Objekten
  • Langwelliges Frequenzspektrum ist robust gegen Umwelteinflüsse wie Nebel oder Niederschlag
  • Liefert ungenaue Daten bei sehr kleinen Relativ­geschwindigkeiten
  • Ampeln und Schilder nicht erkennbar

Der aktuell gängigste Weg ist die Verwendung mehrerer Arten von Sensoren. Unternehmen wie Waymo oder Baidu verfolgen diesen Ansatz und statten ihre Autos mit verschiedenen Kameras, Lidar- und Radarsensoren aus, um Objekte und Umgebung erkennen zu können. Ein Vorteil dieses Ansatzes ist, dass mehrere sehr unterschiedliche Sensoren genutzt werden können, was laut den Herstellern die Redundanz erhöht. Die Herausforderung ist jedoch, dass in bestimmten Situationen die Sensoren widersprüchliche Informationen liefern können, die dann erst zu einem einheitlichen digitalen Modell vereint werden müssen und die vielen Sensoren die Kosten erhöhen. In den Testgebieten kommen zudem meist hochauflösende Karten zum Einsatz, die eine präzise Positionierung des Fahrzeugs ermöglichen. Allerdings ist die Erstellung dieser Karten nur mit hohem Aufwand skalierbar, da hierfür jede Umgebung, jede Straße auf der ganzen Welt abgefahren und alle Abstände, Straßenmarkierungen, Ampeln und Co. erfasst und regelmäßig aktualisiert werden müssen.

Ein Computer-Vision-System mit auschließlich optischen Kameras als Sensoren und ohne den Bedarf für HD-Karten ist hingegen überall einsetzbar, sobald die bestehenden technologischen Herausforderungen gelöst sind. Durch den Wegfall der teuren Lidarsensoren ist dieser Ansatz auch günstiger als Multi-Sensor-Ansätze. Eine der größten Schwierigkeiten beim Computer-Vision-Ansatz ist jedoch die Bestimmung von Entfernungen und Tiefen ohne Radar und Lidar. Nichtsdestoweniger setzt Tesla wie erwähnt bei all seinen Modellen inzwischen auf einen reinen Computer-Vision-Ansatz. Laut Andrej Karpathy, Teslas ehemaligem Head of AI, ist der Deep-Learning-Algorithmus des Computer-Vision-Ansatzes inzwischen so fortgeschritten, dass er beispielsweise durch zusätzliche Radardaten gestört würde.

Abbildung: Sensoren von Autonomen Fahrzeugen

Neben den beiden Ansätzen für die Sensorausstattung der Fahrzeuge selbst besteht auch die Möglichkeit zur Kommunikation zwischen Fahrzeugen und dem Aufbau externer Infrastruktursensoren. Dadurch entsteht eine intelligente Umgebung, die über die Vehicle-to-everything (V2X) Kommunikation im Austausch mit den Fahrzeugen steht. Herausforderungen liegen hier insbesondere im Aufbau des Ökosystems und damit der Skalierbarkeit. Automobilhersteller, Kommunen, V2X-Lieferanten, etc. müssten zusammenarbeiten, um Standards zu definieren, die Infrastruktur durch hohe Investitionen bereitzustellen sowie ihre Fahrzeuge mit der benötigten Schnittstelle auszustatten. Daher wird sich dieser Ansatz nur langfristig oder in definierten Bereichen für Robotaxis umsetzen lassen. Aus unserer Sicht steht die V2X Kommunikation nicht im Konflikt zu den beiden zuvor beschriebenen Ansätzen für Fahrzeugsensoren, sondern ist als Ergänzung anzusehen, um Verkehrsströme in Städten besser zu leiten und die Sicherheit weiter zu erhöhen.

Die zentrale Herausforderung ist es, ein Softwaresystem zu entwickeln, das mithilfe der Sensor-Inputs seine Umgebung erfassen und zuverlässige Vorhersagen über mögliche Bewegungen umliegender Objekte treffen kann.
Hypothese 2

Damit ein Fahrzeug komplett autonom fahren kann, muss es in der Lage sein, die Objekte in seiner Umgebung zu erkennen, zu klassifizieren und eine Vorhersage über ihre möglichen Bewegungen zu treffen. Das ist nicht einfach, denn selbst Objekte mit demselben Aussehen haben verschiedene Bewegungsmuster, zum Beispiel Fahrzeuge, die am Straßenrand parken. Zudem ändern sich ständig die Sichtverhältnisse durch Wetter, Licht und Umgebung. Auch muss die Umgebung nicht nur identifiziert, sondern auch kontextualisiert werden. Ein Stoppschild auf der Straße hat eine andere Bedeutung als eines an einem Bus oder auf einem Werbeplakat.

Um die Datensätze der Sensoren auswerten zu können, braucht es ein komplexes Softwaresystem – eine Art Gehirn, das die verschiedenen Sensordaten zu einem gemeinsamen Modell zusammenführt und dieses auswertet. In der Softwareentwicklung werden dafür meist tiefe neuronale Netze eingesetzt, die die Strukturen im menschlichen Gehirn nachbilden sollen und seit 2012 große Fortschritte gemacht haben. Solche neuronalen Netze weiterzuentwickeln ist komplex und erfordert eine große Software-Expertise.

Um das künstliche Gehirn zu trainieren, werden in der Regel große Mengen an Trainingsdaten benötigt. Diese werden zum Beispiel bei den Fahrzeugen von Tesla immer dann erfasst, wenn der Fahrer in ein Assistenzsystem eingreift, um Gefahren zu verhindern oder um Hindernisse zu umfahren. Zur Auswertung der Daten und Verbesserung des künstlichen Gehirns hat Tesla einen der schnellsten Supercomputer der Welt mit dem Namen „Dojo“ und einen eigens entwickelten KI-Chip, der explizit für das autonome Fahren entwickelt wurde.

Ein umfangreicher und vielfältiger Datensatz aus dem realen Fahrbetrieb zum Trainieren des Algorithmus ist ein wichtiger Schlüsselpunkt im Bereich Level 4 und 5 Autonomie und ein entscheidendes Asset im Rennen um die Marktführerschaft.
Hypothese 3

Im Straßenverkehr gibt es zahllose Situationen, auf die ad hoc reagiert werden muss, zum Beispiel eine Baustelle, ein Tier auf der Fahrbahn oder ein Unfall. Während der Mensch in den meisten Fällen kognitiv in der Lage ist, die richtige Entscheidung zu treffen, muss das autonome Fahrsystem eine ähnliche Situation schon einmal in einem Trainingsdatensatz gesehen haben und daraus folgern können, welches Verhalten in der Situation angemessen wäre. Diese sogenannten Edge-Case-Szenarien treten sehr selten auf, sodass eine riesige Menge von Fahrdaten nötig ist, um sie zu erfassen.

Heutige Systeme können die bereits meisten Standard-Situationen im Verkehr verlässlich einschätzen und bewerten. Ein autonomes Fahrsystem der Stufe 5 muss allerdings in 100 Prozent der Fälle, in denen ein Mensch korrekt agieren könnte, richtig agieren und braucht deshalb für jeden Edge-Case entsprechende Datensätze oder Abstraktionsverfahren.

Tesla hat hier einen großen Datenvorteil, denn jedes seiner Fahrzeuge ist in der Lage, Fahrdaten zu sammeln und an das Forschungs- und Entwicklungszentrum zu übertragen. Seit dem Verkauf der ersten Version des Autopiloten im Jahr 2015 sammelt Tesla alle relevanten Autopilot-Fahrdaten von mittlerweile über 1 Million verkauften Autos. Im April 2020 gab das Unternehmen bekannt, 3 Milliarden Meilen an autonomen Fahrdaten gesammelt zu haben – ein Vorsprung, der kurzfristig kaum einzuholen sein dürfte.

Neben den Daten der externen Sensoren sammelt Tesla auch Daten zum Verhalten der Fahrer, Informationen über die Position ihrer Hände auf den Instrumenten und deren Bedienung. Die gesammelten Daten helfen Tesla nicht nur, seine Systeme zu verfeinern, sondern haben auch einen enormen Wert an sich. Laut McKinsey soll der Markt für die von Fahrzeugen gesammelten Daten bis 2030 einen Wert von 750 Milliarden Dollar pro Jahr erreichen.

Fazit

Die volle Autonomie im Straßenverkehr wird die größte Veränderung der Mobilität seit der Erfindung des Autos mit sich bringen. Obwohl die Menschheit als Ganzes enorm profitieren wird, sind dies für die etablierten OEMs und die 800.000 Beschäftigten allein in Deutschland herausfordernde Zeiten. Wenn Automobilkonzerne und -zulieferer nicht in der Lage sind, die benötigte Technologie selbst zu entwickeln oder sich Zugang dazu zu verschaffen, werden sie es im Automarkt der Zukunft schwer haben. Ein positives Beispiel ist Mercedes-Benz, die die weltweit erste Zulassung für den Verkauf von PKWs mit Level 3 Autonomie erhalten hat und für Level 4 Autonomie mit Nvidia zusammenarbeitet.

Entscheidend für die Lösung der aktuellen Herausforderungen im Bereich autonomes Fahren ist die richtige Kombination aus Sensoren (Hardware) und Algorithmen (Software), die es dem Auto ermöglichen, seine Umgebung verlässlich zu erkennen und eine Vorhersage über deren Verhalten zu treffen. Wir glauben, dass der Multi-Sensor-Ansatz vor allem in der jetzigen frühen Phase für Anwendungen in vordefinierten Bereichen, z.B. bei Robotaxis, am vielvesprechendsten ist. Für eine global skalierbare Lösung, die räumlich unbeschränkt zum autonomen Fahren einsetzbar ist, erachten wir jedoch Teslas Computer-Vision-Ansatz als richtigen Weg. Die für das Training dieser Software benötigten Datensätze sind eines der wertvollsten Assets der Zukunft.