//Prof. Dr. Stefan-Alexander Schneider zum autonomen Fahren (Teil 2): „Die größte Hürde ist der Bruch zwischen Technik und Mensch“

Prof. Dr. Stefan-Alexander Schneider zum autonomen Fahren (Teil 2): „Die größte Hürde ist der Bruch zwischen Technik und Mensch“

Deutschland hat sich das Ziel gesetzt, Leitmarkt für autonomes Fahren zu werden. Der große Durchbruch hin zu marktreifen Lösungen ist im Gegensatz zu anderen Ländern allerdings noch nicht in Sicht. In einer mehrteiligen Serie im Motorjournalist äußert sich Prof. Dr. Stefan-Alexander Schneider von der Hochschule Kempten mit dem Fachgebiet Fahrerassistenzsysteme und Autonomes Fahren zum aktuellen Stand, den Chancen und Risiken sowie den Zielen der autonomen Mobilität. Nachfolgend der zweite Teil des Gesprächs mit Prof. Schneider.

Motorjournalist: Was ist der größte Stolperstein bzw. die größte Hürde auf dem Weg hin zu einer zukunftsträchtigen Mobilität mit autonom fahrenden Fahrzeugen?

Prof. Schneider: Die größte Hürde ist nicht die Technik und nicht der Mensch allein – sondern der Bruch zwischen beiden, sprich, die fehlende Synchronisation zwischen beiden. Sicherheit muss nicht nur real sein, sondern auch kommunizierbar. Vertrauen entsteht dort, wo Systeme transparent arbeiten, erklärbar bleiben – und wenn es Regeln gibt, die genau diese Prinzipien absichern. Dabei ist ein fundamentales Missverständnis noch immer tief verankert: Autonomes Fahren ist keine Frage besserer Fahrwerke oder komfortabler Sitze. Es geht nicht um die Perfektionierung eines Autos – sondern um die algorithmische Nachbildung menschlicher Urteils- und Reaktionsfähigkeit. Deshalb reicht klassische Funktionssicherheit (FuSi) allein nicht mehr aus. Wir müssen auch die Sicherheit der beabsichtigten Funktionalität (SOTIF) adressieren, also gerade jene Fälle, in denen das System zwar technisch fehlerfrei, aber dennoch falsch entscheidet. Erst wenn Systeme auch mit Unsicherheit souverän umgehen und ihre Grenzen kommunizieren können, wird Vertrauen nachhaltig möglich. Der Mensch ist kein Hindernis – er ist das Maß der Mobilität. Wer ihn in der Gestaltung von Technologie nicht mitdenkt, wird keinen Durchbruch erzielen. Dazu drei Punkte. Erstens, technisch ist Sicherheit längst kein Fremdwort mehr – aber noch nicht flächendeckend realisiert. Wir verfügen inzwischen über hochentwickelte Sicherheitskonzepte: Das ist die Sensorfusion aus Radar, Kamera, Lidar, das ist weiter die KI-basierte Entscheidungslogik mit semantischem Kontextverständnis sowie redundante Systeme, Notfallstrategien und Teleoperation für den Rückgriff. Aber Sicherheit in der Technik muss auch in der Anwendungssituation garantiert werden – und das bedeutet zuverlässige Zulassung, stabile Datenverfügbarkeit und präzise Lokalisierung. So ist ein System nur dann sicher, wenn die Umgebung, die Datenverbindung und das regulatorische Umfeld ebenso stabil sind wie der Algorithmus. Zweitens, der Mensch ist kein Hindernis – sondern der Schlüssel. Die immer wieder zitierte Skepsis gegenüber autonomen Fahrzeugen ist kein emotionales Problem, sondern ein rationales Ergebnis mangelnder Transparenz und Erfahrung. Menschen trauen einer Technik nicht, deren Entscheidungen sie weder sehen noch nachvollziehen können. Deshalb ist die Mensch-Maschine-Interaktion (HMI) entscheidend: Sie muss sichtbar machen, was das Fahrzeug ‚denkt‘, welche Unsicherheiten es erkennt und wie es sich im Zweifel Hilfe holt – etwa durch Teleoperation. Vertrauen entsteht, wenn Systeme nicht nur korrekt funktionieren, sondern auch kommunizieren, wenn sie es nicht tun. Nur so kann der Mensch sich eingebunden fühlen – als informierter Teil eines dynamischen Systems, nicht als machtloser Passagier (Watch This Grandmother Freak Out Behind The Wheel of Self-Driving Tesla). Drittens, die eigentliche Hürde lautet: Vertrauen institutionalisieren – durch Gesetzgebung & Infrastruktur. Wir brauchen eine Zulassungslogik, die KI-Systeme nachvollziehbar prüft, Operatoren rechtlich absichert und die für den Nutzer verständlich ist. Gleichzeitig brauchen wir eine robuste, flächendeckende Infrastruktur (Schlagwort Zugriff auf digitale Zwillinge, z. B. der digitalen Abbildung der Städte und ihrer Infrastruktur), die autonomes oder teleoperiertes Fahren überhaupt erst ermöglicht. Das bedeutet, es braucht eine latenzarme Kommunikation über 5G oder perspektivisch 6G, die Verfügbarkeit hochauflösender Karten (HD-Maps) in Echtzeit sowie eine permanente Systemverfügbarkeit einschließlich ländlicher Räume. Zudem wird eine permanente Konnektivität auch in ländlichen Regionen benötigt, wo der Mobilitätsbedarf hoch, aber das technische Fundament oft schwach ist. Kurzum: Vertrauen braucht Redundanz – auch in der Infrastruktur. Nur so wird automatisiertes Fahren zur verlässlichen Realität und nicht zum urbanen Luxus. Denn: Was hilft das sicherste Auto, wenn es in der Funklücke steht?

Motorjournalist: Sie haben einmal das autonome Auto mit einem Regisseur verglichen, der das Drehbuch nicht kenne. Daher müsse es lernen, aus einer vorgefundenen Kulisse und der Bewegung der Protagonisten zu verstehen, was das Drehbuch für die nächsten 10 Sekunden ist. An Sie als promovierter Mathematiker, der umfangreiche Erfahrungen in der Automobilindustrie gesammelt hat, also die Frage: Wie ist es zu schaffen, Maschinen bzw. Software so fit zu machen, dass sie die komplexen Anforderungen des Fahrens noch sicherer als es dem Menschen bisher möglich ist, zu bewältigen?

Prof. Schneider: Ja, ich vergleiche die Aufgabe des autonomen Fahrens gern mit einer ‚inversen Theateraufgabe‘. Der Regisseur kennt das Drehbuch und bringt es auf die Bühne.
Das autonome Fahrzeug? Es sieht nur die Bühne – das Wetter, die Straßenlage, Ampeln, Schilder, die Bewegungen der anderen Verkehrsteilnehmer – und muss aus der Szene heraus erraten, was im Drehbuch stehen könnte, was etwa die nächsten 10 Sekunden höchstwahrscheinlich ‚aufgeführt‘ wird. Es muss also aus dem Kontext heraus das Drehbuch rekonstruieren – in Echtzeit, fehlerfrei, ohne Generalprobe. Ein schönes kulturelles Bild dafür liefert das Stück „An Oak Tree“ von Tim Crouch: Ein Schauspieler betritt dort die Bühne, ohne das Drehbuch zu kennen, und muss sich – live und intuitiv – durch die Aufführung bewegen. Ganz ähnlich steht das autonome Fahrzeug inmitten einer Szene, ohne Regie, ohne Skript – und muss aus Umgebung, Bewegung und Bedeutung ein plausibles ‚Stück‘ entwickeln, das sicher und verständlich ‚gespielt‘ werden kann. Meine Studierenden bekommen diese Denkfigur regelmäßig in der Abschlussklausur – und genauso regelmäßig beginnt dann das Stirnrunzeln. Zu Recht: Denn was für den Menschen selbstverständlich wirkt, ist für Maschinen eine Meisterleistung.

Die Sicherheit maschinellen Fahrens wird nicht allein durch Sensoren oder Algorithmen entschieden, sondern durch die Fähigkeit, Sinn zu erkennen, Kontext zu verstehen – und aus Unsicherheit angemessen zu handeln. Dazu braucht es erklärbare Systeme, lernfähige Strukturen – und eine Fehlerkultur, die nicht bestraft, sondern befähigt. Nur so werden Maschinen irgendwann in der Lage sein, situativ vorausschauender zu handeln als wir Menschen. Wie macht man Maschinen dafür fit? Der Schlüssel liegt in drei Punkten. Erstens, semantisches Verstehen statt rein geometrischer Berechnung. Maschinen müssen kontextuelle Bedeutung erfassen – etwa: Erkennt der Fußgänger das Fahrzeug? Signalisiert er durch Körpersprache ‚Du darfst?‘ Handelt ein anderer Verkehrsteilnehmer normgemäß oder überraschend? Absichtserkennung – Was hat wer vor? Das ist keine rein sensorische, sondern eine interpretierende Leistung. Zweitens, datengestützte KI mit plausibilisierbarer Entscheidungslogik. Die Systeme lernen aus Millionen Situationen – in der Simulation, im Shadow-Modus, unter Aufsicht. Dabei werden Wahrscheinlichkeiten, Absichten und Verkehrsrollen modelliert und abgeschätzt – wie beim Menschen auch, auf dem lernenden Weg vom Fahrschüler zum Fahrexperten. Aber: Eine KI darf nicht nur funktionieren – sie muss auch erklärbar sein. Deshalb wird an XAI-Methoden (Explainable AI) gearbeitet, um Entscheidungen nicht nur richtig, sondern auch nachvollziehbar zu machen – gerade im Hinblick auf Zulassung, Haftung und Vertrauen. Drittens, Simulation + Realwelt-Training + Redundanzen. Wie es so treffend heißt: „Klavierspielen lernt man nicht durch den Besuch von Konzerten.“ Damit wird auf den Punkt gebracht, dass nur durch eigene Praxis – nicht durch bloßes Zuschauen – Können entsteht – genauso wenig reicht Simulation allein. Deshalb müssen Maschinen durch hybride Lernverfahren trainiert werden: synthetische Daten, reale Edge-Cases, seltene Konstellationen. Dabei gilt: je seltener die Situation, desto wichtiger das Verhalten. Dies wird vor allen Dingen im Hybridverkehr zwischen autonomen Fahrzeugen und Menschen gesteuerten Fahrzeugen eine zu lösende Herausforderung … Menschen verhalten sich nicht in jedem Falle rational, logisch, insbesondere unter Stress und auch Panik. Das muss in den „Lernprozess“ autonomer Fahrzeuge integriert werden.

Der Wettkampf Mensch gegen Maschine mag Schlagzeilen machen – aber der eigentliche Fortschritt entsteht dort, wo der Mensch mit der Maschine denkt, lernt und entscheidet. So wie Go durch AlphaGo nicht abgeschafft, sondern auf ein neues Niveau gehoben wurde, kann auch Mobilität durch Kooperation von Mensch und KI sicherer, inklusiver und intelligenter werden. Ein eindrucksstarkes Bild, wie Mensch und Maschine voneinander lernen können, liefert das Go-Spiel. 2016 besiegte AlphaGo den Weltklassespieler Lee Sedol – ein Meilenstein für die KI-Forschung. Besonders legendär wurde Zug 37 in Partie 2: ein Spielzug, den „niemand je in Erwägung gezogen hätte“, so ein Kommentator – und der laut AlphaGo nur mit einer Wahrscheinlichkeit von 1:10.000 gewählt worden wäre.  (axios.com: New AlphaGo AI learns without help from humans und wired.com: How Google’s AI Viewed the Move No Human Could Understand). Dieses unerwartete Zeichen maschineller Kreativität öffnete die Perspektive für menschliches Lernen: Spieler wie Lee Sedol analysierten AlphaGos Strategien, adaptierten sie – und erreichten neue kreative Höhen, die zuvor niemand für möglich gehalten hätte.

Motorjournalist: Welche Rolle könnte auf dem Weg zu einer funktionierenden autonomen Mobilität eine sinnvolle „Fehlerkultur“ spielen? Warum ist Fehlerkultur entscheidend?

Prof. Schneider: Gerade, weil autonome Systeme komplexe Szenarien lernen müssen, ist es essenziell, dass Fehler: erkannt, nachvollzogen und systematisch analysiert werden können, nicht verschwiegen oder vertuscht, sondern erwartet und antizipiert werden, und nicht als individuelles Versagen, sondern als Entwicklungspotenzial verstanden werden. Fehlerkultur ist kein Risiko für Sicherheit – sie ist deren Voraussetzung. Denn ein System, das keine Fehler zugeben darf, kann auch nicht besser werden. Ich verwende in der Lehre gern das Modell aus der Informatik, konkret aus dem Compilerbau (wo auch sehr viel Mathematik drinnen steckt). Dort unterscheidet man defined behaviour, implementation-defined behaviour und undefined behaviour. Diese Kategorien lassen sich eins zu eins auf KI-Entscheidungen übertragen: Ein autonomes Fahrzeug muss genau wissen, wo es auf festem Grund handelt, wo es Entscheidungen selbst trifft, aber nachvollziehbar erklären muss, und wo es unsicher ist – und sich deshalb zurücknehmen sollte. Nur mit dieser Unterscheidung kann Fehlerkultur operationalisiert werden – nicht als Reaktion auf Fehler, sondern als aktive Risikoeinschätzung vor der Entscheidung.

Das nachfolgende Schema erlaubt eine systematische Fehlerkultur in KI-Systemen: Defined Behaviour, das zertifiziert werden kann, Implementation-Defined, was klare Dokumentation & erklärbare Modelle braucht, sowie Undefined Behaviour, das frühzeitig erkannt, isoliert und abgesichert werden muss und niemals autonom entschieden werden darf. Defined Behaviour betreffen Entscheidungen, die auf festen Regeln basieren, eindeutig interpretierbar und abgesichert sind. Beispiele: Fahrzeug erkennt ein rotes Ampelsignal und bleibt stehen, Geschwindigkeitsbegrenzung erkannt und das System reduziert Tempo oder Abstandregelung zu vorausfahrendem Fahrzeug bei klarer Sicht und standardisiertes Bremsverhalten. Implementation-Defined Behaviour: Hier sind Entscheidungen gemeint, bei denen das Verhalten von Trainingsdaten, Lernarchitektur oder situativer Interpretation abhängt, aber rückverfolgbar und begründbar ist. Beispiele: Wie stark wird bei 80 km/h gebremst, wenn ein Objekt am Straßenrand auftaucht? Das hängt von Risikoabschätzung oder Radar- vs. Kameradaten ab, ein Zebrastreifen ist durch Schnee leicht verdeckt und Erkennung durch semantisches Mapping oder durch eine historische Karte. Undefined Behaviour: Situationen, die nicht im Trainingsraum abgedeckt wurden, keine klare Regelbasis haben und bei denen das System willkürlich oder falsch reagieren kann. Beispiele: Ein Kind in einem Halloween-Kostüm springt auf die Straße, ein Verkehrsschild ist durch Graffiti verfremdet oder zwei autonome Fahrzeuge in dichtem Nebel kommunizieren widersprüchlich über V2X (Car to Car). Hier entstehen Blackbox-Probleme, Edge Cases, systemische Risiken. Deshalb ist es so entscheidend, dass Systeme solche Situationen erkennen und als unsicher deklarieren – und z. B. auf einen sicheren Zustand (‚Minimum Risk Condition‘) zurückfallen.

Motorjournalist: Das Thema Simulation ist offenbar der Schlüssel zur Überprüfung des Qualitätsstandards autonomer Autos. Wie hat man sich solche Methoden vorzustellen?

Prof. Schneider: Eine Bemerkung vorab: Bei Waymo lassen sich die Dimensionen gut vergleichen: Während im realen Straßenbetrieb bis 2020 rund 20 Millionen Meilen gesammelt wurden, stammen über 15 Milliarden Meilen aus der Simulation – das ist das 750-fache. Aktuell generiert allein die Simulation über eine Milliarde Meilen pro Jahr, während Fahrzeuge weiter reale Meilen fahren und validieren. Relevant sind diese Zahlen zunächst wegen der Skalierung, da sich die Datenbasis nur durch Simulation um Größenordnungen erweitern lässt und dadurch Millionen Edge Cases testbar werden. Zudem ist dadurch Wiederholbarkeit möglich, da Szenarien beliebig variiert werden („fuzzing“) können, um systematisch Reaktionen und Unsicherheiten zu untersuchen. Schließlich ist dadurch Effizienz möglich: Änderungen im Algorithmus lassen sich in der Simulation blitzschnell überprüfen, bevor sie in der Realität getestet werden. Jetzt zu Ihrer Frage: Simulation ist heute das Rückgrat der Absicherung autonomer Fahrfunktionen. Denn eines ist klar: Ein System, das Millionen Szenarien zuverlässig beherrschen soll, kann nicht in jedem Fall real getestet werden. Weder wäre das wirtschaftlich, noch wäre es verantwortbar. Deshalb verlagern wir die Validierung zunehmend in die virtuelle Welt – nicht nur zur Effizienzsteigerung, sondern auch, um gezielt die wirklich relevanten Testszenarien zu identifizieren. Simulation wird so zu einem Instrument, das hilft, die begrenzte reale Testkapazität möglichst wirkungsvoll einzusetzen.

Simulation ist zudem notwendig, weil ein Mensch Fahren durch Erfahrung lernt – ein KI-System dagegen durch Trainingsdaten und Testszenarien. Doch viele der kritischen Szenen, beispielsweise plötzlich aufspringende Tiere, komplexe Baustellen oder Mehrdeutigkeiten in der Verkehrssituation sind in der realen Welt selten und zufällig. Will man diese zuverlässig beherrschen, braucht es kontrollierte, gezielte und reproduzierbare Tests – und das geht nur in der Simulation. Außerdem ist Simulation gesetzlich relevant: Seit dem Gesetz von 2021 und der StVFernLV 2025 müssen autonome Systeme nachweisbar in ihren Betriebsbereichen sicher funktionieren (Kompetennetzwerk automatisierte und vernetzte Mobilität innocam.NRW: Study legal Issues of Automated Driving). Das verlangt nach einer standardisierten Absicherungslogik, wie sie etwa durch Projekte wie PEGASUS – Projekt zur Etablierung von generell akzeptierten Gütekriterien, Werkzeugen und Methoden sowie Szenarien und Situationen zur Freigabe hochautomatisierter Fahrfunktionen oder SET Level 4to5 – Simulationsbasiertes Entwickeln und Testen von Level 4 und 5 Systemen skizziert wurden. Und jetzt zur Frage, wie Simulation funktioniert: Moderne Simulationsumgebungen basieren auf drei Säulen: dem Szenarien-basierten Testen, der Sensor- & Umgebungsmodellierung sowie der Verhaltens- & Entscheidungslogik. Zunächst zum szenebasierten Testen: Die Simulation erzeugt tausende konkrete Szenarien – von der einfachen Vorfahrtregelung bis zur hochkomplexen Innenstadtkreuzung mit Fußgängern, Radfahrern, Baustelle und schlechten Sichtverhältnissen. Ein typisches Beispiel ist ein Bahnhofsvorplatz in der Rushhour: Hier treffen Fußgänger mit Rollkoffern, wartende Taxis, Lieferdienste und Fahrräder auf engem Raum zusammen – oft ohne klare Fahrbahngrenzen oder vorhersehbare Manöver. Ein schönes, fiktives Beispiel dazu liefert Fernando Livschitz in seinem Video Rush Hour. Oder eine urbane Kreuzung in Südostasien, wo Hupen, Blickkontakt und implizite Regeln mehr zählen als Ampeln… Wir haben hier zwei völlig unterschiedliche Verkehrssystem „regelbasierte“ in Europa und Nordamerika – und „kommunikationsorientierte“ in Asien und auch Indien. Hier kommen noch interkulturelle Aspekte des autonomen Fahrens zum Tragen. Auch solche Szenen lassen sich heute realistisch simulieren und systematisch testen (kommunikationsbasiert anstatt regelbasiert!). Verwendet werden dabei standardisierte Formate wie das allem voran vom Verein Association for Standardization of Automation and Measuring Systems vorangebrachte ASAM Open Simulation Interface, das eine Spezifikation für Schnittstellen zwischen Modellen und Komponenten einer verteilten Simulation beschreibt. Dazu weitere Formate wie z. B. ASAM OpenSCENARIO (für den dynamischen Inhalt der Welt, wie z. B. Fahrmanöver) oder ASAM OpenDRIVE (für Straßendaten). Die zweite Säule besteht aus einer Sensor- & Umgebungsmodellierung, wie z. B. im Projekt VIVID – Bewertung virtueller Absicherungsmethoden für autonome Fahrfunktionen mit Fokus auf Sensorik des Bundesministeriums für Bildung und Forschung entwickelt. Hier enthält die virtuelle Umgebung exakte Nachbildungen von Lidar, Kamera, Radar oder GNSS einschließlich physikalischer Effekte wie Reflexion, Nebel, Dunkelheit. Das erlaubt eine realistische Wahrnehmungssimulation, auf deren Basis die KI ‚sehen‘, ‚denken‘ und ‚entscheiden‘ kann. Die dritte Säule basiert auf Verhaltens- & Entscheidungslogik. Das System trifft Entscheidungen und diese werden mit dem erwarteten Verhalten verglichen: War die Reaktion korrekt, zu langsam, gefährlich? Hat das System Unsicherheit erkannt? Gab es Fallback-Strategien?

Damit Simulation zur zulassungsrelevanten Methode wird, braucht es: Standardisierung (z. B. vermittelt z. B. durch Association for Standardization of Automation and Measuring Systems), Plausibilität, denn die virtuelle Welt muss repräsentativ für reale Verhältnisse sein, Traceability, sprich, alle Tests und Entscheidungen müssen nachvollziehbar dokumentiert werden sowie die Absicherung seltener Ereignisse, wie Edge Cases, Corner Cases oder auch Fehlerkultur. Hier schließt sich der Kreis: Ein gutes System muss wissen, ob es sich in einer defined, implementation-defined oder undefined Situation befindet – und genau das testen wir in der Simulation. An dieser Stelle erlaube ich mir gern einen kleinen Ausflug zur Literatur zum braven Soldaten Schwejk von Jaroslav Hašek. Schwejk überlebt den Wahnsinn des ersten Weltkrieges, weil er sich als Simulant durch das System manövriert, immer so ein bisschen daneben, aber nie ganz draußen. Er tut so, als ob und wird gerade deshalb nicht verwundbar. Vielleicht ist er eine Art literarischer Vorläufer der Simulation: Nicht echt, aber hochwirksam. Und wie bei Schwejk kann man sagen: ‚Wer gut simulieren kann, kommt besser durch schwierige Situationen – manchmal sogar lebend.‘ Natürlich wollen wir nicht, dass autonome Fahrzeuge ihre Umgebung simulieren, um der Realität auszuweichen – aber wir wollen, dass sie in der Simulation alles durchgespielt haben, bevor sie mit der echten Welt in Berührung kommen. Damit sie, anders als Schwejk, nicht nur überleben, sondern sicher navigieren – mit klarer Mission und geprüftem Verstand.

Motorjournalist: Wie beurteilen Sie den weltweiten Markt für die Entwicklung autonom fahrender Fahrzeuge? Wer sind hier die Player? Eher Techkonzerne als Automobilbauer? Betrachtet man hier den asiatischen Markt stellt sich die Frage, ob Europa, ob Deutschland hier überhaupt noch Chancen auf eine Vorreiterrolle haben? Wie wird sich der Markt hier mittelfristig entwickeln?

Prof. Schneider: Die weltweite Entwicklung im Bereich des autonomen Fahrens hat sich in den vergangenen Jahren deutlich weg vom klassischen Automobilbau hin zu technologiegetriebenen Ökosystemen verschoben. Die entscheidende Frage lautet heute nicht mehr: ‚Wer baut das beste Auto?‘, sondern ‚Wer kontrolliert die Sensorik, das Betriebssystem, die Dateninfrastruktur – und die KI?‘. Zulieferer unterwandern die Architekturhoheit der OEMs nicht absichtlich – aber systematisch: Wer abgesicherte, zertifizierte Subsysteme liefert, zwingt den Integrator zur Anpassung seiner Prozesse – oder riskiert eine komplette Neuzertifizierung bei jeder Modifikation. Damit verschiebt sich die Kontrolle über das Fahrzeug zunehmend auf die Ebene der Software-Komponenten. Und so wundert es nicht: Die globalen Player sind Techkonzerne. Sie sind es die die Dynamik dominieren. Waymo (Alphabet/Google) ist Marktführer in KI-gestütztem autonomen Fahren inklusive eigener Robotaxi-Flotten in Phoenix und San Francisco. Cruise (General Motors, mit Microsoft-Beteiligung) bietet Robotaxi-Services in mehreren US-Städten, bis 2023 mit Fahrgästen ohne Sicherheitsfahrer. Tesla offeriert ein stark datengetriebenes System, auch wenn nicht SAE Level 4, aber mit extrem hoher Praxiserfahrung durch seine Nutzerflotte. Baidu / Pony.ai / WeRide (China) sind Vorreiter in fahrerlosen Services, oft mit regulatorischer Rückendeckung und hoher staatlicher Investition. Nuro, Zoox (Amazon) konzentrieren sich auf die Entwicklung autonomer Lieferfahrzeuge (kein Fahrersitz, neue Fahrzeugkonzepte). Volkswagen / MOIA / ID. Buzz AD ist eine deutsche Entwicklung autonomer Shuttle-Systeme auf Basis des elektrischen ID. Buzz. Der Fokus liegt auf urbanen Shared-Mobility-Angeboten (z. B. Hamburg), betrieben von der VW Tochter MOIA in Partnerschaft mit Argo AI (bis 2022) bzw. Cariad – positioniert als europäische Alternative zu den großen US-Plattformen. Autohersteller agieren oft in Partnerschaften. So beispielsweise Mercedes-Benz & Bosch beim ‚Valet Parking‘ in Parkhäusern, VW mit Argo AI, was inzwischen eingestellt ist und das Risiko unklarer Ownerships zeigt, oder Toyota: mit dem Softwareunternehmen Woven by Toyota als Infrastruktur-Player. Die eigentliche Innovation liegt nicht im Antriebsstrang, sondern in Datenverarbeitung, KI, Sensorik, HMI – und deren Integration ins Ökosystem. Mit Blick auf Asien – speziell China ist festzustellen: China ist heute mit staatlich unterstützter Geschwindigkeit führend im Einsatz autonomer Systeme. So gibt es Pilotstädte wie Peking oder Shenzhen, die fahrerlose Flotten im öffentlichen Raum ermöglichen. BYD und Huawei drängen in den Markt mit Sensorik, Fahrzeugplattformen und KI. ‚God’s Eye‘ von BYD hat die Konkurrenz in Europa aufgeschreckt – ein zentrales, hochvernetztes System zur Umgebungserfassung. China setzt nicht nur auf Technologie, sondern kontrolliert auch die Dateninfrastruktur. Das verschafft Vorsprung, bringt jedoch auch Abhängigkeiten und politische Risiken.

Europa – und Deutschland im Speziellen – hat eine starke Basis in der Systemintegration, Sicherheit und Sensorik. Doch es gibt Schwächen. Diese lauten: keine einheitliche Plattformstrategie, wie sie z. B. in den USA mit Waymo oder in China mit Baidu gefahren wird, eine hohe Regulierungsdichte beispielsweise durch Bindung an die Wiener Konvention, zersplitterte Datenräume, fehlende europäische KI-Trainingsdatenpools oder auch eine langsame Infrastrukturentwicklung vor allem bei V2X und 5G.Trotzdem gibt es Chancen, wenn Europa eigene Stärken ausspielt, so beispielsweise bei Zulassungskompetenz und Normierung, einer vertrauenswürdigen, erklärbaren KI (‚Trustworthy AI‘ ) oder auch Kooperationsprojekten statt Insellösungen, etwa durch Catena-X, Gaia-X oder das EU-Projekt Hi-Drive. Ich gehe davon aus, dass USA und China kurzfristig bis 2027 weiter in der Bereitstellung und Verteilung dominieren werden, was Robotaxis, Lieferdienste oder Mobilitätsdienste in Großstädten betrifft. Mittelfristig (2028 bis 2032) kann Europa aufholen, wenn es offene, interoperable Plattformen für KI-Absicherung und Teleoperation etabliert und Zulassung, Simulation und Datenräume zusammenführt. Deutschland hat mit dem Autonomes-Fahren-Gesetz und der neuen StVFernLV wichtige Bausteine gelegt – aber die internationale Anschlussfähigkeit bleibt die große Frage. Japan geht einen eigenen Weg: eher still und sicherheitsorientiert, aber strategisch konsequent. Autonomes Fahren ist dort weniger ein Produkt als eine gesellschaftliche Antwort auf Alterung und Landflucht. Die Industrie – besonders Toyota – denkt Mobilität vom Ökosystem aus, nicht vom Auto her. Damit könnte Japan zum Vorbild für Europa werden, wenn es darum geht, Technologie, Infrastruktur und gesellschaftlichen Nutzen auszubalancieren.

Es spitzt sich zu: Hier die „Old Economy“ – geprägt von jahrzehntelang gewachsenen Lieferantennetzwerken, zertifizierten Standards, komplexen Freigabeprozessen und tief verankerter Ingenieurstradition. Dort die „New Kids on the Block“ – Tech-Unternehmen mit Tausenden Softwareentwicklern, iterativen Release-Zyklen, globaler Cloud-Infrastruktur und dem entscheidenden Vorsprung: Daten, Skalierung, Plattformdenken. Die eine Seite denkt in Stücklisten – die andere in Ökosystemen. Während klassische OEMs ihre Lieferketten orchestrieren, setzen Tech-Unternehmen auf Plattformen, Daten und Skalierbarkeit. Die Spielregeln haben sich verschoben – und wer jetzt nur noch Bauteile absichert, verliert das Ganze. Lesen Sie mehr im abschließenden Teil 3 des Interviews, der in Kürze erscheinen wird.

Das Interview mit Prof. Schneider führte Isabella Finsterwalder, Abbildungen: Porträtfotot Prof. Stefan-Alexander Schneider (privat), weitere Bilder Pixabay

Kasten 

Erläuterung zu SAE und Level 1 bis 5

SAE steht für die Society of Automotive Engineers, eine US-amerikanische, globale Organisation für Ingenieurstandards, insbesondere in den Bereichen Automobiltechnik, Luftfahrt und Mobilitätssysteme. SAE definiert technische Standards, die international als Referenz gelten – von Fahrzeugtechnik über Kraftstoffe bis zur Systemintegration. Das schafft Vergleichbarkeit, Kompatibilität und Sicherheit in der Entwicklung.
SAE-J3016 – das Referenzmodell für automatisiertes Fahren:

Level 0: Keine Automatisierung – Mensch fährt

Level 1: Fahrerassistenz (z. B. Tempomat) – Mensch überwacht

Level 2: Teilautomatisiert (z. B. Spurhalte + ACC) – Mensch bleibt verantwortlich

Level 3: Bedingt automatisiert (z. B. Staupilot) – Mensch kann Hände wegnehmen, muss aber eingreifen können

Level 4: Hochautomatisiert – Kein Fahrer nötig – aber nur in definierten Bereichen

Level 5: Vollautomatisiert – Kein Fahrer nötig – unter allen Bedingungen

Diese sechs Level sind heute globaler Standard für Industrie, Gesetzgeber und Öffentlichkeit.