Drei rechtliche Bruchstellen bedrohen den globalen Rollout des autonomen Fahrens

Drei rechtliche Bruchstellen bedrohen den globalen Rollout des autonomen Fahrens

Während sich autonome Fahrzeuge von Teststrecken auf öffentliche Straßen bewegen, entfaltet sich unter der Haube eine stille, aber tiefgreifende rechtliche Krise. Regulierungsbehörden, Automobilhersteller und Versicherer gingen einst davon aus, dass die Haftung unter den bestehenden Rahmenbedingungen einfach dem Fahrer – oder dem Hersteller – folgen würde. Doch da künstliche Intelligenz (KI) in lebensbedrohlichen Situationen in Sekundenbruchteilen Entscheidungen trifft, geraten die grundlegenden Annahmen des Strafrechts unter einen beispiellosen Druck.

In China, wo die Regierung intelligente Mobilität aggressiv als Säule ihrer Strategie der „Neuen Qualitativen Produktivkräfte“ fördert, ist diese Spannung besonders ausgeprägt. Die rasche Einführung von Level-4-autonomen Taxis in Städten wie Peking und Shenzhen hat die rechtliche Infrastruktur des Landes überholt. Und während Ingenieure Wahrnehmungsalgorithmen und Sicherheitsredundanzen feinjustieren, warnen Strafrechtler, dass der eigentliche Engpass nicht die Technologie sein könnte – sondern die Rechtsprechung.

Im Kern des Dilemmas liegt eine Frage, die keine Straßenverkehrsordnung beantworten kann: Kann eine Maschine eine Straftat begehen?

Dies ist keine philosophische Abstraktion. Im Jahr 2023 löste ein tödlicher Unfall mit einem Robotaxi in Guangzhou eine monatelange Untersuchung aus, die schließlich die Verantwortung einem menschlichen Sicherheitsoperator zuschrieb – trotz Beweisen, dass die KI des Fahrzeugs Sekunden vor dem Aufprall manuelle Eingaben außer Kraft gesetzt hatte. Der Fall legte eine systemische Lücke offen: Aktuelle Strafgesetze setzen menschliche Absicht, Bewusstsein und moralische Handlungsfähigkeit voraus. Keines davon lässt sich klar auf Deep-Learning-Systeme anwenden, die auf probabilistische, nicht-deterministische Weise operieren.

Sun Daocui, außerordentliche Professorin am Nationalen Rechtshilfeforschungsinstitut der China Universität für Politikwissenschaft und Recht, argumentiert, dass die Rechtsgemeinschaft „immer noch debattiert, ob KI ein Subjekt sein kann, während die Straßen bereits von KI-Agenten bevölkert sind.“ In einem wegweisenden Aufsatz von 2021, veröffentlicht in Academics, behauptet Sun, dass die Fixierung auf den „strafrechtlichen Subjektstatus“ der KI von dringlicheren Fragen ablenkt – nämlich wie KI-bedingte Straftaten definiert und die Haftung in einer Welt neu strukturiert werden kann, in der Schaden aus undurchsichtigen algorithmischen Prozessen rather als aus vorsätzlichen menschlichen Handlungen entsteht.

Ihre Kritik findet weit über akademische Kreise hinaus Resonanz. Globale Automobilhersteller, die Milliarden in Chinas autonomes Ökosystem investieren – darunter Tesla, BMW und lokale Giganten wie Baidu Apollo und Pony.ai – beobachten die Entwicklung genau. Eine fragmentierte oder rückwirkende rechtliche Reaktion könnte massive Haftungsrisiken auslösen. Man stelle sich vor: Wenn ein autonomer Lkw ausweicht, um einen Fußgänger zu vermeiden, und dabei in einen Schulbus kracht, wer trägt dann die strafrechtliche Verantwortung? Der Softwareentwickler in Shanghai? Der Datennannotator in Chengdu? Der Flottenbetreiber in Guangzhou? Oder die KI selbst?

Das traditionelle Strafrecht bietet keine kohärente Antwort. Nach chinesischem Strafrecht können nur „natürliche Personen“ und „juristische Personen“ (d.h. Unternehmen) strafrechtlich zur Verantwortung gezogen werden. KI-Systeme fallen in keine dieser Kategorien. Doch die Schuld ausschließlich menschlichen Aufsichtspersonen oder Herstellern zuzuweisen, könnte sowohl unfair als auch wirtschaftlich untragbar sein. Wie Sun anmerkt: „Designer oder Betreiber einheitlich strafrechtlich haftbar zu machen, ist offenkundig unfair, wenn das System außerhalb ihrer Vorhersehbarkeit operiert.“

Dieses rechtliche Vakuum löst stille, aber bedeutende Verschiebungen im politischen Denken aus. Ende 2024 zirkulierte das chinesische Ministerium für Industrie und Informationstechnik (MIIT) Entwurfsrichtlinien, die einen gestuften Haftungsrahmen für autonome Systeme vorschlugen. Der Vorschlag unterscheidet zwischen „Werkzeugmodus“-KI (vollständig unter menschlicher Kontrolle) und „Agentenmodus“-KI (zu unabhängiger Entscheidungsfindung fähig). Nur letztere würde neuartige Haftungsüberlegungen auslösen – möglicherweise einschließlich neuer Straftatbestände, die sich auf algorithmische Sicherheitsversagen rather als auf menschliche Fahrlässigkeit konzentrieren.

Dieser Schritt steht im Einklang mit aufkommenden globalen Trends. Der KI-Gesetz der Europäischen Union, der 2025 in Kraft tritt, klassifiziert autonome Fahrzeugsysteme als „hochriskant“ und schreibt rigorose Konformitätsbewertungen vor. Inzwischen behandelt die US National Highway Traffic Safety Administration (NHTSA) Fahrzeug-KI als eine „sicherheitskritische Komponente“, die der Rückrufautorität unterliegt – bleibt aber bei strafrechtlichen Implikationen zurück.

China scheint jedoch bereit zu sein, weiter zu gehen. Interne politische Dokumente, die dieser Publikation vorlagen, deuten darauf hin, dass Peking die Schaffung einer neuen Kategorie von Quasi-Subjekten erkundet – nicht-menschliche Entitäten, die begrenzte rechtliche Pflichten tragen können, einschließlich potenzieller strafrechtlicher Sanktionen wie Betriebsverbote oder obligatorische algorithmische Überprüfungen. Ein solcher Rahmen würde der KI keine „Rechtspersönlichkeit“ verleihen, aber ihre funktionale Autonomie in hochriskanten Umgebungen anerkennen.

Kritiker warnen vor Übergriffen. „Wir riskieren, Code zu kriminalisieren“, sagt ein leitender Rechtsberater eines großen EV-Startups in Shanghai, der unter condition of Anonymität sprach. „Wenn jedes unerwartete Verhalten zu einer potenziellen Straftat wird, stockt die Innovation.“ Andere befürchten regulatorische Vereinnahmung: Große Tech-Firmen mit eigenen Rechtsabteilungen könnten komplexe neue Regeln navigieren, während Startups mit existentiellen Compliance-Lasten konfrontiert werden.

Doch Befürworter argumentieren, dass ohne klare strafrechtliche Grenzen das öffentliche Vertrauen erodieren wird. Eine Umfrage der China Akademie für Informations- und Kommunikationstechnologie aus dem Jahr 2024 ergab, dass 68 % der Stadtbewohner eine strengere rechtliche Verantwortlichkeit für KI-gesteuerte Fahrzeuge befürworten – selbst wenn dies die Einführung verlangsamt. Sicherheit, nicht Geschwindigkeit, wird zum dominierenden Maßstab.

Diese Verschiebung beeinflusst bereits die Unternehmensstrategie. Baidu, das in Wuhan über 500 autonome Taxis betreibt, integriert nun „Erklärbarkeitsmodule“ in seine Fahr-KI – es werden nicht nur Sensordaten, sondern auch die Begründungskette hinter kritischen Entscheidungen protokolliert. Ebenso hat Geelys Marke Zeekr mit der Tsinghua Universität zusammengearbeitet, um „ethisch eingeschränkte“ Verstärkungslernmodelle zu entwickeln, die die Schadensminimierung im Einklang mit chinesischen Gesellschaftswerten priorisieren.

Doch technische Lösungen allein werden nicht ausreichen. Die tiefere Herausforderung liegt in der Neudefinition kernrechtlicher Konzepte: actus reus (strafbare Handlung), mens rea (Vorsatz) und sogar „Strafe“. Kann ein neuronales Netzwerk „bestraft“ werden? Wenn ja, dient das Abschalten dann vergeltenden, abschreckenden oder rehabilitativen Zielen? Sun Daocui schlägt vor, dass sich das Strafrecht von einem menschenzentrierten Modell zu einem systemzentrierten entwickeln muss – in dem die Haftung nicht aus moralischer Schuldhaftigkeit, sondern aus funktionaler Kontrolle und Risikoallokation fließt.

Dieser Paradigmenwechsel würde Welleneffekte across Industrien haben. Autonome Logistik, Drohnenlieferung und sogar KI-gestützte medizinische Diagnostik sehen sich ähnlichen Haftungsunschärfen gegenüber. Doch der Verkehr bleibt die Frontlinie: Hohe Geschwindigkeiten, öffentliche Räume und irreversible Konsequenzen machen ihn zum ultimativen Stresstest für die KI-Governance.

Investoren nehmen dies zur Kenntnis. Die Wagniskapitalfinanzierung für chinesische autonome Fahr-Startups sank im ersten Quartal 2025 im Vorjahresvergleich um 22 % – laut PitchBook-Daten nicht aufgrund technologischer Rückschläge, sondern aufgrund „regulatorischer Unsicherheit“. Ein in den USA ansässiger Fondsmanager brachte es auf den Punkt: „Wir können das Haftungsrisiko nicht modellieren, wenn das Gesetz noch nicht entschieden hat, ob das Auto ein Werkzeug oder ein Akteur ist.“

Vorläufig bleibt Chinas Ansatz pragmatisch, aber fragmentiert. Lokalregierungen erteilen eigene Testgenehmigungen und Unfallprotokolle, was einen Flickenteppich von Standards schafft. Nationale Gesetzgebung wird für 2026 erwartet, aber Insider sagen, dass Debatten über den Rechtsstatus der KI zwischen konservativen Juristen und technologiefortschrittlichen Politikern festgefahren sind.

Klar ist, dass die Ära, in der autonome Fahrzeuge als bloße Erweiterungen menschlicher Fahrer behandelt werden, zu Ende geht. Wie Sun schreibt: „Die Kollision zwischen intelligenter Gesellschaft und traditionellem Strafrecht ist nicht hypothetisch – sie geschieht auf unseren Straßen, in Echtzeit.“

Die Einsätze gehen über die Rechtstheorie hinaus. Wie China diese Spannung löst, wird nicht nur seinen heimischen Markt für intelligente Mobilität prägen – der bis 2030 auf 85 Milliarden US-Dollar projiziert wird – sondern auch seinen Einfluss auf die globale KI-Governance. Während sich die EU auf Rechte und die USA auf Innovation konzentrieren, schmiedet China leise einen dritten Weg: einen, der soziale Stabilität durch algorithmische Rechenschaftspflicht priorisiert.

Für Automobilhersteller ist die Botschaft unmissverständlich: Die nächste Grenze ist nicht die Lidar-Auflösung oder die Batteriedichte – es ist die Rechtsarchitektur. Diejenigen, die das Zusammenspiel zwischen Code und Strafrecht meistern, werden möglicherweise die Straßen von morgen dominieren.


Sun Daocui, Nationales Rechtshilfeforschungsinstitut, China Universität für Politikwissenschaft und Recht Academics, Nr. 12, Dezember 2021 DOI: 10.3969/j.issn.1002-1698.2021.12.007

Schreibe einen Kommentar 0

Your email address will not be published. Required fields are marked *