Researchability - Verantwortung für Markt und Daten Verantwortung für selbstfahrende Autos

Prof. Dr. Rolf Schwartmann (Foto: Dörthe Boxberg)
Von Prof. Dr. Rolf Schwartmann
Schneller als viele dachten hat Google kürzlich sein selbstfahrendes Auto vorgestellt. Kaum zu glauben, dass so etwas technisch funktioniert. Bis Mai 2014 sollen Testfahrzeuge schon ca. 1.125 Mio. km unfallfreie Fahrleistung absolviert haben. Bis 2018 ist geplant, die erste Version eines „google car“ auf die Straßen zu bringen. Das Fahrzeug soll sich dann autonom im Verkehr bewegen können. In die Automobilindustrie möchte der Suchmaschinenbetreiber allerdings nicht einsteigen. Er möchte nur die Software zur Navigation liefern, die Fahrzeuge sollen wie bisher von den Herstellern gefertigt werden.
Autos erkennen die Umwelt
Das fahrerlose Fahren funktioniert technisch durch Kommunikation von Auto zu Auto, aber auch mit der kompletten vernetzten Umwelt. Zahlreiche Sensoren tasten elektronisch die Umwelt ab und können auf Hundert Meter einen Fußball von einer Katze unterscheiden. In den Städten in die Orientierung schwerer als auf dem Land, weil viel mehr potentielle Verkehrshindernisse erfasst werden müssen. Dabei werden Unmassen von Daten erhoben und vom Auto zum Hersteller und jedem Dritten übertragen, der Zugang zu dessen Daten hat. Das können Zulieferer oder weitere Dritte sein, wie Versicherer, denen man Zugriff auf die Daten gewährt. Natürlich haben auch Google und Sicherheitsbehörden Zugriff auf die Informationen. Es besteht die Möglichkeit zur Fernabschaltung des Fahrzeugs und natürlich auch zu Fernstart und Fernbeschleunigung. Zudem kann man Telematik-Daten zu technischen Abläufen auswerten. So kann man sicher sagen, ob eine Teil wegen eines Fahrfehlers oder eines Materialfehlers zerstört wurde.
Ist das fahrerlose Auto Fluch oder Segen?
Ist das fahrerlose Auto nun Fluch oder Segen für die Menschen? Zumindest ist es bewegend, wenn sich für einen Blinden der Traum vom Autofahren realisiert; wie Google es in einem Video zeigt. Für alle, die Al Pacino als blinden Colonel vor Augen haben, wie er im Film der Duft der Frauen seinen verängstigten Aufpasser im Ferrari kutschiert, ist es auch beruhigend, wenn das Auto selber fährt. Aber hat es noch Menschenmaß, wenn Maschinen selbständig handeln? Wer muss sich verantworten, wenn autonom handelnde Maschinen autonom falsch entscheiden? Welche Möglichkeiten gibt es, sich gegen die besondere Betriebsgefahr abzusichern, die sich sowohl beim Betrieb als auch bei der Nutzung von selbst entscheidenden Geräten realisieren können?
Das aktuelle Recht sagt eindeutig nein
Das Straßenverkehrsrecht, dass die alles Recht auf der Zurechnung der Verantwortung für menschliches Verhalten basiert, müsste angepasst werden. Die Frage, wer haftet, wenn ein blinder Fahrer mit seinem Fahrzeug einen Unfall verursacht, stellt das Recht vor eine große Herausforderung. Klar ist, dass Maschinen nach unseren rechtlichen Kategorien nicht haften und fahrerlose Fahrzeuge schon deshalb nicht zugelassen werden können. Dennoch befasst man sich in Deutschland schon seit einiger Zeit mit „Roboterhaftung“, wobei es bezeichnenderweise mehr um Datenschutz als um die wichtige Frage nach der Haftung von Schäden geht, die Maschinen verursachen.
Was kann der Gesetzgeber denn tun? Soll er wie bei der Tierhalterhaftung auf den Halter abstellen. Das macht wenig Sinn, denn Haustiere sind in der Regel beherrschbar und das Risiko ihres Ausbrechens ist kalkulierbar. Maschinen, die sogar im Straßenverkehr „eigenständig“ handeln sind das nicht, weil Eigenständigkeit immer ein gewisses Maß an Unkalkulierbarkeit voraussetzt. Wer wäre bereit, sich für die Unberechenbarkeit technisch manipulierbarer Maschinen zu verantworten?
Wir stehen an der Schwelle einer Entwicklung mehr und mehr einer Technik zu vertrauen, die auf ihre Weise am Ende „intelligenter“ werden kann als der Mensch, und die eigenmächtig rechnet, entscheidet und handelt, wie heute schon beim Wertpapierhandel oder beim Computerschach. Wie geht es weiter mit Entscheidungen von Maschinen? In dem Buch „Kill Decision“ von Daniel Suarez geht es um Kampfdrohnen mit „letaler Autonomie“, also der „eigenmächtigen“ Lizenz auf Basis künstlicher Intelligenz ohne das Eingreifen des Menschen zu töten. Wer haftet und herrscht dann, wenn Frankensteins Monster nicht nur stärker wird als Frankenstein, sondern auch intelligenter? Wem rechnen wir künstliche Intelligenz zu, wenn sie erst einmal „eigenverantwortlich“ aber seelenlos tötet und nicht nur autonom und eigenständig sucht, wie ein Suchmaschinenalgorithmus.
Der Staat muss der Technik sinnvolle Grenzen setzen
Im liberalen Verfassungsstaat ist der Bürger grundsätzlich frei, Risiken einzugehen. Es kommt aber der Punkt, an dem sich die Frage nach der Schutzpflicht des Staates stellt und er die Verantwortung übernehmen und Freiheit regulieren muss. Solange der Staat eine gefährliche Technik nicht begreift, muss er ihrer Entwicklung sinnvolle Grenzen setzen. Leider wird es beim Auto 4.0 nicht so leicht werden, die Autofahrer vor Gefahren zu schützen, wie bei Einführung der Gurtpflicht. Denn hier konnte man die Freiheitsbeeinträchtigung durch das Anschnallen noch in ein sinnvolles Verhältnis zu den Leben setzen, die sie rettet. Wie wir uns rechtlich anschnallen sollen, wenn Autos eigenständig fahren steht in den Sternen. Eigenständig fahrende Autos gibt es aber schon.
Zur Person:
Prof. Dr. Rolf Schwartmann ist seit 2006 Leiter der Kölner Forschungsstelle für Medienrecht an der Fachhochschule Köln. Zwischen Promotion 1994 in Köln im Verfassungsrecht und Habilitation 2004 in Mainz mit einer völkerrechtlichen Arbeit war er Rechtsanwalt und Fachanwalt für Verwaltungsrecht. Seine Forschungsschwerpunkte liegen im Medien- und Datenschutzrecht. Er ist Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit e.V. (GDD) und des Gesprächs- und Arbeitskreises Geistiges Eigentum (enGAGE!).
Kommentare (0)
Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden