Industrie 4.0 - Wer ist verantwortlich, wenn Roboter etwas falsch machen?
- 13.11.2015
- Die Frage nach den Verantwortlichkeiten bei fehlerhaftem Verhalten von autonomen künstlichen Akteuren gewinnt durch den informationstechnologischen Fortschritt zunehmend an Bedeutung. Diese Frage wird im Hinblick auf selbstfahrende Autos nachgegangen, also Robotern, die sich in einem Lebensbereich bewegen, der vielen von uns wichtig ist. Einige Ethiker sind der Ansicht, dass wir moralisch geradezu verpflichtet sind, selbstfahrende Autos so schnell wie möglich auf den Markt zu bringen, da zu erwarten steht, dass ihr Fahrverhalten zu einem rapiden Rückgang der sehr hohen Opferzahlen im Straßenverkehr führen wird, denn der mit Abstand größte Risikofaktor ist hierbei der Mensch; dagegen ist nur ein geringer Teil der Unfälle auf Materialfehler zurückzuführen. Um über mögliche Fehler selbstfahrender Autos nachzudenken, betrachten wir zunächst typische menschliche Fehler: • Handlungsfehler wie versäumtes (kein Blick in den Rückspiegel) oder falsches Handeln (Verwechseln von Gas und Bremse) • Wahrnehmungsfehler wie Übersehen anderer Verkehrsteilnehmer oder Ablenkung und Unaufmerksamkeit • Interpretationsfehler wie Missdeuten von Straßenschildern Erwartung an selbstfahrende Autos ist, dass sie solche Fehler nicht begehen. Dennoch können aufseiten selbstfahrender Autos Fehler nicht ausgeschlossen werden, insbesondere nicht, wenn sie mit traditionell gesteuerten Fahrzeugen interagieren, deren Fahrer Regelverletzungen begehen. Suboptimale Reaktionen seitens selbstfahrender Autos wären die Folgen des Fehlverhaltens menschlicher Verkehrsteilnehmer. Da her wird die Kunst ihrer Programmierung darin bestehen, das richtige Maß an Vorsicht zu implementieren, ohne den Verkehrsfluss zum Erliegen zu bringen. Es ist nicht davon auszugehen, dass selbstfahrende Autos Regelverletzungen begehen werden. Wenn sie dies dennoch tun oder Fehler begehen, die bei menschlichem Fehlverhalten als Handlungs-, Wahrnehmungs- oder Interpretationsfehler klassifiziert würden, bestünde ein Grund zur Reklamation; dann wäre aufseiten der Fahrzeugausstattung bzw. Programmierung etwas falsch gelaufen. Darüber hinaus kann es aber zu Fehlern kommen, die für Menschen ausgeschlossen sind, zum Beispiel, wenn Sicherheitslücken Hacker dazu einladen, die Kontrolle eines selbstfahrenden Autos zu übernehmen; je nach Zurechenbarkeit trüge hier der Hersteller oder der Nutzer des Fahrzeugs die Verantwortung. Am problematischsten ist die Frage, wie sich ein selbstfahrendes Fahrzeug im Falle eines unvermeidlichen Konflikts verhalten soll: wenn zum Beispiel das Überfahren von plötzlich auf der Fahrbahn auftauchenden Personen nur durch ein Ausweichmanöver vermieden werden kann, das entweder unbeteiligte Passanten oder die Fahrzeuginsassen selbst erheblich gefährdet. Nicht ganz unerwartet haben Menschen eine Präferenz dafür, dass andere Verkehrsteilnehmer Fahrzeuge nutzen, die den Gesamtschaden möglichst gering halten, selbst aber gerne von einem gefahren werden, das den Insassenschutz am höchsten bewertet. Möglicherweise lässt sich dieses Problem durch eine Entwicklung auflösen, die zu einem generellen Carsharing führt. Verantwortung für das Set-up der in einem gemeinsamen Pool befindlichen Fahrzeuge müsste von der Gesellschaft als Ganzes getragen werden.