Künstliche Intelligenz. Können und sollen Maschinen moralisch handeln?
- 16.11.2018
- Die gestellte Frage besteht aus zwei Teilen. Erstens: Können Maschinen moralisch handeln? Zweitens: Sollen Maschinen moralisch handeln? Auf die erste Frage ist meine Antwort: Nein, sie können nicht in einem menschlichen Sinne moralisch handeln. Auf die zweite Frage: Ja, sie sollen moralisch handeln. Das ist erst mal ein Widerspruch, aber ich will versuchen, zu erklären, was ich damit eigentlich meine. Fangen wir mit der zweiten Frage an: Sollen Maschinen moralisch handeln? Ich möchte an dieser Stelle nicht auf verhaltensmodifizierende Algorithmen eingehen, die uns sanft kontrollieren, sei es bezüglich dessen, was wir zu lesen bekommen, was wir einkaufen, was wir essen oder wie viel Sport wir machen. Ich möchte aber auf zukünftige DilemmaSituationen im militärischen Bereich hinweisen: In naher Zukunft wird es mit hoher Wahrscheinlichkeit autonome Waffensysteme geben, die selber entscheiden, ob sie eine LuftBodenRakete abfeuern, um beispielsweise einen Terroristen zu eliminieren. Entscheidend dürfte sein, wo er sich versteckt hält: in einem leeren Wohnhaus, in einem TerrorCamp, in einem bewohnten Wohnhaus, in einem Krankenhaus, in einer Schule oder in einem Kindergarten. Ohne eine moralische Bewertung der möglichen Kollateralschäden durch die Maschine ist so eine Situation schlicht nicht vorstellbar. Deswegen: Ja, Maschinen sollen moralisch handeln. Aber: Können sie das überhaupt? Meine Antwort ist: nein, definitiv nicht in einem menschlichen Sinn. Maschinen wissen nicht, was Tugenden sind, was Werte sind. Sie kennen kein Mitgefühl, sie verstehen noch nicht einmal, warum es Verbote oder Gebote gibt oder was Gut und Böse bedeutet. Insofern können sie auch nicht moralisch handeln. Dies liegt im Wesentlichen daran, dass Maschinen auf fundamental anderen Prinzipien der Informationsverarbeitung basieren als wir Menschen. Deshalb sind sie uns Menschen auch in einigen Dingen deutlich überlegen, in anderen aber nicht. Soweit haben wir einen Widerspruch, was meine Antworten auf die beiden Fragen angeht. Aber, und dies ist ein entscheidender Punkt: Maschinen können natürlich moralisches Handeln simulieren, beziehungsweise lernen, dieses zu simulieren. Ich würde so weit gehen zu behaupten, sie können das vermutlich in Zukunft so gut simulieren, dass sie darin nicht unbedingt signifikant schlechter sein müssen als wir Menschen. Maschinen können nämlich eine Bewertungsfunktion lernen, die neue, noch ungesehene Situationen klassifiziert, beispielsweise in eine Situation, in der Kollateralschäden beim Abfeuern einer LuftBodenRakete minimal sein würden – oder eben auch nicht. Auf dieser Grundlage könnten sie dann eine Entscheidung fällen, so ähnlich wie das ein Colonel der USArmee heute auch macht. Aber eine solche Bewertungsfunktion könnte eventuell auch noch andere Dinge: Sie könnte beispielsweise absolute Regeln beinhalten, zum Beispiel ein absolutes Folterverbot, oder sie könnte aus vielen Beispielen eine Hierarchie von Werten erlernen, das ihr erlaubt, in bestimmten Situationen zu lügen, um Schlimmeres zu verhindern; oder sie könnte Abschätzungen erlernen, um den Gesamtnutzen einer Handlung zu maximieren im Sinne einer utilitaristischen Ethik. Dadurch würde ein solches System Entscheidungen fällen können, die wir von außen als moralische Entscheidungen interpretieren würden, wenngleich die Maschine im menschlichen Sinne nicht moralisch handelt. Und in diesem Sinne würde der scheinbare Widerspruch aufgelöst werden.