Stand: 05.07.2017 21:30 Uhr

Autonomes Fahren: Computer mit menschlicher Moral?

von Josephine Lütke
Die Kognitionswissenschaftler Leon Sütfeld (links) und Gordon Pipa haben anderthalb Jahre an ihrer Studie gearbeitet. Jetzt wurde sie veröffentlicht.

Technisch ist es längst möglich: Ein Auto fährt von allein. Doch wie weit darf die Entscheidungsgewalt des Computers reichen? Was ist, wenn ein Unfall unausweichlich ist? Wie entscheidet ein Fahrcomputer, wenn es um Menschenleben geht? Vor wenigen Wochen hat eine Ethik-Kommission des Bundesverkehrsministeriums einen Bericht zu diesen Fragen vorgelegt. Er gibt moralische Richtlinien vor. Auch die Kognitionswissenschaftler der Universität Osnabrück beschäftigen sich mit diesem Thema. Seit gut anderthalb Jahren untersuchen sie moralische Entscheidungen von Menschen in sogenannten Dilemma-Situationen. Sprich: Wie entscheidet sich ein Autofahrer, wenn er beispielsweise wählen muss, ob er eher einen Menschen oder ein Tier umfährt und somit tötet. Hauptsächlich geht es den Wissenschaftlern aber darum, wie gut ein Computer diese moralischen Entscheidungen nachahmen kann. Jetzt haben sie ihre erste Studie veröffentlicht. Das wichtigste Ergebnis ist, dass Computer moralische Entscheidungen von Menschen lernen können. Damit widerlegen sie eine Aussage der Ethik-Kommission.

"Bericht der Ethik-Kommission ist eine solide Basis"

Grundsätzlich finden es die Osnabrücker Wissenschaftler gut, dass es den Bericht der Ethik-Kommission überhaupt gibt. Tatsächlich ist er eine absolute Pionierarbeit. "Eine solide Basis", sagt Leon Sütfeld, Autor der Osnabrücker Studie. "Sachschaden geht vor Personenschaden", heißt es zum Beispiel in dem Bericht der Kommission. Oder: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen wie zum Beispiel Alter oder Geschlecht unzulässig." Logisch, moralisch vertretbar und nachvollziehbar ist das natürlich auch für die Wissenschaftler. Doch es heißt in dem Bericht auch, dass technische Systeme nicht so normierbar seien, dass sie die Entscheidungen eines Autofahrers ersetzen könnten. "Unsere Studie zeigt allerdings sehr deutlich, dass wir es schaffen, menschliche Entscheidungen mit relativ einfachen mathematischen Modellen abzubilden beziehungsweise vorherzusagen", sagt Doktorand Sütfeld. Also gäbe es tatsächlich die Möglichkeit, diese moralischen Entscheidungen in selbst fahrenden Autos zu simulieren.

Links

Der Bericht der Ethik-Kommision

Diesen Bericht hat die Ethik-Kommission des Bundesverkehrsministeriums vor einigen Wochen vorgelegt. extern

Computer kann moralische Entscheidungen lernen und nachahmen

Und so haben die Kognitionswissenschaftler das herausgefunden: Die Forscher haben eine Autofahrt auf einer Straße in der virtuellen Realität simuliert. Etwas mehr als 100 Probanden setzten sich eine spezielle Brille auf, die ihnen das Gefühl gab, tatsächlich Auto zu fahren. Das Dilemma: Die Probanden mussten entscheiden, ob sie Erwachsene, Kinder, Tiere oder Gegenstände wie Heuballen oder Mülltonnen überfahren. Ein Ausweichen war unmöglich. In einigen Fällen ging es um die Entscheidung zwischen Leben und Tod. "Definitiv haben wir herausgefunden, dass Menschen mehr wert sind als Tiere. Tiere aber auch wieder mehr wert sind als Gegenstände. Außerdem hat die Studie ergeben, dass ein Mensch mit Tier mehr wert ist, als ein Mensch allein", sagt Sütfeld. Mit diesen Ergebnissen der Versuche fütterten die Wissenschaftler dann einen Computer. Allerdings bekam die Maschine nicht alle Informationen. Etwa zehn Prozent der moralischen Entscheidungen, die die Menschen getroffen hatten, enthielten die Forscher der Maschine vor. Stattdessen musste der Computer die Versuche selbst machen. Und: Er hatte gelernt und entschied auch in den Fällen, die er noch nicht kannte, fast immer so, wie es auch die Menschen in den Versuchen gemacht hatten. Damit war der Beweis erbracht: Der Computer kann moralische Entscheidungen von Menschen lernen und nachahmen.

Ein Screenshot zeigt eine Szene aus einem Fahrsimulator. © NDR

Entscheidung über Leben und Tod binnen Sekunden

Eine Person wird überfahren - mindestens. Aber welche? Um die Antwort auf diese und ähnliche Fragen zu finden, wird in Osnabrück geforscht. Eine NDR.de-Reporterin hat 2016 bei einem Experiment der Wissenschaftler mitgemacht. Hier ist das Testvideo zu sehen.

3,25 bei 8 Bewertungen

Mit von 5 Sternen

bewerten

Vielen Dank.

schließen

Sie haben bereits abgestimmt.

schließen

Kommissionsbericht in Teilen unpräzise

Die Studie mit den Probanden war nicht repräsentativ. Dafür reichten die etwa 100 Menschen nicht. Das ändere jedoch nichts daran, dass die Methode funktioniert. Davon sind die Forscher überzeugt. Sprich: Die Erkenntnis ist nicht, was der Computer lernt, sonder dass er überhaupt lernt. Das Modell lasse sich auch auf komplexere Modelle übertragen, sagt Sütfeld. Und daran arbeiten die Kognitionswissenschaftler auch schon. Offizielle Ergebnisse gibt es noch nicht. Nach ihren bisherigen Erkenntnissen, wie Menschen sich moralisch entscheiden, ist der Bericht der Ethik-Kommission laut der Wissenschaftler an einigen Stellen unpräzise. So wird in dem Bericht beispielsweise nicht explizit zwischen Gegenständen und Tieren unterschieden. Die Osnabrücker haben allerdings herausgefunden, dass ein Hund den meisten Menschen doch mehr wert ist als eine Mülltonne.

Gesellschaftliche Diskussion erforderlich

"Computer sind keine bewussten Wesen und sie können keine echten moralischen Entscheidungen treffen. Das ist uns klar", sagt Sütfeld. Und deshalb bedürfe es jetzt einer Diskussion darüber, was die Gesellschaft will. Was möglich ist, zeigt die Studie. "Eigentlich stehen wir jetzt vor der Frage, ob wir möchten, dass sich Autos wie Menschen entscheiden. Oder möchten wir lieber, dass sie sich so entscheiden, wie es das Gesetz oder eine Ethik-Kommission vorgibt?" Auch ein Mittelweg sei denkbar, sagt Leon Sütfeld. So könne das Modell der Wissenschaftler beispielsweise mit moralischen Regeln erweitert werden. Nachdem der Computer auf menschliches Verhalten trainiert wurde, könnte ihm zum Beispiel noch beigebracht werden, dass alle Menschen gleich viel wert sind. Der Computer würde dann nicht zwischen einem alten Menschen und einem Kind unterscheiden.

Weitere Informationen
mit Video

Experiment auf Leben und Tod - ein Selbstversuch

Forscher der Uni Osnabrück untersuchen moralische Entscheidungen von Menschen. Dazu müssen die Probanden virtuell über Tod und Leben von anderen und sich selbst entscheiden. (03.09.16) mehr

Tesla: Unfalltod mit Autopilot

Das Elektroauto saust computergesteuert über einen Highway - und rammt plötzlich einen Lkw. Es ist der erste tödliche Unfall mit Teslas Autopilot - ist der Computer schuld? (04.07.16) mehr

Dieses Thema im Programm:

NDR Info | 10.07.2017 | 17:55 Uhr