Künstliche Intelligenz ist inzwischen in aller Munde, und auch wir beim eBZ setzen uns ernsthaft mit dem Thema auseinander, auch im Rahmen unserer Forschungsprojekte. Heute möchten wir einen kleinen Einblick in das Thema KI im Zusammenhang mit ethischen Entscheidungen geben. Wo das wichtig ist? Zum Beispiel bei selbstfahrenden Autos – oder Trolleys (Straßenbahnen)! 

Das „Trolley-Problem“ 

Das sogenannte Trolley-Problem beschreibt einen Fall, in dem eine Maschine sich in einem Dilemma befindet. Das Problem dabei ist, dass Maschinen/KIs kein „Verständnis“ von etwas haben, sondern nur Daten – und dass sie anders zu Entscheidungen finden können als Menschen. Das bedeutet, dass sie für den Fall eines Dilemmas die richtigen Werkzeuge benötigen. Die Entwickler müssen ihnen diese zur Verfügung stellen. Aber dabei wird schnell ersichtlich, dass es auch Fragen gibt, die kein Mensch einfach so beantworten kann oder möchte 

Das Trolley-Problem ist ein Gedankenexperiment. Es beschreibt drei leicht unterschiedliche Szenarien, die wir nachfolgend kurz erklären. 

Szenario 1 ist die Situation, dass eine Straßenbahn ungebremst auf fünf Gleisarbeiter zufährt. Der Weichensteller hat die Möglichkeit, die Straßenbahn so umzuleiten, dass sie ein Nebengleis nimmt und den darauf arbeitenden Menschen tötet. Die fünf Personen würden damit aber sicher gerettet. 

Szenario 2 beschreibt den Fall, dass die Weichen des Nebengleises wieder zum Hauptstrecke zurückführen. Werden die Weichen umgestellt, führt dies also auch sicher zum Tod des Arbeiters. Allerdings würde sein Körper die Weiterfahrt unmöglich machen, sodass die fünf anderen Menschen gerettet werden. Das bedeutet, dass sein Tod notwendig wäre, um die fünf Personen zu retten und ist damit anders als Szenario 1. 

Szenario 3 beschreibt wieder einen anderen Fall. Hier hat man die Wahl, einen großen Mann von einer Brücke zu stoßen, um so die Straßenbahn zu blockieren – dabei stirbt der Mann, aber die fünf Menschen werden gerettet. Gleise lassen sich in diesem Szenario nicht umstellen. Der Unterschied zu Szenario 1 liegt (psychologisch gesehen) darin, dass der Tod des Arbeiters in Szenario ein vorhersehbarer Nebeneffekt wäre, in Szenario 3 aber erst bewirkt, dass die fünf Menschen gerettet werden können. Außerdem erfordert Szenario 3 den Einsatz von körperlicher Gewalt gegen den großen Mann, während man in Szenario 1 nur einen Schalter umlegen muss. 

Die Forschung und ihre Aussage hinter dem Problem 

Iyad Rahwan, Direktor des Max Planck Institute for Human Developmenthat diese Thematik zusammen mit einem Forscherteam schon im Rahmen seines „Moral Machine Experiment“1 untersuchte. Die Forscher haben eine große Menge Daten von Menschen aus der ganzen Welt gesammelt, die für dieses Dilemma eine Entscheidung getroffen haben.2 

Das Ergebnis zeigt: Menschen entscheiden unterschiedlich, je nach Region bzw. Kultur/Religion/Erziehung. 70 000 Menschen aus 40 verschiedenen Ländern haben sich beteiligt. Auch wenn die Ergebnisse nicht repräsentativ sind, lässt sich eines doch sicher festhalten: Auch Menschen haben keine gemeinsame Ethik. Wie sollen wir also den Maschinen und Künstlichen Intelligenzen eine Ethik vorgeben? 

Die Aussage ist daher klar: Solche moralischen Dilemmata sind ethisch nicht lösbar und folglich auch „nicht ethisch zweifelsfrei“ zu programmieren.3 Beim Autonomen Fahren würde sich z. B. auch die Frage ergeben, ob bei einem solchen Dilemma nun der Fahrer des Wagens oder der Programmierer „Schuld“ am Tod von Menschen trägt. In seinem Buch „Qualityland“ hat der Autor Marc-Uwe Kling schon einen solchen Fall humoristisch dargestellt und mit einer zusätzlichen Idee einen faden Beigeschmack geliefert: Die Bewohner von Qualityland werden anhand eines Systems bewertet, das ähnlich wie der real schon existierende „Social Status“ in China funktioniert. Im Gespräch mit der KI des Autos sinniert der Fahrer dann, ob und wie Merkmale wie Alter, sozialer Status etc. in die Entscheidung einer datenhungrigen KI einfließen könnten.  

Fazit 

Die Entwicklung einer Technologie wie der Künstlichen Intelligenz wird uns auf kurz oder lang vor Fragen stellen, die wir nicht einfach beantworten können. Beim autonomen Fahren wird es auch noch die Komponente geben, dass der Fahrer des Wagens sicher kein erhöhtes Risiko für sich selbst in Kauf nehmen möchte. Auch gesetzliche Haftungsfragen erhalten im Rahmen dieser Fragen eine neue DImension. Wie es Rahman und seine Kollegen ausdrücken: „Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden.“  

Die Antwort scheint manchmal zu sein, mehr Daten zu sammeln, um eine noch fundiertere Entscheidung zu ermöglichen. Allerdings wird es bis zur völligen Übergabe aller (auch persönlichen!) Daten keine moralisch und ethisch saubere Entscheidung geben, und selbst solche würden kontrovers diskutiert. Speziell für den Fall des „Vernetzten Fahren“ hat eine EthikKommission der Bundesregierung 2017 aber schon Forderungen in einem Bericht (hier geht es zum PDFaufgestellt. Inwiefern diese technisch umsetzbar sind und ob sich z. B. ausländische Autohersteller an deutsche Ethikvorgaben halten müssen, muss die Zukunft zeigen.