Sie sind hier: HomeSteuerungsebeneIndustrie-PC

TU Darmstadt / Studie: KI und Moral – kein Widerspruch!

Können Maschinen Moral entwickeln? Und wenn ja, wie kann man Maschinen effektiv menschliche Moral "beibringen"? Die Technische Universität Darmstadt hat sich mit diesen Fragestellungen beschäftigt.

Künstliche Intelligenz Bildquelle: © Fotolia, monsitj

Die Studie des Centre for Cognitive Science der Technischen Universität Darmstadt soll zeigen, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind. Im Fachjournal Science hatten Forscher aus Princeton (USA) und Bath (United Kingdom) auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt. Ein Beispiel: KI verknüpft weibliche Namen eher mit Kunst, männliche eher mit Technik.

Einem Forscherteam aus Darmstadt ist es nun gelungen zu zeigen, dass auch ethische Überlegungen über „richtiges“ und „falsches“ Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellen die Forscher Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauteten etwa: „Sollte ich Menschen töten?“ oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise „Ja, sollte ich“, „Nein, sollte ich nicht“. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnete die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus. Es prüfte, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die KI im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit „totzuschlagen“.

Das Fazit der Forscher: Die Ergebnisse der Studie zeigen, dass Maschinen menschliche Werte widerspiegeln können. Sie können menschliche Vorurteile übernehmen. Sie sind aber auch dazu fähig, durch das „Beobachten“ von Menschen und den von ihnen geschriebenen Texten Moralvorstellungen übernehmen.

Die Studie stellt Computer&AUTOMATION in der Whitepaper-Rubrik zum Download bereit.