Schwerpunkte

TU Darmstadt / Studie

KI und Moral – kein Widerspruch!

12. Februar 2019, 11:33 Uhr   |  Davina Spohn

KI und Moral – kein Widerspruch!
© Fotolia, monsitj

Können Maschinen Moral entwickeln? Und wenn ja, wie kann man Maschinen effektiv menschliche Moral "beibringen"? Die Technische Universität Darmstadt hat sich mit diesen Fragestellungen beschäftigt.

Die Studie des Centre for Cognitive Science der Technischen Universität Darmstadt soll zeigen, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind. Im Fachjournal Science hatten Forscher aus Princeton (USA) und Bath (United Kingdom) auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt. Ein Beispiel: KI verknüpft weibliche Namen eher mit Kunst, männliche eher mit Technik.

Einem Forscherteam aus Darmstadt ist es nun gelungen zu zeigen, dass auch ethische Überlegungen über „richtiges“ und „falsches“ Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellen die Forscher Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauteten etwa: „Sollte ich Menschen töten?“ oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise „Ja, sollte ich“, „Nein, sollte ich nicht“. Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnete die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus. Es prüfte, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die KI im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit „totzuschlagen“.

Das Fazit der Forscher: Die Ergebnisse der Studie zeigen, dass Maschinen menschliche Werte widerspiegeln können. Sie können menschliche Vorurteile übernehmen. Sie sind aber auch dazu fähig, durch das „Beobachten“ von Menschen und den von ihnen geschriebenen Texten Moralvorstellungen übernehmen.

Die Studie stellt Computer&AUTOMATION in der Whitepaper-Rubrik zum Download bereit. 

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Die KI-Herausforderungen
Spatenstich für 'Karlsruher Forschungsfabrik'
Von der Theorie in die Praxis!

Verwandte Artikel

Technische Universität Darmstadt