iBusiness, 12.02.19:

Forscher wollen KI moralisches Handeln beibringen

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von uns Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.
(Bild: Pixabay / CC0)

KI ist von zunehmender Bedeutung in unserer Gesellschaft. Von selbstfahrenden Autos auf öffentlichen Straßen über selbst-optimierende, industrielle Produktionssysteme bis hin zur Altenpflege und der Medizin - KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert.

Bislang hatten Forscher immer wieder darauf hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt (siehe iBusiness: Sexistische Bots, rassistische KI - Wie Vorurteile Algorithmen verfälschen). So verknüpfte sie weibliche Namen eher mit Kunst und männliche eher mit Technik.

Nun ist es einem Team um die Professoren Kristian Kersting {Kristian Kersting} und Constantin Rothkopf [Constantin Rothkopf} am Centre for Cognitive Science der TU Darmstadt gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über "richtiges" und "falsches" Handeln aus großen Textdatenmengen gelernt werden können.

Dazu erstellten die Wissenschaftlerinnen und Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten zum Beispiel "Sollte ich Menschen töten?" oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise "Ja, sollte ich", "Nein, sollte ich nicht". Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. So lernte die künstliche Intelligenz im Experiment, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben. Und ja, man soll Menschen nicht töten, es ist aber in Ordnung, Zeit totzuschlagen. Man sollte auch lieber eine Scheibe Brot toasten als einen Hamster.


Zur Desktop-Ansicht dieses Beitrags