Hey ChatGPT, bist du moralisch?

Hey ChatGPT, bist du moralisch?

Kann eine künstliche Intelligenz bei der Beantwortung schwieriger moralischer Fragen helfen? Kann sie diese Fragen vielleicht sogar besser beantworten als wir Menschen?

Von Theresa Lilly

Die menschliche Entscheidungsfindung ist sehr fehleranfällig. Verzerrungen wie der Framing-Effekt (unterschiedliche Entscheidungen bei gleichen Optionen allein durch unterschiedliche Formulierungen der Frage) und der Base Rate Neglect (die Grundhäufigkeit, mit der ein Merkmal in der Grundgesamtheit auftritt, nicht angemessen berücksichtigen) können zum Beispiel entstehen, wenn wir einen falschen Bezugsrahmen setzen und sorgen dafür, dass wir nicht immer rational entscheiden. Im Gegensatz dazu beantwortet eine künstliche Intelligenz Fragen, die ihr gestellt werden, rein auf Basis der ihr zur Verfügung stehenden Daten.

Bedeutet das, wir können einer von KI getroffenen Entscheidung mehr vertrauen?

Untersucht wurden durch KI unterstützte Entscheidungsprozesse zunächst in den Gebieten Medizin und Investment. Die beiden Bereiche gleichen sich dahingehend, dass große Datenmengen zu früher aufgetretenen Situationen, getroffenen Entscheidungen und den Konsequenzen zur Verfügung stehen. Experten, die zum Beispiel Gehirnscans auswerten oder Anlagestrategien beurteilen, werden anhand dieser Erfahrungswerte trainiert. Mit KI kann jedoch eine viel größere Menge an Daten analysiert und mit der neuen Situation verglichen werden. Insbesondere in der Medizin ist Unterstützung bei Entscheidungsprozessen gewinnbringend, denn KI-Ratschläge stärken das Vertrauen von Ärzten in ihre Diagnosen und können eventuell stress- oder ermüdungsbedingte Leistungsschwankungen abfangen

Bei moralischen Problemen ist der Einsatz von KI komplizierter. Ein moralisches Dilemma zeichnet sich dadurch aus, dass es keine unumstritten richtige Option gibt. Die Künstliche Intelligenz kann also nur anhand von Ansichten und Überlegungen zum fraglichen Thema trainiert werden und gibt ihre Antwort dementsprechend. Die Entscheidungsgrundlage sind also die zur Verfügung stehenden Aussagen unterschiedlicher Menschen, sowie die Werte des Kulturkreises, aus dem die Trainingsdaten stammen. Durch Künstliche Intelligenz kann in diesem Fall also keine verlässlichere Antwort generiert werden.

Versuchspersonen reagieren bei moralischen Fragen auf durch KI erzeugte Empfehlungen nicht signifikant anders als auf Menschliche. In beiden Fällen gilt, dass die Ratschläge von der Mehrheit der Versuchsteilnehmer angenommen werden.

Künstliche Intelligenz kann also hilfreich sein, wenn man bezüglich einer moralischen Frage Argumente für oder gegen die möglichen Handlungsoptionen bekommen möchte. Die beste Entscheidung treffen kann KI nicht. Wer sich von einer KI beraten lässt, sollte sich im Klaren darüber sein, dass wir uns sehr leicht von einer fremden Meinung beeinflussen lassen und wir nicht wissen können, mit welchen Daten und damit Werten die KI trainiert wurde.

Für Interessierte:
How artificial intelligence in banking influences consumers belief in financial advice, Northey G. Hunter V. 2022

Beitragsbild: Theresa Lilly

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert