OpenAI finanziert akademische Forschung zu Algorithmen, die moralische Urteile von Menschen vorhersagen können.
In einem an das IRS gesendeten Dokument gab OpenAI Inc., die gemeinnützige OpenAI-Organisation, bekannt, dass sie Forschern der Duke University ein Stipendium für ein Projekt mit dem Titel „Research AI Morality“ gewährt hat. Ein OpenAI-Sprecher, der um einen Kommentar gebeten wurde, verwies auf a Pressemitteilung Dies weist darauf hin, dass die Auszeichnung Teil eines größeren dreijährigen Stipendiums in Höhe von 1 Million US-Dollar für Studierende der Duke-Fakultät ist.moralische KI machen.“
Über diese „Moral“-Forschung, die OpenAI finanziert, ist wenig öffentlich, außer der Tatsache, dass das Stipendium im Jahr 2025 endet. Der Hauptforscher der Studie, Walter Sinnott-Armstrong, Professor für praktische Ethik an der Duke, teilte TechCrunch per E-Mail mit: „ „Du wirst nicht in der Lage sein, über die Arbeit zu reden“.
Sinnott-Armstrong und Projektko-Ermittlerin Jana Borg haben mehrere Studien erstellt – und eine Buch – über das Potenzial der KI, als „moralisches GPS“ zu dienen, um Menschen dabei zu helfen, bessere Urteile zu fällen. Als Teil größerer Teams sind sie erstellt ein „moralisch ausgerichteter“ Algorithmus, der bei der Entscheidung hilft, wer Nierenspenden erhält, und studiert In welchen Szenarien würden Menschen KI bevorzugen, um moralische Entscheidungen zu treffen?
Laut der Pressemitteilung besteht das Ziel der von OpenAI finanzierten Arbeit darin, Algorithmen zu trainieren, um „menschliche moralische Urteile“ in Szenarien vorherzusagen, die Konflikte „zwischen moralisch relevanten Merkmalen in Medizin, Recht und Wirtschaft“ beinhalten.
Aber es ist alles andere als klar, dass ein so nuanciertes Konzept wie die Moral für die heutige Technologie erreichbar ist.
Im Jahr 2021 entwickelte das gemeinnützige Allen Institute for AI ein Tool namens Ask Delphi, das darauf abzielte, ethisch fundierte Empfehlungen zu geben. Es beurteilte grundlegende moralische Dilemmata gut – der Bot „wusste“, dass es beispielsweise falsch war, bei einer Prüfung zu schummeln. Aber ein leichtes Umformulieren und Umformulieren der Fragen reichte aus, um Delphi dazu zu bringen, fast alles zu genehmigen, einschließlich erstickende Babys.
Der Grund liegt in der Funktionsweise moderner KI-Systeme.
Modelle des maschinellen Lernens sind statistische Maschinen. Anhand mehrerer Beispiele aus dem Internet geschult, lernen sie aus diesen Beispielen Muster, um Vorhersagen zu treffen, wie zum Beispiel die Formulierung „für wen“ oft vor „könnte etwas bedeuten“ steht.
KI schätzt weder ethische Konzepte noch versteht sie die Argumentation und Emotionen, die die moralische Entscheidungsfindung beeinflussen. Aus diesem Grund neigt die KI dazu, die Werte westlicher, gebildeter Industrienationen nachzuplappern – das Web und damit die KI-Trainingsdaten werden von Artikeln dominiert, die diese Ansichten unterstützen.
Es ist keine Neuigkeit, dass die Werte vieler Menschen nicht in den Antworten der KI zum Ausdruck kommen, insbesondere wenn diese Menschen nicht durch Online-Beiträge zu den Trainingssätzen der KI beitragen. Und die KI verinnerlicht eine Reihe von Vorurteilen, die über die westliche Voreingenommenheit hinausgehen. Delphi sagte er dass es „moralisch akzeptabler“ ist, heterosexuell zu sein als schwul zu sein.
Die Herausforderung, vor der OpenAI – und die von ihm unterstützten Forscher – steht, wird durch die der Moral innewohnende Subjektivität noch schwieriger. Philosophen diskutieren seit Tausenden von Jahren über die Vorzüge verschiedener ethischer Theorien, und es ist kein allgemeingültiger Rahmen in Sicht.
Claude bevorzugt Kantianismus (d. h. die Konzentration auf absolute moralische Regeln), während ChatGPT eher dazu tendiert Manchmal utilitaristisch (Priorisierung des größten Wohls für die größtmögliche Anzahl von Menschen). Ist das eine dem anderen überlegen? Es kommt darauf an, wen Sie fragen.
Ein Algorithmus zur Vorhersage menschlicher moralischer Urteile muss all dies berücksichtigen. Das ist eine sehr hohe Hürde, die es zu überwinden gilt – vorausgesetzt, ein solcher Algorithmus ist überhaupt möglich.