Start IT/Tech Das Vertrauen der Menschen in KI -Systeme, moralische Entscheidungen zu treffen, ist...

Das Vertrauen der Menschen in KI -Systeme, moralische Entscheidungen zu treffen, ist noch weit entfernt

10
0
Leicht, flexibel und strahlungsbeständig: Organische Solarzellen für den Weltraum

Psychologen warnen davor, dass AIs wahrgenommenes Mangel an menschlicher Erfahrung und echtes Verständnis ihre Akzeptanz einschränken könnten, moralische Entscheidungen mit höheren Einsätzen zu treffen.

Künstliche moralische Berater (AMAs) sind Systeme, die auf künstlichen Intelligenz (KI) basieren, die anfangen, Menschen dabei zu unterstützen, moralische Entscheidungen auf der Grundlage etablierter ethischer Theorien, Prinzipien oder Richtlinien zu treffen. Während Prototypen entwickelt werden, werden derzeit AMAs noch nicht verwendet, um konsistente, voreinflüssige Empfehlungen und rationale moralische Ratschläge zu geben. Wenn Maschinen, die durch künstliche Intelligenz angetrieben werden, ihre technologischen Fähigkeiten zunehmen und in den moralischen Bereich eingehen, ist es wichtig, dass wir verstehen, wie Menschen über solche künstlichen moralischen Berater denken.

Untersuchungen unter der Leitung der School of Psychology der University of Kent untersuchten, wie Menschen diese Berater wahrnehmen und ob sie ihrem Urteilsvermögen im Vergleich zu menschlichen Beratern vertrauen würden. Es stellte sich fest, dass die künstliche Intelligenz zwar das Potenzial hat, unparteiische und rationale Ratschläge zu geben, die Menschen jedoch nicht vollständig vertrauen, um ethische Entscheidungen über moralische Dilemmata zu treffen.

Veröffentlicht im Journal ErkenntnisDie Forschung zeigt, dass die Menschen eine erhebliche Abneigung gegen AMAS (vs Menschen) haben, die moralische Ratschläge geben, auch wenn der angegebene Rat identisch ist, und gleichzeitig zeigt, dass dies besonders der Fall ist, wenn Berater – Mensch und KI gleichermaßen – Ratschläge auf der Grundlage von Utilitarian gaben Prinzipien (Maßnahmen, die sich positiv auf die Mehrheit auswirken könnten). Berater, die nicht-utilitäre Ratschläge gaben (z. B. die Einhaltung moralischer Regeln, anstatt die Ergebnisse zu maximieren), wurden mehr vertraut, insbesondere in Dilemmata, die direkten Schaden beinhalteten. Dies deutet darauf hin, dass Menschen Berater schätzen – Mensch oder KI -, die sich mit Prinzipien entsprechen, die Individuen vor abstrakten Ergebnissen priorisieren.

Selbst als die Teilnehmer der Entscheidung der AMA einverstanden waren, erwarteten sie, dass sie in Zukunft nicht mit KI einverstanden waren, was auf inhärente Skepsis hinweist.

Dr. Jim Everett leitete die Forschung in Kent zusammen mit Dr. Simon Myers an der University of Warwick.

Dr. Jim Everett, der die Forschung in Kent leitete, sagte: „Vertrauen in die moralische KI geht es nicht nur um Genauigkeit oder Konsistenz – es geht darum, sich auf die menschlichen Werte und Erwartungen auszurichten. Unsere Forschung zeigt eine kritische Herausforderung für die Einführung von AMAs und die Gestaltung von Systemen, denen Menschen wirklich vertrauen. Mit dem Fortschritt der Technologie werden AMAs möglicherweise stärker in Entscheidungsprozesse integriert, von der Gesundheitsversorgung bis zu Rechtssystemen. Daher besteht ein großes Bedürfnis, zu verstehen, wie die Lücke zwischen KI-Fähigkeiten und menschlichem Vertrauen schließen kann. ‚

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein