Start IT/Tech Vertrauen wir AI zu sehr? Neue Studie erfordert Rechenschaftspflicht in der künstlichen...

Vertrauen wir AI zu sehr? Neue Studie erfordert Rechenschaftspflicht in der künstlichen Intelligenz

19
0
Leicht, flexibel und strahlungsbeständig: Organische Solarzellen für den Weltraum

Vertrauen wir unser Vertrauen in Technologie, den wir nicht vollständig verstehen? Eine neue Studie der Universität von Surrey findet zu einer Zeit statt, in der KI -Systeme Entscheidungen treffen, die sich auf unser tägliches Leben auswirken – von Bankwesen und Gesundheitsversorgung bis hin zur Erkennung von Kriminalität. Die Studie erfordert eine sofortige Verschiebung der Art und Weise, wie KI -Modelle entworfen und bewertet werden, wobei die Notwendigkeit von Transparenz und Vertrauenswürdigkeit in diesen leistungsstarken Algorithmen betont wird.

Wenn KI in Sektoren mit hohen Einsätzen integriert wird, in denen Entscheidungen lebensverändernde Konsequenzen haben können, sind die mit „Black Box“ -Modelle verbundenen Risiken größer als je zuvor. Die Forschung beleuchtet in Fälle, in denen KI -Systeme angemessene Erklärungen für ihre Entscheidungen liefern müssen, sodass Benutzer KI vertrauen und verstehen können, anstatt sie verwirrt und verletzlich zu lassen. Bei Fällen von Fehldiagnose im Gesundheitswesen und fehlerhaften Betrugswarnungen im Bankgeschäft ist das Potenzial für Schäden-was lebensbedrohlich sein könnte-signifikant.

Die Forscher von Surrey beschreiben die alarmierenden Fälle, in denen KI -Systeme ihre Entscheidungen nicht angemessen erläutern und Benutzer verwirrt und verletzlich sind. Bei Fällen von Fehldiagnose im Gesundheitswesen und fehlerhaften Betrugswarnungen im Bankgeschäft ist das Schadenspotential signifikant. Betrugsdatensätze sind von Natur aus unausgeglichen – 0,01% sind betrügerische Transaktionen – und führen zu Schäden auf der Ausmaß von Milliarden von Dollar. Es ist beruhigend, dass die Menschen wissen, dass die meisten Transaktionen echt sind, aber das Ungleichgewicht fordert KI beim Lernen von Betrugsmustern in Frage. AI -Algorithmen können jedoch eine betrügerische Transaktion mit großer Präzision identifizieren, aber derzeit fehlt es derzeit in der Lage, angemessen zu erklären, warum sie betrügerisch ist.

Dr. Wolfgang Garn, Co-Autor der Studie und Senior-Dozent für Analytics an der Universität von Surrey, sagte:

„Wir dürfen nicht vergessen, dass es hinter jeder Algorithmus -Lösung echte Menschen gibt, deren Leben von den entschlossenen Entscheidungen betroffen ist. Unser Ziel ist es, KI -Systeme zu schaffen, die nicht nur intelligent sind, sondern auch Erklärungen für Menschen -die Nutzer der Technologie -liefern – dass sie vertrauen und verstehen können. „

Die Studie schlägt einen umfassenden Rahmen vor, der als Sage (Einstellungen, Zielgruppen, Ziele und Ethik) bekannt ist, um diese kritischen Probleme anzugehen. SAGE soll sicherstellen, dass KI-Erklärungen nicht nur verständlich, sondern auch kontextbezogen für die Endbenutzer relevant sind. Der Sage-Rahmen konzentriert sich auf die spezifischen Bedürfnisse und Hintergründe des beabsichtigten Publikums und zielt darauf ab, die Lücke zwischen komplexen KI-Entscheidungsprozessen und den menschlichen Betreibern, die auf sie abhängig sind, zu schließen.

In Verbindung mit diesem Framework verwendet die Forschung SBD-Techniken (Szenario-basierte Designs), die sich tief in reale Szenarien eintauchen, um herauszufinden, was Benutzer von AI-Erklärungen wirklich benötigen. Diese Methode ermutigt Forscher und Entwickler, in die Schuhe der Endbenutzer zu treten und sicherzustellen, dass KI-Systeme mit Empathie und Verständnis im Kern hergestellt werden.

Dr. Wolfgang Garn fuhr fort:

„Wir müssen auch die Mängel vorhandener KI-Modelle hervorheben, denen häufig das kontextbezogene Bewusstsein fehlt, um sinnvolle Erklärungen zu liefern. Durch die Identifizierung und Behebung dieser Lücken setzt sich unser Papier für eine Evolution in der KI-Entwicklung ein, die benutzerorientierte Designprinzipien priorisiert. fordert KI-Entwickler auf, sich aktiv mit Branchenspezialisten und Endnutzern zu beschäftigen, und fördert ein kollaboratives Umfeld, in dem Erkenntnisse verschiedener Stakeholder die Zukunft der KI gestalten können. Der Weg zu einer sichereren und zuverlässigeren KI -Landschaft beginnt mit der Verpflichtung, die von uns geschaffene Technologie und die Auswirkungen auf unser Leben zu verstehen.

In der Forschung wird die Bedeutung von KI -Modellen hervorgehoben, die ihre Ausgaben in Textform oder grafischen Darstellungen erklären und den unterschiedlichen Verständnisbedürfnissen der Benutzer gerecht werden. Diese Verschiebung zielt darauf ab, sicherzustellen, dass Erklärungen nicht nur zugänglich, sondern auch umsetzbar sind, sodass Benutzer fundierte Entscheidungen auf der Grundlage von AI -Erkenntnissen treffen können.

Die Studie wurde in veröffentlicht in Angewandte künstliche Intelligenz.

Quelle link