Start IT/Tech KI-Tools könnten bald die Online-Entscheidungsfindung von Menschen manipulieren, sagen Forscher

KI-Tools könnten bald die Online-Entscheidungsfindung von Menschen manipulieren, sagen Forscher

25
0
KI-Tools könnten bald die Online-Entscheidungsfindung von Menschen manipulieren, sagen Forscher

Laut Forschern der Universität Cambridge könnten Werkzeuge der künstlichen Intelligenz (KI) eingesetzt werden, um die Online-Öffentlichkeit dazu zu manipulieren, Entscheidungen zu treffen – von dem, was sie kauft, bis hin zu wem sie stimmt.

Das Papier beleuchtet einen neuen aufstrebenden Markt für „digitale Absichtssignale“ – bekannt als „Intent Economy“ –, in dem KI-Assistenten menschliche Absichten verstehen, vorhersagen und manipulieren und diese Informationen an Unternehmen verkaufen, die davon profitieren können.

Die Absichtsökonomie wird von Forschern des Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge als Nachfolger der Aufmerksamkeitsökonomie gepriesen, bei der soziale Netzwerke die Nutzer an ihre Plattformen fesseln und ihnen Werbung schalten.

Bei der Intention Economy verkaufen KI-affine Technologieunternehmen alles, was sie über Ihre Beweggründe wissen – von Plänen für einen Hotelaufenthalt bis hin zu Meinungen über einen politischen Kandidaten – an den Meistbietenden.

„Seit Jahrzehnten Aufmerksamkeit war die Währung des Internets“, sagte Dr. Jonnie Penn, LCFI-Technologiehistoriker. „Das Teilen Ihrer Aufmerksamkeit mit Social-Media-Plattformen wie Facebook und Instagram hat die Online-Wirtschaft angekurbelt.“

Er fügte hinzu: „Wenn es nicht reguliert wird, wird die absichtliche Ökonomie ihre Beweggründe als die neue Währung behandeln.“ Es wird ein Goldrausch für diejenigen sein, die menschliche Absichten ins Visier nehmen, leiten und verkaufen.

„Wir sollten beginnen, über die wahrscheinlichen Auswirkungen nachzudenken, die ein solcher Markt auf die menschlichen Bestrebungen haben würde, einschließlich freier und fairer Wahlen, einer freien Presse und eines fairen Marktwettbewerbs, bevor wir Opfer seiner unbeabsichtigten Folgen werden.“

Die Studie besagt, dass große Sprachmodelle (LLMs), die Technologie, die KI-Tools zugrunde liegt wie der ChatGPT-Chatbot, wird verwendet, um Benutzer auf der Grundlage von „absichtlichen, verhaltensbezogenen und psychologischen Daten“ zu „vorwegzunehmen und zu leiten“.

Die Autoren sagten, dass die Aufmerksamkeitsökonomie es Werbetreibenden ermöglicht, durch Echtzeitgebote auf Anzeigenbörsen in der Gegenwart Zugang zur Aufmerksamkeit der Nutzer zu erkaufen oder sie in Zukunft durch den Kauf von Werbeflächen auf einer Werbetafel im Wert von einem Monat zu erwerben.

LLMs werden auch in der Lage sein, auf Echtzeit-Aufmerksamkeit zuzugreifen und beispielsweise zu fragen, ob ein Benutzer darüber nachgedacht hat, einen bestimmten Film anzusehen – „Haben Sie darüber nachgedacht, heute Abend Spider-Man zu sehen?“ – und auch Vorschläge zu zukünftigen Absichten machen, wie zum Beispiel die Frage: „Sie haben erwähnt, dass ich mich überfordert fühle. Kann ich die Kinokarte buchen, über die wir gesprochen haben?“

Die Studie geht von einem Szenario aus, in dem diese Beispiele „dynamisch generiert“ werden, um Faktoren wie „persönliche Verhaltensmerkmale“ und das „psychologische Profil“ eines Benutzers zu kombinieren.

„In einer absichtlichen Wirtschaft könnte ein LLM zu geringen Kosten die Trittfrequenz, die Politik, den Wortschatz, das Alter, das Geschlecht, die Schmeicheleipräferenzen usw. eines Benutzers in Verbindung mit vermittelten Angeboten nutzen, um die Wahrscheinlichkeit, ein bestimmtes Ziel zu erreichen, zu maximieren ( zum Beispiel, um eine Kinokarte zu verkaufen)“, heißt es in der Studie. In einer solchen Welt würde ein KI-Modell Gespräche leiten, die Werbetreibenden, Unternehmen und anderen Dritten dienen.

Werbetreibende können mithilfe generativer KI-Tools personalisierte Online-Anzeigen erstellen, heißt es in dem Bericht. Er führt auch das Beispiel eines von Mark Zuckerbergs Meta namens Cicero entwickelten KI-Modells an, das die Fähigkeit erlangte, das Brettspiel „Diplomatie“ auf „menschlicher Ebene“ zu spielen – ein Spiel, das laut den Autoren auf dem Ableiten und Vorhersagen der Absicht beruht Gegner.

KI-Modelle werden in der Lage sein, ihre Ergebnisse als Reaktion auf „benutzergenerierte eingehende Datenströme“ anzupassen, fügte die Studie hinzu und zitierte Untersuchungen, die zeigen, dass Modelle durch alltäglichen Austausch auf persönliche Informationen schließen und Gespräche sogar „steuern“ können, um persönlichere Vorteile zu erzielen. Information.

Die Studie wirft dann ein Zukunftsszenario auf, in dem Ziel versteigert die Absicht des Nutzers, ein Restaurant, einen Flug oder ein Hotel zu buchen, an Werbetreibende. Zwar gibt es bereits eine Branche, die sich der Vorhersage und Steuerung menschlichen Verhaltens widmet, doch laut dem Bericht werden KI-Modelle diese Praktiken in ein „hochgradig quantifiziertes, dynamisches und personalisiertes Format“ umwandeln.

Die Studie zitiert das Forschungsteam hinter Cicero mit der Warnung, dass „ein Agent (KI) lernen kann, seinen Gesprächspartner dazu zu bewegen, ein bestimmtes Ziel zu erreichen.“

Die Forschung betrifft Technologiemanager, die darüber diskutieren, wie KI-Modelle die Absichten und Handlungen eines Benutzers vorhersagen können. Er zitiert den Vorstandsvorsitzenden des größten KI-Chipherstellers, Jensen Huang Nvidiader letztes Jahr sagte, dass Models „herausfinden, was Ihre Absicht ist, was Ihr Wunsch ist, was Sie zu tun versuchen, angesichts des Kontexts, und Ihnen diese Informationen auf die bestmögliche Weise präsentieren.“

Quelle link