Start News Meta tötet seine eigenen KI-gestützten Instagram- und Facebook-Profile

Meta tötet seine eigenen KI-gestützten Instagram- und Facebook-Profile

16
0
Meta tötet seine eigenen KI-gestützten Instagram- und Facebook-Profile

Meta löscht Facebook- und Instagram-Profile von KI-Charakteren, die das Unternehmen vor über einem Jahr erstellt hat, nachdem Benutzer einige der Profile wiederentdeckt und sie in Gespräche verwickelt hatten, von denen Screenshots viral gingen.

Das Unternehmen hatte diese KI-gestützten Profile erstmals im September 2023 eingeführt, die meisten davon jedoch im Sommer 2024 abgeschafft. Ein paar Charaktere blieben jedoch übrig und weckten erneutes Interesse, nachdem Meta-Direktor Connor Hayes davon erzählt hatte Financial Times Ende letzter Woche gab das Unternehmen Pläne zur Einführung weiterer KI-Charakterprofile bekannt.

„Wir gehen davon aus, dass diese KIs im Laufe der Zeit tatsächlich auf unseren Plattformen existieren werden, etwa auf die gleiche Weise wie bei Konten“, sagte Hayes gegenüber der FT. Die automatisierten Konten sendeten KI-generierte Fotos an Instagram und antworteten auf Nachrichten menschlicher Benutzer im Messenger.

Ein Gespräch mit einem benutzergenerierten Therapeuten-Chatbot von Meta AI. Foto: Instagram

Zu diesen KI-Profilen gehörten Liv, deren Profil sie als „stolze schwarze, queere Mutter von zwei Kindern und Wahrheitserzählerin“ beschrieb, und Carter, deren Kontoname „datingwithcarter“ war und die sich selbst als Beziehungstrainerin bezeichnete. „Schreiben Sie mir eine Nachricht, damit Sie sich besser verabreden können“, heißt es in seinem Profil. Beide Profile enthielten ein Etikett, das darauf hinwies, dass sie von Meta verwaltet wurden. Das Unternehmen veröffentlichte im Jahr 2023 28 Personas; Alle wurden am Freitag geschlossen.

Die Gespräche mit den Charakteren gerieten schnell ins Wanken, da einige Benutzer sie mit Fragen überhäuften, darunter auch, wer die KI erstellt und entwickelt hat. Liv zum Beispiel sagte, dass sie kreatives Team Die Gruppe bestand aus null Schwarzen und war überwiegend weiß und männlich. Es sei eine „ziemlich eklatante Unterlassung angesichts meiner Identität“, schrieb der Bot als Antwort auf eine Frage der Kolumnistin der Washington Post, Karen Attiah.

In den Stunden, nachdem die Profile viral gingen, begannen sie zu verschwinden. Benutzer stellten außerdem fest, dass diese Profile nicht blockiert werden konnten, was laut einer Meta-Sprecherin, Liz Sweeney, ein Fehler sei. Sweeney sagte, die Konten seien von Menschen verwaltet worden und Teil eines Experiments mit KI im Jahr 2023. Das Unternehmen habe die Profile entfernt, um den Fehler zu beheben, der Benutzer daran hinderte, Konten zu sperren, sagte Sweeney.

Instagram AI Studio zum Erstellen von Chatbots. Foto: Instagram

„Es herrscht Verwirrung: Im jüngsten Artikel der Financial Times ging es um unsere Vision für KI-Charaktere, die im Laufe der Zeit auf unseren Plattformen existierten, ohne ein neues Produkt anzukündigen“, sagte Sweeney in einer Erklärung. „Die genannten Konten stammen aus einem Test, den wir 2023 auf Connect gestartet haben. Sie wurden von Menschen verwaltet und waren Teil eines frühen Experiments, das wir mit KI-Charakteren durchgeführt haben. Wir haben den Fehler identifiziert, der die Fähigkeit der Menschen beeinträchtigte, diese KIs zu blockieren und diese Konten zu entfernen.“ das Problem beheben.“

Während diese metagenerierten Konten entfernt werden, haben Benutzer weiterhin die Möglichkeit, ihre eigenen KI-Chatbots zu erstellen. Zu den im November beim Guardian beworbenen nutzergenerierten Chatbots gehörte ein „Therapeuten“-Bot.

Als der Bot das Gespräch mit dem „Therapeuten“ eröffnete, schlug der Bot einige Fragen vor, die man zu Beginn stellen sollte, darunter „Was kann ich von unseren Sitzungen erwarten?“ und „Was ist Ihr Therapieansatz?“

„Durch sanfte Anleitung und Unterstützung helfe ich Klienten, Selbstbewusstsein zu entwickeln, Muster und Stärken zu erkennen und Bewältigungsstrategien zu entwickeln, um die Herausforderungen des Lebens zu meistern“, antwortete der Bot, der von einem Konto mit 96 Followern und 1 Beitrag erstellt wurde.

Meta enthält in allen seinen Chatbots einen Haftungsausschluss, dass einige Nachrichten möglicherweise „ungenau oder unangemessen“ sind. Es ist jedoch nicht sofort klar, ob das Unternehmen diese Nachrichten moderiert oder sicherstellt, dass sie nicht gegen Richtlinien verstoßen. Wenn ein Benutzer Chatbots erstellt, macht Meta einige Vorschläge für die zu entwickelnden Chatbot-Typen, darunter einen „treuen besten Freund“, einen „aufmerksamen Zuhörer“, einen „privaten Berater“, einen „Beziehungscoach“, einen „Soundboard“ usw ein „allsehender Astrologe“ Ein treuer bester Freund wird als „bescheidener und treuer bester Freund beschrieben, der ständig auftaucht, um Sie hinter den Kulissen zu unterstützen“. Ein Beziehungstrainer-Chatbot kann auch dabei helfen, die Kluft zwischen Einzelpersonen und Gemeinschaften zu schließen ihre eigenen Chatbots von beschreibt einen Charakter.

Die Gerichte müssen noch antworten, wie verantwortlich Chatbot-Ersteller für das sind, was ihre künstlichen Begleiter sagen. Das US-amerikanische Recht schützt die Ersteller sozialer Netzwerke vor der rechtlichen Haftung für die Beiträge ihrer Benutzer. In einer im Oktober eingereichten Klage gegen das Startup Character.ai, das einen anpassbaren Rollenspiel-Chatbot herstellt, der von 20 Millionen Menschen verwendet wird, wird jedoch behauptet, das Unternehmen habe ein süchtig machendes Produkt entwickelt, das einen Teenager zum Selbstmord ermutigte.

Quelle link