Start IT/Tech Warum führt der Name „David Mayer“ zum Absturz von ChatGPT? OpenAI sagt,...

Warum führt der Name „David Mayer“ zum Absturz von ChatGPT? OpenAI sagt, das Datenschutztool sei unehrlich gewesen

104
0
A silhouette of a person's head created using computer code.

Nutzer der Konversations-KI-Plattform ChatGPT haben am Wochenende ein interessantes Phänomen entdeckt: das beliebter Chatbot weigert sich, Fragen zu einem „David Mayer“ zu beantworten. Wenn man ihn dazu auffordert, erstarrt er sofort. Verschwörungstheorien sind aufgetaucht – aber ein häufigerer Grund liegt diesem seltsamen Verhalten zugrunde.

Letztes Wochenende verbreitete sich schnell die Nachricht, dass der Name Chatbot-Gift sei, und immer mehr Leute versuchten, den Dienst dazu zu bringen, nur den Namen zu erkennen. Kein Glück: Jeder Versuch, ChatGPT dazu zu bringen, diesen bestimmten Namen zu buchstabieren, schlägt fehl oder bricht den Namen sogar auf halbem Weg ab.

„Ich kann keine Antwort vorlegen“, sagt er, wenn er überhaupt etwas sagt.

Bildnachweis:TechCrunch/OpenAI

Doch was als einmalige Kuriosität begann, blühte bald auf, als die Leute herausfanden, dass ChatGPT nicht nur David Mayer nennen kann.

Es wurde auch festgestellt, dass die Namen Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber und Guido Scorza den Dienst blockieren. (Zweifellos wurden seitdem weitere entdeckt, daher ist diese Liste nicht vollständig.)

Wer sind diese Männer? Und warum hasst ChatGPT sie so sehr? OpenAI reagierte nicht sofort auf wiederholte Anfragen, also mussten wir das Beste zusammenstellen, was wir konnten – und das Unternehmen bestätigte bald unseren Verdacht.

Einige dieser Namen könnten einer beliebigen Anzahl von Personen gehören. Ein potenzieller Verbindungsfaden, den ChatGPT-Benutzer identifiziert haben, ist jedoch, dass es sich bei diesen Personen um öffentliche oder halböffentliche Personen handelt, die es möglicherweise vorziehen, wenn bestimmte Informationen von Suchmaschinen oder KI-Modellen „vergessen“ werden.

Brian Hood zum Beispiel fällt auf, weil er, vorausgesetzt, es handelt sich um denselben Typen, Ich habe letztes Jahr über ihn geschrieben. Hood, ein australischer Bürgermeister, beschuldigte ChatGPT, ihn fälschlicherweise als Täter eines jahrzehntealten Verbrechens darzustellen, das er tatsächlich gemeldet hatte.

Obwohl die Anwälte OpenAI kontaktierten, wurden keine rechtlichen Schritte eingeleitet. Wie geht es ihm? sagte der Sydney Morning Herald Anfang dieses Jahres wurde „das beleidigende Material entfernt und Version 4 veröffentlicht, die Version 3.5 ersetzt.“

Bildnachweis:TechCrunch/OpenAI

Was die prominentesten Besitzer der anderen Namen betrifft, David Faber ist ein langjähriger Reporter für CNBC. Jonathan Turley ist ein Anwalt und Fox News-Kommentator, der Ende 2023 „betrogen“ wurde (d. h. ein gefälschter Notruf schickte bewaffnete Polizisten zu seinem Haus). Jonathan Zittrain ist auch ein Rechtsexperte, jemand, der das getan hat sprach ausführlich über das „Recht auf Vergessenwerden“. Und Guido Scorza ist im Vorstand der italienischen Datenschutzbehörde.

Weder genau in der gleichen Branche, noch ist es eine zufällige Auswahl. Bei jeder dieser Personen handelt es sich möglicherweise um jemanden, der, aus welchem ​​Grund auch immer, offiziell darum gebeten hat, die sie betreffenden Online-Informationen auf irgendeine Weise einzuschränken.

Das bringt uns zurück zu David Mayer. Es gibt keinen Anwalt, Journalisten, Bürgermeister oder andere offensichtlich bemerkenswerte Person mit diesem Namen, die irgendjemand finden kann (mit Entschuldigung an die vielen angesehenen David Mayers da draußen).

Es gab jedoch einen Professor, David Mayer, der Theater und Geschichte lehrte und sich auf die Zusammenhänge zwischen dem späten viktorianischen Zeitalter und den Anfängen des Kinos spezialisierte. Mayer starb im Sommer 2023 im Alter von 94 Jahren. Zuvor hatte der angloamerikanische Akademiker jedoch jahrelang mit dem rechtlichen und Online-Problem konfrontiert, dass sein Name mit einem gesuchten Kriminellen in Verbindung gebracht wurde, der ihn als Pseudonym benutzte, bis zu dem Punkt, an dem er nicht mehr reisen konnte.

Mayer Er kämpfte kontinuierlich dafür, dass sein Name vom einarmigen Terroristen getrennt wurdeauch als er weiterhin unterrichtete bis weit in seine späteren Jahre hinein.

Was können wir also aus all dem schließen? Wir vermuten, dass das Modell eine Liste von Personen aufgenommen oder bereitgestellt hat, deren Namen eine besondere Behandlung erfordern. Ob aus rechtlichen, sicherheitsbezogenen, datenschutzrechtlichen oder anderen Gründen – für diese Namen gelten wahrscheinlich besondere Regeln, ebenso wie für viele andere Namen und Identitäten. Beispielsweise kann ChatGPT Ihre Antwort ändern, wenn sie mit dem Namen übereinstimmt, den Sie auf einer Liste politischer Kandidaten angegeben haben.

Es gibt viele solcher Sonderregeln und jede Aufforderung durchläuft verschiedene Formen der Verarbeitung, bevor sie beantwortet wird. Diese Regeln für die nachträgliche Handhabung werden jedoch selten veröffentlicht, außer in politischen Ankündigungen wie „Das Modell wird keine Wahlergebnisse für einen Kandidaten für ein öffentliches Amt vorhersagen.“

Was wahrscheinlich passiert ist, ist, dass eine dieser Listen, die mit ziemlicher Sicherheit aktiv gepflegt oder automatisch aktualisiert werden, irgendwie durch fehlerhaften Code oder fehlerhafte Anweisungen beschädigt wurde, die beim Aufruf zum sofortigen Absturz des Chat-Agenten führten. Um es klarzustellen: Dies ist nur unsere eigene Vermutung, basierend auf dem, was wir gelernt haben, aber es wäre nicht das erste Mal, dass eine K.I. verhielt sich aufgrund der Anleitung nach dem Training seltsam. (Während ich das schrieb, fing „David Mayer“ übrigens bei einigen wieder an zu funktionieren, während die anderen Namen immer noch für Abstürze sorgten.)

Zum Aktualisieren: OpenAI bestätigte, dass der Name von internen Datenschutztools markiert wurde, und sagte in einer Erklärung: „Es kann Fälle geben, in denen ChatGPT bestimmte Informationen über Personen nicht bereitstellt, um deren Privatsphäre zu schützen.“ Nähere Angaben zu den Tools oder Prozessen machte das Unternehmen nicht.

Wie bei diesen Dingen üblich, gilt Hanlons Messer: Führe niemals Bosheit (oder Verschwörung) zu, was durch Dummheit (oder Syntaxfehler) hinreichend erklärt werden kann.

Das ganze Drama ist eine nützliche Erinnerung daran, dass diese KI-Modelle nicht nur keine Zauberei sind, sondern auch über äußerst ausgefeilte automatische Vervollständigung verfügen, aktiv überwacht werden und von den Unternehmen, die sie herstellen, in sie eingegriffen werden. Wenn Sie das nächste Mal darüber nachdenken, Fakten von einem Chatbot zu erhalten, denken Sie darüber nach, ob es nicht besser wäre, direkt zur Quelle zu gehen.

Quelle link