Start IT/Tech Warum führt der Name „David Mayer“ zum Absturz von ChatGPT? Anträge auf...

Warum führt der Name „David Mayer“ zum Absturz von ChatGPT? Anträge auf digitale Privatsphäre könnten schuld sein

132
0
A silhouette of a person's head created using computer code.

Nutzer der Konversations-KI-Plattform ChatGPT haben am Wochenende ein interessantes Phänomen entdeckt: der beliebte Chatbot weigert sich, Fragen zu einem „David Mayer“ zu beantworten. Wenn man ihn dazu auffordert, erstarrt er sofort. Es folgten Verschwörungstheorien – aber ein häufigerer Grund könnte diesem seltsamen Verhalten zugrunde liegen.

Letztes Wochenende verbreitete sich schnell die Nachricht, dass der Name Chatbot-Gift sei, und immer mehr Leute versuchten, den Dienst dazu zu bringen, nur den Namen zu erkennen. Kein Glück: Jeder Versuch, ChatGPT dazu zu bringen, diesen bestimmten Namen zu buchstabieren, schlägt fehl oder bricht den Namen sogar auf halbem Weg ab.

„Ich kann keine Antwort vorlegen“, sagt er, wenn er überhaupt etwas sagt.

Bildnachweis:TechCrunch/OpenAI

Doch was als einmalige Kuriosität begann, blühte bald auf, als die Leute herausfanden, dass ChatGPT nicht nur David Mayer nennen kann.

Es wurde auch festgestellt, dass die Namen Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber und Guido Scorza den Dienst blockieren. (Zweifellos wurden seitdem weitere entdeckt, daher ist diese Liste nicht vollständig.)

Wer sind diese Männer? Und warum hasst ChatGPT sie so sehr? OpenAI hat auf wiederholte Anfragen nicht geantwortet, daher bleibt es uns überlassen, das Beste zusammenzustellen, was wir können.

Einige dieser Namen könnten einer beliebigen Anzahl von Personen gehören. Doch schnell wurde ein potenzieller Verbindungsfaden entdeckt: Bei diesen Personen handelte es sich um öffentliche oder halböffentliche Persönlichkeiten, die es möglicherweise vorgezogen hätten, dass bestimmte Informationen von Suchmaschinen oder KI-Modellen „vergessen“ würden.

Brian Hood zum Beispiel fiel sofort auf, denn wenn es derselbe Typ ist, Ich habe letztes Jahr über ihn geschrieben. Hood, ein australischer Bürgermeister, beschuldigte ChatGPT, ihn fälschlicherweise als Täter eines jahrzehntealten Verbrechens darzustellen, das er tatsächlich gemeldet hatte.

Obwohl die Anwälte OpenAI kontaktierten, wurden keine rechtlichen Schritte eingeleitet. Wie geht es ihm? sagte der Sydney Morning Herald Anfang dieses Jahres wurde „das beleidigende Material entfernt und Version 4 veröffentlicht, die Version 3.5 ersetzt.“

Bildnachweis:TechCrunch/OpenAI

Was die prominentesten Besitzer der anderen Namen betrifft, David Faber ist ein langjähriger Reporter für CNBC. Jonathan Turley ist ein Anwalt und Fox News-Kommentator, der Ende 2023 „betrogen“ wurde (d. h. ein gefälschter Notruf schickte bewaffnete Polizisten zu seinem Haus). Jonathan Zittrain ist auch ein Rechtsexperte, jemand, der das getan hat sprach ausführlich über das „Recht auf Vergessenwerden“. Und Guido Scorza ist im Vorstand der italienischen Datenschutzbehörde.

Weder genau in der gleichen Branche, noch ist es eine zufällige Auswahl. Bei jeder dieser Personen handelt es sich möglicherweise um jemanden, der, aus welchem ​​Grund auch immer, offiziell darum gebeten hat, die sie betreffenden Online-Informationen auf irgendeine Weise einzuschränken.

Das bringt uns zurück zu David Mayer. Es gibt keinen Anwalt, Journalisten, Bürgermeister oder andere offensichtlich bemerkenswerte Person mit diesem Namen, die irgendjemand finden kann (mit Entschuldigung an die vielen angesehenen David Mayers da draußen).

Es gab jedoch einen Professor, David Mayer, der Theater und Geschichte lehrte und sich auf die Zusammenhänge zwischen der späten viktorianischen Ära und den Anfängen des Kinos spezialisierte. Mayer starb im Sommer 2023 im Alter von 94 Jahren. Zuvor hatte der angloamerikanische Akademiker jedoch jahrelang mit dem rechtlichen und Online-Problem konfrontiert, dass sein Name mit einem gesuchten Kriminellen in Verbindung gebracht wurde, der ihn als Pseudonym benutzte, bis zu dem Punkt, an dem er nicht mehr reisen konnte.

Mayer Er kämpfte kontinuierlich dafür, dass sein Name vom einarmigen Terroristen getrennt wurdeauch als er weiterhin unterrichtete bis weit in seine späteren Jahre hinein.

Was können wir also aus all dem schließen? Da es keine offizielle Erklärung von OpenAI gibt, gehen wir davon aus, dass das Modell eine Liste von Personen aufgenommen hat, deren Namen einer besonderen Behandlung bedürfen. Ob aus rechtlichen, sicherheitsbezogenen, datenschutzrechtlichen oder anderen Gründen – für diese Namen gelten wahrscheinlich besondere Regeln, ebenso wie für viele andere Namen und Identitäten. ChatGPT kann beispielsweise Ihre Antwort ändern, wenn Sie nach einem politischen Kandidaten fragen, nachdem dieser mit dem Namen übereinstimmt, den Sie in einer Liste angegeben haben.

Es gibt viele solcher Sonderregeln und jede Aufforderung durchläuft verschiedene Formen der Verarbeitung, bevor sie beantwortet wird. Diese Regeln für die nachträgliche Handhabung werden jedoch selten veröffentlicht, außer in politischen Ankündigungen wie „Das Modell wird keine Wahlergebnisse für einen Kandidaten für ein öffentliches Amt vorhersagen.“

Was wahrscheinlich passiert ist, ist, dass eine dieser Listen, die mit ziemlicher Sicherheit aktiv gepflegt oder automatisch aktualisiert werden, irgendwie durch fehlerhaften Code beschädigt wurde, der beim Aufruf zum sofortigen Absturz des Chat-Agenten führte. Um es klarzustellen: Dies ist nur unsere eigene Vermutung, basierend auf dem, was wir gelernt haben, aber es wäre nicht das erste Mal, dass eine K.I. verhielt sich aufgrund der Anleitung nach dem Training seltsam. (Während ich das schrieb, fing „David Mayer“ übrigens bei einigen wieder an zu funktionieren, während die anderen Namen immer noch für Abstürze sorgten.)

Wie bei diesen Dingen üblich, gilt auch bei Hanlons Rasiermesser: Führe niemals Bosheit (oder Verschwörung) zu, was hinreichend durch Dummheit (oder Syntaxfehler) erklärt werden kann.

Das ganze Drama ist eine nützliche Erinnerung daran, dass diese KI-Modelle nicht nur Magie sind. Sie sind hochentwickelte automatische Vervollständigungssysteme, die von den Unternehmen, die sie herstellen, aktiv überwacht und beeinträchtigt werden. Wenn Sie das nächste Mal darüber nachdenken, Fakten von einem Chatbot zu erhalten, denken Sie darüber nach, ob es nicht besser wäre, direkt zur Quelle zu gehen.

Quelle link