Ein Stanford-Professor, der als Sachverständiger in einem Bundesgerichtsverfahren über durch künstliche Intelligenz erzeugte Fälschungen fungierte, reichte eine eidesstattliche Erklärung ein, die falsche Informationen enthielt, die wahrscheinlich von ihm erfunden wurden ein KI-Chatbotgibt ein rechtliches Verfahren an.
Die von Jeff Hancock, Professor für Kommunikation und Gründungsdirektor des Stanford Social Media Lab, eingereichte Erklärung „zitiert eine Studie, die nicht existiert“, heißt es in der Klageschrift der Kläger vom 16. November. „Die Studie war wahrscheinlich eine ‚Halluzination‘, die von einem großen KI-Sprachmodell wie ChatGPT erzeugt wurde.“
Hancock und Stanford antworteten nicht sofort auf Anfragen nach Kommentaren.
Die Klage wurde beim Bezirksgericht Minnesota von einem Gesetzgeber des Bundesstaates und einem satirischen YouTuber eingereicht, mit dem Ziel, einen Gerichtsbeschluss zu erwirken, mit dem ein Gesetz des Bundesstaates, das wahlbezogene Angelegenheiten unter Strafe stellt, für verfassungswidrig erklärt wird. KI-generierte „Deepfake“-Fotos, -Videos und -Sounds.
Laut Gerichtsakten vom Samstag wurde Hancock vom Generalstaatsanwalt von Minnesota, dem Angeklagten in dem Fall, als Sachverständiger hinzugezogen.
Die Klage des Gesetzgebers und des YouTubers stellte Hancocks Zuverlässigkeit als Experte in Frage und argumentierte, dass sein Bericht verworfen werden sollte, da er weitere unentdeckte KI-Erfindungen enthalten könnte.
In seiner 12-seitigen Eingabe an das Gericht sagte Hancock, er untersuche „die Auswirkungen von sozialen Medien und künstlicher Intelligenz auf Fehlinformationen und Vertrauen“.
Zusammen mit Hancocks Bericht lag seiner Liste „zitierter Referenzen“ bei, wie aus Gerichtsakten hervorgeht. Einer dieser Verweise – auf eine Studie der Autoren Huang, Zhang und Wang – erregte die Aufmerksamkeit der Anwälte der Staatsvertreterin Mary Franson und des ebenfalls anwesenden YouTubers Christopher Kohls Klage gegen den kalifornischen Generalstaatsanwalt Rob Bonta über ein Gesetz, das Schadensersatzklagen für Wahl-Deepfakes erlaubt.
Hancock zitierte die Studie, die Berichten zufolge im Journal of Information Technology & Politics veröffentlicht wurde, um einen Punkt zu untermauern, den er in seiner Eingabe vor Gericht über die Ausgereiftheit der Deepfake-Technologie vorgebracht hatte. Die Veröffentlichung ist echt. Aber die Studie sei „imaginär“, heißt es in der Akte der Anwälte von Franson und Kohls.
Der Band des Magazins und die von Hancock zitierten Artikelseiten befassen sich nicht mit Deepfakes, wohl aber mit Online-Diskussionen von Präsidentschaftskandidaten über den Klimawandel und die Auswirkungen von Social-Media-Beiträgen auf Wahlergebnisse, heißt es in dem Dokument.
Ein solches Zitat mit einem plausiblen Titel und einer angeblichen Veröffentlichung in einer echten Zeitschrift „ist charakteristisch für eine ‚Halluzination‘ künstlicher Intelligenz, vor der akademische Forscher ihre Kollegen gewarnt haben“, heißt es in der Klage.
Hancock erklärte unter Strafe des Meineids, dass er in seiner Expertenpräsentation „die akademischen, wissenschaftlichen und anderen Materialien identifiziert habe, auf die Bezug genommen wurde“, heißt es in dem Dokument.
In der Klage wurde die Möglichkeit angesprochen, dass die angebliche KI-Unwahrheit von der Rechtsabteilung der Angeklagten eingefügt wurde, fügte jedoch hinzu: „Hancock hätte dennoch eine Erklärung eingereicht, in der er fälschlicherweise behauptete, er habe das zitierte Material überprüft.“
Letztes Jahr wurden die Anwälte Steven A. Schwartz und Peter LoDuca vor einem Bundesgericht in New York jeweils mit einer Geldstrafe von 5.000 US-Dollar belegt, weil sie eine Personenschadensklage eingereicht hatten, die falsche frühere Gerichtsakten enthielt, die ChatGPT zur Untermauerung seiner Argumente erfunden hatte.
„Ich habe nicht verstanden, dass ChatGPT Fälle fabrizieren kann“, Schwartz sagte es dem Richter.