Start News Die Glaubwürdigkeit des Stanford-KI-Experten wird durch gefälschte, von der KI erstellte Quellen...

Die Glaubwürdigkeit des Stanford-KI-Experten wird durch gefälschte, von der KI erstellte Quellen erschüttert: Richter

4
0
Die Glaubwürdigkeit des Stanford-KI-Experten wird durch gefälschte, von der KI erstellte Quellen erschüttert: Richter

Ein Bundesrichter hat die Expertenaussage eines Professors für künstliche Intelligenz und Fehlinformation der Stanford University mit der Begründung zurückgewiesen Übermittlung gefälschter Informationen, die von einem KI-Chatbot erstellt wurden „erschüttert“ seine Glaubwürdigkeit.

In ihrer schriftlichen Entscheidung am Freitag verwies die Richterin des Bezirksgerichts Minnesota, Laura Provinzino, auf „die Ironie“ des Fehlers von Professor Jeff Hancock.

„Professor Hancock, ein anerkannter Experte für die Gefahren von KI und Fehlinformationen, ist dem Lockruf zum Opfer gefallen, sich zu stark auf KI zu verlassen – und das in einem Fall, in dem es nicht weniger um die Gefahren von KI geht“, schrieb der Richter.

Noch ironischer: Hancock, Professor für Kommunikation, hat sich intensiv mit Ironie beschäftigt.

Hancock, Gründungsdirektor des Stanford Social Media Lab, wurde von der Generalstaatsanwaltschaft von Minnesota beauftragt, eine eidesstattliche Sachverständigenerklärung zur Verteidigung des Landesgesetzes zu erstellen, das wahlbezogene, KI-generierte „Deepfake“-Fotos aus einer Klage eines Landesgesetzgebers unter Strafe stellt ein satirischer YouTuber. Kalifornien hat ein ähnliches Gesetz verabschiedet letzten Herbst.

YouTuber Christopher Kohls, der Minnesota verklagte, verklagte – neben Elon Musks Social-Media-Unternehmen X – auch den kalifornischen Generalstaatsanwalt Rob Bonta wegen des kalifornischen Gesetzes, und ein Richter blockierte es im Oktober vorübergehend. Provinzino lehnte es letzte Woche ab, eine ähnliche Sperre zu erlassen, die Kohls und der Gesetzgeber aus Minnesota beantragt hatten.

Im November, Anwälte von Kohls und Gesetzgeber teilten dem Gericht in Minnesota mit dass Hancock in seiner 12-seitigen Erklärung „eine Studie zitierte, die nicht existiert“, die von „Huang, Zhang, Wang“ verfasst und wahrscheinlich „von einem großen KI-Sprachmodell wie ChatGPT erstellt wurde“.

Im Dezember gab Hancock in einer Klageschrift zu, dass er ChatGPT genutzt hatte, machte den Bot für diesen Fehler und zwei weitere KI-„Halluzinationen“ verantwortlich, die er später in seiner Klageschrift entdeckt hatte, und entschuldigte sich beim Gericht.

Er hatte ChatGPT 4.0 verwendet, um Artikel für seine Einreichung zu finden und zusammenzufassen, aber die Fehler traten wahrscheinlich auf, weil er das Wort „zitieren“ in den Text einfügte, den er dem Chatbot gab, um sich daran zu erinnern, wissenschaftliche Zitate zu den von ihm vorgebrachten Punkten hinzuzufügen, sagte er schrieb. Der Bot habe „zitieren“ offenbar als Anweisung verstanden und Zitate erfunden, schrieb Hancock und fügte hinzu, dass der Bot auch vier falsche Autoren für die von ihm zitierten Forschungsergebnisse erfunden habe.

Hancock, ein produktiver, hochkarätiger Forscher, dessen Arbeit in den letzten zwei Jahrzehnten von Stanford, der US-amerikanischen National Science Foundation und anderen Zuschüssen in Höhe von rund 20 Millionen US-Dollar erhalten hat, verlangte nach Angaben des Gerichts 600 US-Dollar pro Stunde für die Vorbereitung der vom Richter abgegebenen Aussage Einreichungen.

Richterin Provinzino stellte fest, dass der Generalstaatsanwalt von Minnesota, Keith Ellison, versuchte, dem Gericht eine Version von Hancocks Aussage mit entfernten Fehlern vorzulegen, und sie sagte, sie bestreite nicht Ellisons Behauptung, der Professor sei qualifiziert, Expertenmeinungen über KI und Deepfakes vorzulegen.

Allerdings schrieb der Richter: „Hancocks Verweis auf gefälschte, KI-generierte Quellen in seiner Erklärung – trotz seiner hilfreichen, gründlichen und plausiblen Erklärung – erschüttert seine Glaubwürdigkeit gegenüber diesem Gericht.“

Zumindest, schrieb Provinzino, „sollten Expertenaussagen zuverlässig sein.“

Solche Fehler verursachten „vielen Schaden“, einschließlich der Zeit- und Geldverschwendung der Gegenpartei, schrieb der Richter.

Das Büro des Generalstaatsanwalts von Minnesota antwortete nicht auf Fragen, einschließlich der Frage, wie viel Hancock in Rechnung gestellt hatte und ob das Büro eine Rückerstattung beantragen würde.

Hancock antwortete nicht auf Fragen.

In Stanford können Studenten suspendiert und zu gemeinnütziger Arbeit verurteilt werden, wenn sie einen KI-Chatbot verwenden, um ohne Erlaubnis des Dozenten „eine Aufgabe oder Prüfung im Wesentlichen abzuschließen“. Die Schule lehnte es wiederholt ab, auf Fragen zu antworten, ob Hancock mit Disziplinarmaßnahmen rechnen müsste, erst am Mittwoch.

Der juristische Vorwurf des Professors wirft ein Schlaglicht auf ein häufiges Problem der generativen KI, einer Technologie, die seit San Francisco die Welt im Sturm erobert hat OpenAI hat seinen ChatGPT-Bot veröffentlicht im November 2022. Chatbots und KI-Bildgeneratoren „halluzinieren“ oft, was in Texten zur Erzeugung falscher Informationen und in Bildern zu Absurditäten wie sechsfingrigen Händen führen kann.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein