Viele befürchteten, dass die Wahlen 2024 beeinträchtigt würden, und beschlossen vielleicht, durch Fehlinformationen, die von KI generiert werden. Obwohl einige zu finden waren, Es war viel weniger als erwartet. Aber lassen Sie sich nicht täuschen: Die Gefahr von Fehlinformationen ist real – Sie sind einfach nicht das Ziel.
Zumindest ist das die Meinung von Oren Etzioni, einem langjährigen KI-Forscher, dessen gemeinnützige Organisation TrueMedia ist am Puls der erzeugten Fehlinformationen.
„Es gibt, in Ermangelung eines besseren Wortes, eine Vielzahl von Deepfakes“, sagte er kürzlich in einem Interview mit TechCrunch. „Jedes erfüllt seinen eigenen Zweck, und wir sind uns einiger bewusster als anderer. Lassen Sie es mich so sagen: Für alles, was Sie tatsächlich hören, gibt es hundert, die nicht an Sie gerichtet sind. Vielleicht tausend. Tatsächlich ist es nur die Spitze des Eisbergs, die die Mainstream-Presse erreicht.“
Tatsache ist, dass die meisten Menschen, vor allem Amerikaner, dazu neigen zu glauben, dass das, was sie erleben, dasselbe ist wie das, was andere erleben. Das stimmt aus mehreren Gründen nicht. Aber im Falle von Desinformationskampagnen ist Amerika tatsächlich ein schwieriges Ziel, wenn man bedenkt, dass die Bevölkerung relativ gut informiert ist, sachliche Informationen leicht verfügbar sind und die Presse zumindest in den meisten Fällen vertrauenswürdig ist (trotz all des gegenteiligen Lärms).
Wir neigen dazu, uns Deepfakes als etwas wie ein Video vorzustellen, in dem Taylor Swift etwas tut oder sagt, was sie nie tun würde. Doch die wirklich gefährlichen Deepfakes stammen nicht von Prominenten oder Politikern, sondern von Situationen und Personen, die nicht einfach identifiziert und bekämpft werden können.
„Das Größte, was die Leute nicht verstehen, ist Vielfalt. „Ich habe heute ein iranisches Flugzeug über Israel gesehen“, bemerkte er – etwas, das nicht passiert ist, was aber von jemandem, der nicht vor Ort ist, nicht einfach widerlegt werden kann. „Das sieht man nicht, weil man nicht auf dem Telegram-Kanal oder in bestimmten WhatsApp-Gruppen ist – Millionen aber schon.“
TrueMedia bietet einen kostenlosen Service (über Web und API) an, um Bilder, Videos, Audio und andere Elemente als gefälscht oder echt zu identifizieren. Es ist keine einfache Aufgabe und kann nicht vollständig automatisiert werden, aber sie bauen langsam eine Grundlage aus echtem Material auf, das in den Prozess einfließt.
„Unsere Hauptaufgabe ist die Erkennung. „Akademische Benchmarks (zur Bewertung gefälschter Medien) sind längst veraltet“, erklärte Etzioni. „Wir trainieren anhand von Dingen, die von Menschen auf der ganzen Welt eingesandt werden. Wir sehen, was die verschiedenen Anbieter dazu sagen, was unsere Modelle dazu sagen, und kommen zu einem Schluss. Als Folgemaßnahme haben wir ein forensisches Team, das eine tiefere, umfassendere und langsamere Untersuchung durchführt, nicht bei jedem Gegenstand, aber bei einem erheblichen Teil, sodass wir eine grundlegende Wahrheit haben. Wir weisen keinen Wahrheitswert zu, es sei denn, wir wissen es genau; Wir liegen vielleicht immer noch falsch, aber wir sind wesentlich besser als jede andere Lösung.“
Die Hauptaufgabe besteht darin, das Problem auf drei Arten zu quantifizieren, die Etzioni beschrieben hat:
- Wie viel gibt es? „Wir wissen es nicht, dafür gibt es kein Google. Es gibt mehrere Anzeichen dafür, dass es weit verbreitet ist, aber es ist äußerst schwierig, vielleicht sogar unmöglich, es genau zu messen.“
- Wie viele Leute sehen das? „Das ist einfacher, denn wenn Elon Musk etwas teilt, sehen Sie, dass es 10 Millionen Menschen gesehen haben.“ Daher erreicht die Zahl der Augäpfel leicht Hunderte Millionen. Ich sehe jede Woche Artikel, die millionenfach angesehen wurden.“
- Welchen Einfluss hatte das? „Das ist vielleicht das Wichtigste. Wie viele Wähler gingen aufgrund von Bidens gefälschten Anrufen nicht zur Wahl? Wir sind einfach nicht bereit, es zu messen. Die Aktion in der Slowakei (eine Desinformationskampagne gegen einen dortigen Präsidentschaftskandidaten im Februar) kam in letzter Minute, und dann verlor er. Das hätte diese Wahl sehr wohl beeinflussen können.“
Dabei handelt es sich alles um laufende Arbeiten, einige beginnen gerade erst, betonte er. Aber man muss irgendwo anfangen.
„Lassen Sie mich eine mutige Vorhersage machen: In den nächsten vier Jahren werden wir viel besser darin sein, dies zu messen“, sagte er. „Weil wir es brauchen. Im Moment versuchen wir nur, mit der Situation klarzukommen.“
Einige der industriellen und technologischen Versuche, erzeugte Medien deutlicher zu machen, wie etwa Wasserzeichen auf Bildern und Texten, seien harmlos und vielleicht nützlich, aber sie lösten das Problem nicht einmal ansatzweise, sagte er.
„Ich würde es so sagen: Versehen Sie eine Schießerei nicht mit einem Wasserzeichen.“ Diese freiwilligen Standards sind in kollaborativen Ökosystemen nützlich, in denen jeder einen Grund hat, sie zu nutzen, aber sie bieten wenig Schutz vor böswilligen Akteuren, die einer Entdeckung entgehen wollen.
Das klingt alles ziemlich schlimm, und das ist es auch, aber die wichtigste Wahl in der jüngeren Geschichte fand ohne viele KI-Spielereien statt. Nicht weil generative Desinformation nicht verbreitet ist, sondern weil ihre Anbieter es nicht für notwendig erachteten, daran teilzunehmen. Ob Ihnen das mehr oder weniger Angst macht als die Alternative, bleibt Ihnen überlassen.