Wie sich herausstellte, hat Meta in diesem Jahr interveniert, um rund 20 verdeckte Einflussoperationen auf der ganzen Welt zu unterbinden – obwohl das Technologieunternehmen sagte, dass Befürchtungen vor gefälschten KI-gestützten Wahlen im Jahr 2024 nicht eingetreten seien.
Nick Clegg, Präsident für globale Angelegenheiten des Unternehmens, das Facebook betreibt, Instagram und WhatsApp sagten, Russland sei immer noch die Quelle Nr. 1 für kontroverse Online-Aktivitäten, sagte aber in einem Briefing, dass es „auffallend“ sei, wie wenig KI eingesetzt werde, um Wähler im geschäftigsten Wahljahr aller Zeiten in die Irre zu führen.
Der ehemalige stellvertretende britische Premierminister gab bekannt, dass Meta, das mehr als 3 Milliarden Nutzer hat, im Vormonat etwas mehr als 500.000 Anfragen zur Generierung von Bildern in seinen eigenen KI-Tools von Donald Trump und Kamala Harris, JD Vance und Joe Biden zurückziehen musste. bis zum Wahltag in den USA.
Doch die Sicherheitsexperten des Unternehmens mussten sich einer neuen Operation stellen, bei der mehr als alle drei Wochen Fake-Accounts genutzt wurden, um die öffentliche Debatte für ein strategisches Ziel zu manipulieren. Vorfälle von „koordiniertem unauthentischem Verhalten“ beinhaltete ein russisches Netzwerk Sie nutzten Dutzende Facebook-Konten und fiktive Nachrichtenseiten, um Menschen in Georgien, Armenien und Aserbaidschan anzusprechen.
Bei einer anderen handelte es sich um eine in Russland ansässige Operation, die mithilfe von KI Fake-News-Sites erstellte und Marken wie Fox News und Telegraph nutzte, um die westliche Unterstützung für die Ukraine zu schwächen, und frankophone Fake-News-Sites nutzte, um die Rolle Russlands in Afrika zu fördern und Frankreich zu kritisieren.
„Russland ist nach wie vor die Hauptquelle der verdeckten Einflussoperationen, die wir bisher gestört haben – seit 2017 wurden insgesamt 39 Netzwerke unterbrochen“, sagte er. Die zweithäufigsten von Meta entdeckten Quellen ausländischer Einmischung sind Iran und China.
Nach einer Forschungswelle in 50 Ländern, darunter den USA, Indien, Taiwan, Frankreich, Deutschland und dem Vereinigten Königreich, bewertete er die Auswirkungen von KI-Spoofing und sagte: „Es gab alle möglichen Warnungen vor den potenziellen Risiken von Dingen wie …“ weit verbreitete Deepfakes und KI-gestützte Desinformationskampagnen. Das ist nicht das, was wir anhand der Überwachung unserer Dienste gesehen haben. Es scheint, dass sich diese Risiken nicht in nennenswertem Umfang verwirklicht haben und dass die Auswirkungen gering und in ihrem Umfang begrenzt waren.“
Clegg warnte jedoch vor Selbstgefälligkeit und sagte, dass sich die relativ geringen Auswirkungen von Spoofing mithilfe generativer KI zur Manipulation von Videos, Stimmen und Fotos „sehr, sehr wahrscheinlich ändern“ würden.
„Es ist klar, dass diese Tools immer häufiger eingesetzt werden und wir immer mehr synthetische und hybride Inhalte online sehen werden“, sagte er.
Es folgt die Target-Bewertung Schlussfolgerungen Letzten Monat berichtete das Center for Emerging Technology and Security, dass „irreführende KI-generierte Inhalte den Wahldiskurs in den USA geprägt, andere Formen der Desinformation verstärkt und politische Debatten angeheizt haben.“ Er erklärte, dass es an Beweisen für die Auswirkungen auf den Wahlsieg von Donald Trump fehle.
Es kam zu dem Schluss, dass die von KI ausgehenden Bedrohungen im Jahr 2024 begannen, die Gesundheit demokratischer Systeme zu beeinträchtigen, und warnte davor, dass vor den Wahlen 2025 in Australien und Kanada „keine Selbstgefälligkeit aufkommen dürfe“.
Sam Stockwell, wissenschaftlicher Mitarbeiter am Alan Turing Institute, sagte, KI-Tools könnten den Wahldiskurs geprägt und schädliche Narrative auf subtile Weise verstärkt haben, insbesondere bei den jüngsten US-Wahlen.
„Dazu gehörten irreführende Behauptungen, dass die Kundgebung von Kamala Harris durch KI generiert wurde, und unbegründete Gerüchte, dass haitianische Einwanderer Haustiere gefressen hätten, verbreiteten sich mithilfe fremdenfeindlicher, KI-generierter Memes viral“, sagte er.