Start IT/Tech Frauen im Kongress werden 70 Prozent häufiger Opfer von KI-generierten Deepfakes als...

Frauen im Kongress werden 70 Prozent häufiger Opfer von KI-generierten Deepfakes als männliche Kollegen

11
0
Frauen im Kongress werden 70 Prozent häufiger Opfer von KI-generierten Deepfakes als männliche Kollegen

Laut einem diese Woche veröffentlichten Bericht ist das politische Feld für weibliche Führungskräfte noch komplizierter geworden, da der Aufstieg der generativen KI für Politikerinnen ein noch größeres Risiko darstellt als für Männer.

Die von der Desinformations-Denkfabrik The veröffentlichte Analyse Amerikanisches Sonnenlichtprojekt (ASP) über Der 19 am 11. Dezember mehr als 35.000 digital veränderte, nicht einvernehmliche intime Bilder (NCII) mit 26 Kongressabgeordneten aufgedeckt. Die Zahlen von ASP zeigen, wenn man sie aufschlüsselt, eine düstere Realität für NCII-Opfer: Auf diesen Tausenden Bildern fand die Organisation 25 von KI dargestellte Politikerinnen. Nur ein Mann war Gegenstand solcher Inhalte.

Während der gesamten Studie war die Wahrscheinlichkeit, dass weibliche Kongressabgeordnete das Ziel nicht einvernehmlicher synthetischer Bilder waren, 70-mal höher als bei Männern, und jede sechste Kongressabgeordnete (oder 16 Prozent) wurde Opfer nicht einvernehmlicher intimer Bilder.

Führungspersönlichkeiten aus dem gesamten politischen Spektrum haben versucht, den Aufstieg sowohl von NCII als auch von synthetischen KI-generierten Bildern anzugehen, konnten jedoch nur langsam einen Konsens erzielen. Im Januar führte eine überparteiliche Gruppe von Senatoren den Disrupt Explicit Forged Images and Non-Consensual Edits Act von 2024 ein (Trotzgesetz), mit dem Ziel, die Verbreitung nicht einvernehmlicher, sexualisierter „digitaler Fälschungen“, die mit KI hergestellt wurden, zu kriminalisieren. Es war Vergangenheit im Juli, wird aber noch im Repräsentantenhaus diskutiert.

Zerstörbare Lichtgeschwindigkeit

Der Senat letzte Woche Vergangenheit Die Take It Down-Aktion, eingeführt von Senator Ted Cruz im Juni. Der Gesetzentwurf kriminalisiert ebenfalls die Veröffentlichung digital manipulierter Deepfakes im Internet, sieht aber auch Strafen für Unternehmen vor, die solche Inhalte nicht innerhalb von 48 Stunden nach der Meldung entfernen.

Aber die geschlechtsspezifische Realität KI-gestützter Bilder darf nicht unterschätzt werden, insbesondere da sich weibliche Führungskräfte in einem prekären Online-Umfeld befinden, das sie einem größeren Risiko sexueller Übergriffe aussetzt. Im August veröffentlichte das Center for Countering Digital Hate eine Studie dazu Anstieg des Online-Hasses und negative Auseinandersetzung mit den sozialen Profilen von Politikerinnen. Laut einer Analyse der Instagram-Profile von zehn Amtsinhaberinnen war einer von 25 Kommentaren „sehr wahrscheinlich“ giftig. Instagram hat bei 93 Prozent der gemeldeten beleidigenden Kommentare gegen Politikerinnen keine Maßnahmen ergriffen.

„Wir müssen mit dieser neuen Umgebung und der Tatsache rechnen, dass das Internet einen großen Teil dieses Schadens verursacht hat, der überproportional Frauen und marginalisierte Gemeinschaften betrifft“, sagte Nina Jankowicz, Gründerin und Autorin des US Sunlight Project. „Ich hoffe hier, dass die Mitglieder zum Handeln bewegt werden, wenn sie erkennen, dass es nicht nur amerikanische Frauen, sondern auch sie betrifft. Es betrifft auch ihre eigenen Kollegen. Und das geschieht einfach, weil sie im Blickpunkt der Öffentlichkeit stehen.“

ASP informierte die Büros der betroffenen Politiker und warnte sie vor KI-generiertem NCII. Die Bilder wurden nach dem Bericht fast vollständig entfernt, obwohl die Organisation keinen Kommentar erhielt.

Wenn intime Bilder ohne Ihre Zustimmung weitergegeben wurden, rufen Sie die 24/7-Hotline der Cyber ​​​​Civil Rights Initiative unter 844-878-2274 an, um kostenlosen, vertraulichen Support zu erhalten. Die CCRI-Website enthält auch nützliche Informationen sowie eine Liste von internationale Ressourcen.



Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein