MMein Bruder hielt das Telefon dicht an mein Ohr. „Das wird Ihnen Angst machen“, warnte er. Eins Instagram-Reel Die Darstellung eines Teenagers bei einer Kundgebung beinhaltete eine Erzählung im Stil einer Wochenschau. Eine ruhige, weibliche Stimme mit kaum wahrnehmbarem Mancunian-Akzent sagte: „Der jüngste Aufschrei einer britischen Studentin ist zu einem starken Symbol einer sich verschärfenden Krise im britischen Bildungssystem geworden.“ Ich setzte mich aufrecht hin, die Augen weit geöffnet.
Als Moderator eines YouTube-Nachrichtenkanals war ich es gewohnt, meine Stimme auf dem Bildschirm zu hören. Aber ich war es nicht – auch wenn die Stimme es war zweifellos meins. „Sie zwingen uns, in der Schule etwas über den Islam und Mohammed zu lernen“, fuhr er fort. „Hören. Das ist widerlich.“ Es war beängstigend zu hören, wie meine Stimme mit rechtsextremer Propaganda in Verbindung gebracht wurde – aber darüber hinaus entdeckte ich, wie weitreichend die Folgen von Fake-Audio sein können, als ich tiefer in die Art und Weise eintauchte, wie dieser Betrug begangen wird.
KI-Stimmenklonen ist eine aufstrebende und am drittschnellsten wachsende Form von Audio-Deepfake. Putsch von 2024. Unwissende Opfer erleben, dass ihre Stimme ohne ihre Zustimmung oder gar ihr Wissen fachmännisch reproduziert wird, und dieses Phänomen hat bereits zu Sicherheitskontrollen bei Banken geführt. ignoriert und Menschen betrogen indem sie Geld an Fremde schickten, von denen sie glaubten, sie seien Verwandte. Mein Bruder erhielt den Clip von einem Freund, der meine Stimme erkannte.
Nach einigen Recherchen konnte ich die Ursache für einen rechtsextremen YouTube-Kanal mit rund 200.000 Abonnenten finden. Es handelte sich angeblich um einen amerikanischen Sender, doch viele der Rechtschreibfehler in den Videos waren typisch für nicht englischsprachige Falschinformationsberichte. Ich war entsetzt, als ich feststellte, dass in acht der zwölf neuesten Videos des Kanals meine Stimme verwendet wurde. Als ich noch weiter zurückging, fand ich ein Video von vor fünf Monaten, in dem ich meine Stimme verwendete und einen zeigte 10 Millionen Aufrufe. Die Stimme klang fast genauso wie meine. Allerdings hatte ich einen etwas seltsamen Rhythmus in meiner Rede, ein Zeichen dafür, dass die Stimme von KI erzeugt wurde.
Diese zunehmende Verfeinerung der KI-Software zum Klonen von Stimmen gibt Anlass zu großer Sorge. Im November 2023 ein Deepfake-Audio vom Londoner Bürgermeister Sadiq Khan In den sozialen Medien verbreiteten sich angeblich hetzerische Kommentare zum Tag des Waffenstillstands. Der Clip hätte beinahe für „schwere Unruhe“ gesorgt, Khan sagte der BBC. „Der Zeitpunkt hätte nicht besser sein können, wenn man Disharmonie säen und Probleme verursachen möchte.“ Zu einer Zeit, in der das Vertrauen in das politische System Großbritanniens bereits ein Rekordhoch erreicht hat niedrigDa 58 % der Briten sagen, dass sie „fast nie“ darauf vertrauen, dass Politiker die Wahrheit sagen, war es noch nie so schädlich, die öffentliche Rhetorik manipulieren zu können.
Das gesetzliche Recht, die eigene Stimme zu besitzen, liegt in einer dunklen Grauzone unzureichend gesetzlich geregelter KI-Themen. Der TV-Naturforscher David Attenborough stand im Mittelpunkt eines Skandal um das Klonen von KI-Stimmen im November – er beschrieb sich selbst als „zutiefst beunruhigt“, als er erfuhr, dass seine Stimme für die Ausstrahlung parteiischer US-Nachrichtensendungen missbraucht wurde; im Mai, Schauspieler Scarlett Johansson geriet mit OpenAI in Konflikt, nachdem ein Text-to-Speech-Modell in seinem Produkt ChatGPT eine Stimme verwendete, die Johansson als „unheimlich ähnlich“ zu seiner eigenen beschrieb.
Im März 2024, OpenAI verzögerte die Einführung eines neuen Tools zum Klonen von Stimmen und hielt es für „zu riskant“ für eine allgemeine Veröffentlichung in einem Jahr mit einer Rekordzahl an globalen Wahlen. Einige KI-Startups, die es Benutzern ermöglichen, ihre eigene Stimme zu klonen, haben eine Vorsichtsrichtlinie eingeführt, die es ihnen ermöglicht, die Erstellung von Stimmklonen zu erkennen, die politische Persönlichkeiten imitieren, die aktiv an Wahlkämpfen beteiligt sind, angefangen bei denen in den USA und im Vereinigten Königreich.
Doch diese Abhilfemaßnahmen gehen nicht weit genug. In den USA haben besorgte Senatoren einen Gesetzentwurf vorgeschlagen, der hart gegen diejenigen vorgehen würde, die ohne Zustimmung Audio abspielen. In Europa gibt es das European Identity Theft Observatory System (Eithos) entwickelt vier Tools zur Unterstützung der Polizei bei der Identifizierung von Deepfakes, die hoffentlich noch in diesem Jahr fertig sein werden. Aber die Bewältigung unserer Audiokrise wird keine leichte Aufgabe sein. Dr. Dominic Lees, ein Experte für KI in Film und Fernsehen, der einen britischen Parlamentsausschuss berät, sagte dem Guardian: „Unsere Datenschutz- und Urheberrechtsgesetze sind nicht auf dem neuesten Stand, was diese neue Technologie bietet.“
Wenn das Vertrauen in Institutionen sinkt, ist das ein Problem, aber das wachsende Misstrauen zwischen Gemeinschaften ist ein anderes. Die Fähigkeit zu vertrauen ist von grundlegender Bedeutung für die menschliche Zusammenarbeit in unserem zunehmend globalisierten und zunehmend vernetzten Privat- und Berufsleben – aber wir waren noch nie so nahe daran, sie zu untergraben. Hany Farid, Professor für digitale Forensik an der University of California in Berkeley und Experte für die Erkennung von Deepfakes, sagte der Washington Post dass die Folgen dieser Audiokrise so extrem sein könnten wie Massengewalt oder „Wahldiebstahl“.
Könnte diese neue Fähigkeit, Stimmen einfach zu klonen, einen Vorteil haben? Vielleicht. KI-Stimmenklone könnten es uns ermöglichen, Trost zu suchen, indem wir uns mit dem Verstorbenen verbinden geliebte Menschenoder helfen Sie, denen eine Stimme zu geben medizinische Bedingungen. Der amerikanische Schauspieler Val Kilmerder wegen Kehlkopfkrebs behandelt wurde, kehrte 2022 für Top Gun: Maverick mit einer von KI wiederhergestellten Stimme zurück. Unsere Fähigkeit zur Innovation kommt vielleicht denen zugute, die ruchlose Ziele verfolgen, aber sie kommt auch denen zugute, die sich für das Gute einsetzen.
Obwohl ich als Moderator bereitwillig meine Stimme auf dem Bildschirm geteilt habe, war ich nicht bereit, diesen integralen und wertvollen Teil von mir an irgendjemanden abzugeben, der ihn nutzen wollte. Als Rundfunkveranstalter machen wir uns manchmal Sorgen über die Auswirkungen einer Erkältung oder eines Wintervirus auf unsere Aufnahmen. Aber meine jüngste Erfahrung hat dem Konzept des Stimmverlusts eine andere, viel unheimlichere Bedeutung verliehen.