SInsgesamt ist der Optimismus in den Vorgängen: Das war das Mitnehmen eines großen Gipfels für künstliche Intelligenz in Paris in dieser Woche, als Führungskräfte aus den USA, Frankreich und darüber hinaus ihr Gewicht hinter die KI -Branche geworfen haben.
Obwohl es Abteilungen zwischen großen Nationen gab-die USA und Großbritannien unterzeichneten keine endgültige Erklärung, die von 60 Nationen gebilligt wurde, die einen „integrativen“ und „offenen“ KI-Sektor forderten-der Schwerpunkt des zweitägigen Treffen Solche Versammlung. Im vergangenen Jahr lag der Schwerpunkt in Seoul auf der Definition von Rotleinen für die KI-Industrie. Die Sorge: Dass die Technologie, obwohl sie vielversprechend ist, auch das Potenzial für große Schäden hatte.
Aber das war damals. Die endgültige Erklärung erwähnte weder erhebliche KI -Risiken noch Versuche, sie zu mildern, während der US -Vizepräsident JD Vance in einer Rede am Dienstag sagte: „Ich bin heute Morgen nicht hier, um über KI -Sicherheit zu sprechen, was der Titel des Titels war Konferenz vor ein paar Jahren. Ich bin hier, um über KI -Gelegenheit zu sprechen. “
Der französische Führer und Summit-Moderator Emmanuel Macron hat ebenfalls eine ausgesprochen pro-Business-Botschaft trompetiert-unter anderem, wie eifrig auf der ganzen Welt einen Vorteil in der Entwicklung neuer KI-Systeme erreichen soll.
Es war einmal in Bletchley
Die Betonung der Steigerung des KI -Sektors und der Abteilung für Sicherheitsbedenken war weit entfernt von dem ersten globalen Gipfel zu KI im Bletchley Park in Großbritannien im Jahr 2023. Bezeichneten „KI -Sicherheitsgipfel“ – das französische Treffen wurde im Gegensatz dazu genannt „AI Action Summit“ – Das Express -Ziel war es, einen Weg zu verprügeln, um die Risiken durch Entwicklungen in der Technologie zu mildern.
Die zweite globale Versammlung in Seoul im Jahr 2024 baute auf dieser Stiftung auf, wobei die Führungskräfte freiwillige Sicherheitsverpflichtungen durch führende KI -Spieler wie OpenAI, Google, Meta und ihre Kollegen in China, Südkorea und den Vereinigten Arabischen Emiraten sicherten. Der Gipfel von 2025 in Paris, Regierungen und KI-Unternehmen stimmten zu diesem Zeitpunkt zu, wäre der Ort, an dem Red Line für KI: Risikoschwellenwerte definiert werden, die Minderungen auf internationaler Ebene erfordern würden.
Paris ging jedoch in die andere Richtung. „Ich denke, das war ein echter Bauchflop“, sagt Max Tegmark, ein MIT-Professor und Präsident des Future of Life Institute, einem gemeinnützigen Organisation, der sich auf mildernde KI-Risiken konzentriert. „Es fühlte sich fast so an, als würden sie versuchen, Bletchley rückgängig zu machen.“
Anthropic, ein KI -Unternehmen, das sich auf Sicherheit konzentriert, nannte die Veranstaltung eine „verpasste Gelegenheit“.
Das Vereinigte Königreich, das den ersten KI -Gipfel veranstaltete, sagte, es habe sich wegen mangelnder Substanz abgelehnt, die Pariser Erklärung zu unterzeichnen. „Wir waren der Ansicht, dass die Erklärung nicht genug praktische Klarheit über die globale Regierungsführung lieferte, noch die nationalen Sicherheit ausreichend mit schwierigeren Fragen und der Herausforderung, die AI darstellt, ausreichend zu tun hat“, sagte ein Sprecher des Premierministers Keir Starrer.
Rennen um einen Vorteil
Die Verschiebung kommt vor dem Hintergrund der Verstärkung der Entwicklungen in der KI. In dem Monat vor dem Gipfel 2025 veröffentlichte OpenAI ein „Agenten“ -Modell, das Forschungsaufgaben auf ungefähr dem Niveau eines kompetenten Doktoranden ausführen kann.
Sicherheitsforscher zeigten zum ersten Mal, dass die neueste Generation von KI -Modellen versuchen kann, ihre Schöpfer zu täuschen und sich selbst zu kopieren, um Änderungen zu vermeiden. Viele unabhängige KI-Wissenschaftler stimmen nun den Projektionen der Technologieunternehmen selbst ein: Diese übermenschliche KI kann innerhalb der nächsten fünf Jahre entwickelt werden-mit potenziell katastrophalen Effekten, wenn ungelöste Fragen in der Sicherheitsforschung nicht behandelt werden.
Solche Sorgen wurden jedoch in den Hintergrund gedrängt, als die USA insbesondere gegen die Bewegungen zur Regulierung des Sektors eindringlich argumentieren, wobei Vance sagte, dass die Trump -Regierung ausländische Regierungen „nicht akzeptieren kann und nicht“ die Schrauben an US -Technologie verschärfen kann Unternehmen. “
Er kritisierte auch nachdrücklich die europäischen Vorschriften. Die EU hat das umfassendste KI -Gesetz der Welt, das AI Act genannt, sowie andere Gesetze wie das Digital Services Act, das Vance in ihren Beschränkungen in Bezug auf Fehlinformationen in den sozialen Medien als übermäßig restriktiv bezeichnete.
Der neue Vizepräsident, der unter den Risikokapitalgebern eine breite Basis der Unterstützung hat, machte auch klar, dass seine politische Unterstützung für große Technologieunternehmen nicht auf Vorschriften ausgeweitet wurde, die Hindernisse für neue Startups erhöhen und so die Entwicklung innovativer KI -Technologien behindern würden.
„Um die Entwicklung von (AIs) jetzt einzuschränken, würde dies nicht nur den Amtsinhabern im Raum zugunsten zu Unfair zugute kommen, sondern auch eine der vielversprechendsten Technologien, die wir seit Generationen gesehen haben“, sagte Vance. „Wenn ein massiver Amtsinhaber zu uns kommt, um nach Sicherheitsvorschriften zu bitten, sollten wir uns fragen, ob diese Sicherheitsverordnung zum Nutzen unseres Volkes ist oder ob dies zum Nutzen des Amtsinhaber ist.“
Und in einem klaren Zeichen, dass Bedenken hinsichtlich KI -Risiken in Präsident Trumps Washington in Ungnade sind, hat er KI -Sicherheit mit einem populären republikanischen Gesprächsthema in Verbindung gebracht: die Einschränkung der „Redefreiheit“ durch Social -Media -Plattformen, die versuchten, Schäden wie Fehlinformationen anzugehen.
Mit der Berichterstattung von Tharin Pillay/Paris und Harry Booth/Paris