Unternehmen verbrachten im vergangenen Jahr erheblich mehr Lobby für US -Level -IA -Probleme im Vergleich zu 2023 inmitten der regulatorischen Unsicherheit.
Laut Daten, die von OpenSecrets zusammengestellt wurden, haben 648 Unternehmen im Jahr 2024 eine KI -Lobby gegen 458 bis 2023 ausgegeben, was eine Erhöhung von 141% Jahr für Jahr entspricht.
Unternehmen wie Microsoft unterstützten Gesetze wie die Erstellung von AI -Recht, die das Benchmarking von in den USA entwickelten KI -Systemen unterstützen würden. Andere, einschließlich Openai, unterstützten das Gesetz der Weiterentwicklung und Zuverlässigkeit, das ein Regierungszentrum schaffen würde, das sich der KI -Forschung widmet.
Die meisten KI -Laboratorien – dh Unternehmen, die fast ausschließlich der Vermarktung verschiedener Arten von AI -Technologie gewidmet sind, haben im Jahr 2024 mehr Legislativagenda als im Jahr 2023 unterstützt, und zeigen die Daten.
OpenAI hat seine Lobbyausgaben im vergangenen Jahr auf 1,76 Millionen US -Dollar erhöht, von 260.000 USD im Jahr 2023. Anthropisch, Rivale in der Nähe von Openai, hat seine Ausgaben für 2023 auf 720.000 USD im letzten Jahr mehr als verdoppelt, und das Startup konzentrierte Ausgaben von 230.000 US -Dollar im Jahr 2024 von nur 70.000 USD vor zwei Jahren.
Sowohl OpenAI als auch Anthropic haben im letzten Jahr eingestellt, um die Reichweite der politischen Formulierer zu koordinieren. Anthropic engagierte seinen ersten internen Lobbyisten, den ehemaligen Student des Justizministeriums Rachel Appleton, und Openai stellte den Politiker Chris Lehane als seinen neuen Vizepräsidenten für Politik ein.
Insgesamt reservierten OpenAI, Anthropic und Cohere im Jahr 2024 2,71 Millionen US -Dollar für ihre Bundeslobby -Initiativen. Dies ist eine winzige Figur Im Vergleich zu dem, was die große Technologieindustrie ausdrückt Lobby im gleichen Zeitraum (61,5 Millionen US -Dollar), aber mehr als das Vierfache der Gesamtzahl der drei AI -Labors im Jahr 2023 (610.000 US -Dollar).
TechCrunch kontaktierte Openai, Anthropic und Coher, um eine Stellungnahme zu erhalten, hat jedoch erst diese Veröffentlichung eine Antwort erhalten.
Im vergangenen Jahr war die Formulierung der KI -Hauspolitik turbulent. Allein im ersten Semester betrachteten die Gesetzgeber des Kongresses mehr als 90 AI -bezogene Gesetzgebungsstücke, Laut Centro Brennan. Auf staatlicher Ebene wurden mehr als 700 Gesetze vorgeschlagen.
Der Kongress machte wenig Fortschritte, was die Gesetzgeber des Bundesstaates dazu veranlasste, weiterzumachen. Tinessi wurde Der erste Staat, der die nicht autorisierten KI -Klonen -Sprachakteure schützt. Colorado angenommen Ein gestaffelter und risikobasierter Ansatz zur KI -Richtlinie. Und California Gouverneur Gavin Newsom unterschrieben Dutzende von AI -bezogenen Sicherheitsrechnungen, von denen einige von KI -Unternehmen veröffentlichen, um Einzelheiten zu ihrer zu veröffentlichen Ausbildung.
Kein Staatsbeamter war in der Lage EU AI -GesetzJedoch.
Nach einem längeren Kampf mit besonderen Interessen, Gouverneur Newsom Veto gewertet Konto SB 1047Dies hätte AI -Schöpfer umfassende Sicherheits- und Transparenzanforderungen auferlegt. Texas‘ Zu bringen Die Gesetzesvorlage, die im Umfang noch breiter ist, kann beim Durchlaufen der Staatskammer das gleiche Ziel erleiden.
Es ist unklar, ob die Bundesregierung in diesem Jahr im Vergleich zum Vorjahr mehr Fortschritte bei der KI -Gesetzgebung erzielen kann oder ob es einen starken Appetit auf Codierung gibt. Präsident Donald Trump hat seine Absicht signalisiert, die Branche umfassend zu erweitern, und beseitigt das, was er als Hindernisse für die Dominanz der USA in der AI betrachtet.
Während Ihres ersten AmtentagesTrumpf widerrufen eins Executive Order Aus dem ehemaligen Präsidenten Joe Biden, der versuchte, die Risiken zu verringern, dass KI den Verbrauchern, Arbeitnehmern und nationaler Sicherheit darstellen könnte. Am Donnerstag unterzeichnete Trump eine und unterrichtete Bundesbehörden, bestimmte Richtlinien und Programme für Biden Age AI auszusetzen, einschließlich potenziell Exportregeln für KI -Modelle exportieren.
Im November anthropisch angerufen Für die „gerichtete“ Bundesregulierung der KI in den nächsten 18 Monaten warnt es, dass das Fenster für die „proaktive Risikoprävention schnell schließt“. Openai wiederum in einem kürzlich in politischen Dokument angerufen Die US -Regierung, um materielle KI- und Infrastrukturmaßnahmen zu ergreifen, um die Entwicklung von Technologie zu unterstützen.