Führende KI-Entwickler wie OpenAI und Anthropic versuchen, Software an das US-Militär zu verkaufen: Sie wollen das Pentagon effizienter machen, ohne zuzulassen, dass seine KI Menschen tötet.
Heutzutage werden seine Werkzeuge nicht mehr als Waffen eingesetzt, aber die KI verschafft dem Verteidigungsministerium einen „erheblichen Vorteil“ bei der Identifizierung, Verfolgung und Bewertung von Bedrohungen, sagte Dr. Radha Plumb, Chief Digital und AI Officer des Pentagon, gegenüber TechCrunch in einem Telefoninterview.
„Natürlich erweitern wir die Möglichkeiten, mit denen wir die Ausführung der Kill-Chain beschleunigen können, damit unsere Kommandeure zum richtigen Zeitpunkt reagieren können, um unsere Streitkräfte zu schützen“, sagte Plumb.
Die „Kill Chain“ bezieht sich auf den militärischen Prozess der Identifizierung, Verfolgung und Beseitigung von Bedrohungen, an dem ein komplexes System aus Sensoren, Plattformen und Waffen beteiligt ist. Laut Plumb erweist sich generative KI in der Planungs- und Strategiephase der Kill Chain als nützlich.
Die Beziehung zwischen dem Pentagon und KI-Entwicklern ist relativ neu. OpenAI, Anthropic und Meta haben ihre Nutzungsrichtlinien zurückgenommen im Jahr 2024, um US-Geheimdiensten und Verteidigungsbehörden die Nutzung seiner KI-Systeme zu ermöglichen. Sie lassen jedoch immer noch nicht zu, dass ihre KI Menschen schadet.
„Wir haben sehr klar zum Ausdruck gebracht, wofür wir unsere Technologien nutzen werden und wofür nicht“, sagte Plumb, als er gefragt wurde, wie das Pentagon mit Anbietern von KI-Modellen zusammenarbeitet.
Dies löste jedoch eine Runde Speed-Dating für KI-Unternehmen und Verteidigungsunternehmen aus.
Ziel Partnerschaft mit Lockheed Martin und Booz Allenunter anderem, um seine Llama-KI-Modelle im November den Verteidigungsbehörden zur Verfügung zu stellen. Im selben Monat, Anthropo hat sich mit Palantir zusammengetan. Im Dezember, OpenAI hat einen ähnlichen Deal abgeschlossen mit Anduril. Leiser, Kohärent hat seine Modelle auch mit Palantir bereitgestellt.
Da die generative KI im Pentagon ihre Nützlichkeit unter Beweis stellt, könnte sie das Silicon Valley unter Druck setzen, seine KI-Nutzungsrichtlinien zu lockern und mehr militärische Anwendungen zuzulassen.
„Das Spielen in verschiedenen Szenarien ist etwas, bei dem generative KI nützlich sein kann“, sagte Plumb. „Auf diese Weise können Sie das gesamte Spektrum an Werkzeugen nutzen, die unseren Kommandanten zur Verfügung stehen, aber auch kreativ über verschiedene Reaktionsoptionen und mögliche Kompromisse in einer Umgebung nachdenken, in der eine potenzielle Bedrohung oder eine Reihe von Bedrohungen verarbeitet werden müssen.“ ”
Es ist unklar, welche Technologie das Pentagon für diese Arbeit verwendet; Der Einsatz generativer KI in der Kill Chain (auch in der frühen Planungsphase) scheint gegen die Nutzungsrichtlinien mehrerer führender Modellentwickler zu verstoßen. Anthropische PolitikBeispielsweise verbietet es die Verwendung seiner Modelle zur Herstellung oder Änderung von „Systemen, die dazu bestimmt sind, Schaden oder den Verlust von Menschenleben zu verursachen“.
Als Antwort auf unsere Fragen verwies Anthropic TechCrunch auf seinen CEO Dario Amodei aktuelles Interview mit der Financial Timeswo er seine militärische Arbeit verteidigte:
Die Position, dass wir KI niemals in Verteidigungs- und Geheimdienstumgebungen einsetzen sollten, ergibt für mich keinen Sinn. Die Position, dass wir Gangbuster sein und damit alles herstellen sollten, was wir wollen – einschließlich Weltuntergangswaffen –, ist offensichtlich ebenso verrückt. Wir versuchen, einen Mittelweg zu finden und Dinge verantwortungsvoll zu tun.
OpenAI, Meta und Cohere antworteten nicht auf die Bitte von TechCrunch um einen Kommentar.
Leben und Tod und KI-Waffen
In den letzten Monaten ist eine Debatte über Verteidigungstechnologie entbrannt ob KI-Waffen tatsächlich Entscheidungen über Leben und Tod treffen dürfen sollten. Einige argumentieren, dass das US-Militär bereits über Waffen verfügt, die dies ermöglichen.
Palmer Luckey, CEO von Anduril, kürzlich in X vermerkt dass das US-Militär auf eine lange Geschichte des Kaufs und Einsatzes autonomer Waffensysteme zurückblickt, wie z CIWS-Turm.
„Das Verteidigungsministerium kauft und nutzt seit Jahrzehnten autonome Waffensysteme. Seine Verwendung (und sein Export!) ist gut verstanden, klar definiert und explizit durch Regeln geregelt, die keineswegs freiwillig sind“, sagte Luckey.
Aber als TechCrunch fragte, ob das Pentagon völlig autonome Waffen kauft und betreibt – solche, bei denen kein Mensch beteiligt ist –, lehnte Plumb die Idee grundsätzlich ab.
„Nein, ist die kurze Antwort“, sagte Plumb. „Aus Gründen der Vertrauenswürdigkeit und der Ethik werden wir immer Menschen in die Entscheidung über den Einsatz von Gewalt einbeziehen, und das gilt auch für unsere Waffensysteme.“
Das Wort „Autonomie“ ist etwas zweideutig und hat in der gesamten Technologiebranche eine Debatte darüber ausgelöst, wann automatisierte Systeme – wie KI-Programmierungsagenten, selbstfahrende Autos oder selbstfeuernde Waffen – wirklich unabhängig werden.
Plumb sagte, die Idee, dass automatisierte Systeme unabhängig Entscheidungen über Leben und Tod treffen, sei „zu binär“ und die Realität sei weniger „Science-Fiction“. Stattdessen schlug sie vor, dass der Einsatz von KI-Systemen durch das Pentagon tatsächlich eine Zusammenarbeit zwischen Menschen und Maschinen sei, bei der hochrangige Führungskräfte während des gesamten Prozesses aktive Entscheidungen treffen.
„Die Leute neigen dazu, sich das so vorzustellen, als gäbe es irgendwo Roboter, und dann spuckt der Gonculator (eine fiktive autonome Maschine) ein Stück Papier aus und die Menschen kreuzen einfach ein Kästchen an“, sagte Plumb. „So funktioniert Mensch-Maschine-Teaming nicht und es ist keine effektive Möglichkeit, diese Art von KI-Systemen zu nutzen.“
KI-Sicherheit im Pentagon
Militärische Partnerschaften wurden von den Mitarbeitern des Silicon Valley nicht immer gut aufgenommen. Letztes Jahr waren es Dutzende Amazon- und Google-Mitarbeiter wurde entlassen und verhaftet, nachdem er gegen die Militärverträge seiner Unternehmen mit Israel protestiert hatteCloud-Vereinbarungen, die unter dem Codenamen „Project Nimbus“ fielen.
Im Vergleich dazu gab es eine recht verhaltene Reaktion aus der KI-Community. Einige KI-Forscher, wie Evan Hubinger von Anthropic, sagen, der Einsatz von KI im Militär sei unvermeidlich und es sei entscheidend, direkt mit dem Militär zusammenzuarbeiten, um sicherzustellen, dass sie es richtig machen.
„Wenn man die katastrophalen Risiken der KI ernst nimmt, ist die US-Regierung ein äußerst wichtiger Akteur, mit dem man zusammenarbeiten muss, und der Versuch, die US-Regierung einfach vom Einsatz von KI abzuhalten, ist keine praktikable Strategie“, sagte Hubinger im November. im LessWrong-Onlineforum posten. „Es reicht nicht aus, sich nur auf Katastrophenrisiken zu konzentrieren, es ist auch notwendig, jeden Missbrauch seiner Modelle durch die Regierung zu verhindern.“