Viele der Probleme, die künstliche Intelligenz mit sich bringt, liegen in der Geheimhaltung ihrer Funktionsweise und der von ihr eingegebenen Daten begründet. Wenn man also der nationalen Sicherheitsgemeinschaft die Führung in Sachen KI überlässt, wird die Sache nur noch schlimmer.
Das Weiße Haus von Präsident Joe Biden veröffentlichte kürzlich ein Memo zum Thema „Ausbau der Führungsrolle der USA im Bereich der künstlichen Intelligenz” die unter anderem eine Anweisung an den nationalen Sicherheitsapparat beinhaltete, weltweit führend beim Einsatz von KI zu werden.
Unter der Führung des Weißen Hauses wird erwartet, dass der nationale Sicherheitsstaat diese Führungsposition übernimmt, indem er große Köpfe aus der Wissenschaft und dem Privatsektor stiehlt und, was am beunruhigendsten ist, private KI-Modelle für gezielte Zwecke der nationalen Sicherheit nutzt.
Private KI-Systeme, die von Technologieunternehmen betrieben werden, sind zu unserem Nachteil bereits unglaublich undurchsichtig. Die Menschen fühlen sich unwohl, und das zu Recht Unternehmen, die KI nutzen, um über alle möglichen Dinge in ihrem Leben zu entscheidenVon der Wahrscheinlichkeit, eine Straftat zu begehen, über ihre Berechtigung zur Beschäftigung bis hin zu Fragen der Einwanderung, Versicherung und Unterbringung.
Profitorientierte Unternehmen vermieten ihre automatisierten Entscheidungsdienste an alle Arten von Unternehmen und Arbeitgebern, und die meisten von uns Betroffenen werden nie erfahren, dass ein Computer eine Entscheidung über uns getroffen hat, geschweige denn verstehen, wie diese Entscheidung getroffen wurde oder werden können appellieren. diese Entscheidung.
Aber die Situation könnte noch schlimmer werden: Die Kombination privater KI mit der Geheimhaltung der nationalen Sicherheit droht, ein bereits geheimes System noch verantwortungsloser und undurchsichtiger zu machen.
Die Konstellation der Organisationen und Behörden, aus denen der nationale Sicherheitsapparat besteht, ist bekanntermaßen geheimnisvoll. Die Electronic Frontier Foundation und andere Organisationen für Bürgerrechte Ich musste vor Gericht kämpfen wiederholt versucht, selbst die grundlegendsten Rahmenbedingungen der globalen Überwachung und die Regeln, die sie regeln, aufzudecken.
Wenn diesem Gerät die Vorherrschaft über die KI verliehen wird, entsteht ein Frankenstein-Monster voller Geheimhaltung, Verantwortungslosigkeit und Entscheidungsbefugnis. Während die Exekutive die Behörden dazu drängt, privates KI-Know-how zu nutzen, werden immer mehr Informationen über die Funktionsweise dieser KI-Modelle in den nahezu undurchdringlichen Schleier der Regierungsgeheimnis gehüllt.
Es ist wie das alte Informatik-Axiom „Müll rein, Müll raus“ – ohne Transparenz werden Daten, die die systemischen Vorurteile unserer Gesellschaft enthalten, die KI trainieren, diese Vorurteile zu verbreiten und zu verstärken. Mit geheimen Trainingsdaten und Black-Box-Algorithmen, die die Öffentlichkeit nicht analysieren kann, werden Vorurteile „technisch verwaschen“ und unterdrückende Entscheidungen werden hinter der vermeintlichen Objektivität des Codes verborgen.
KI sammelt und verarbeitet enorme Datenmengen. Daher wird das Verständnis der von ihr gespeicherten Informationen und der Art und Weise, wie sie zu Schlussfolgerungen gelangt, von entscheidender Bedeutung für die Art und Weise sein, wie der nationale Sicherheitsstaat über Probleme denkt. Das bedeutet, dass der Staat wahrscheinlich nicht nur argumentieren wird, dass KI-Trainingsdaten möglicherweise geheimgehalten werden müssen, sondern auch, dass Unternehmen unter Strafe des Gesetzes auch die von ihnen verwalteten Algorithmen geheim halten müssen.
In dem Memo heißt es: „KI hat sich zu einer bahnbrechenden Technologie entwickelt und hat eine bedeutende und wachsende Bedeutung für die nationale Sicherheit gezeigt. Die Vereinigten Staaten müssen bei der verantwortungsvollen Anwendung von KI in geeigneten nationalen Sicherheitsfunktionen weltweit führend sein.“
Der Standardansatz des nationalen Sicherheitsapparats hält die Öffentlichkeit im Dunkeln. Der Standardansatz für KI sollte glasklare Transparenz und Verantwortlichkeit bei Trainingsdaten und algorithmischer Entscheidungsfindung sein. Dies sind von Natur aus widersprüchliche Ziele, und die Verlagerung des rasch zunehmenden Einflusses der KI auf unsere Gesellschaft in den Schattenbereich der nationalen Sicherheit könnte für die kommenden Jahrzehnte eine Katastrophe bedeuten.
Matthew Guariglia ist leitender Politikanalyst bei der Electronic Frontier Foundation, einer digitalen Bürgerrechtsorganisation mit Sitz in San Francisco.