Ein von Amazon gehostetes Tool für künstliche Intelligenz, das die Rekrutierung für das britische Verteidigungsministerium fördern soll, setzt Verteidigungspersonal dem Risiko aus, öffentlich identifiziert zu werden eine staatliche Einschätzung.
Die Daten, die im automatisierten System verwendet werden, um die Erstellung von Stellenanzeigen im Verteidigungsbereich zu verbessern und durch die Verbesserung der Integrationssprache vielfältigere Kandidaten anzulocken, umfassen Namen, Rollen und E-Mails von Militärangehörigen und werden von gespeichert Amazonas in den USA. Dies bedeutet, dass „ein Datenschutzverstoß besorgniserregende Folgen haben könnte, insbesondere die Identifizierung von Verteidigungspersonal“, heißt es in heute erstmals veröffentlichten Dokumenten über staatliche KI-Systeme.
Das Risiko wurde als „gering“ eingestuft und das Verteidigungsministerium sagte, dass „robuste Schutzmaßnahmen“ von den Anbietern Textio, Amazon Web Services und Amazon GuardDuty, einem Bedrohungserkennungsdienst, implementiert worden seien.
Es handelt sich jedoch um eines von mehreren Risiken, die die Regierung hinsichtlich des Einsatzes von KI-Tools im öffentlichen Sektor erkannt hat Paket mit Dokumenten wurde ins Leben gerufen, um die Transparenz über den Einsatz von Algorithmen durch die Zentralregierung zu verbessern.
Offizielle Erklärungen zur Funktionsweise von Algorithmen unterstreichen, dass Abhilfemaßnahmen und Schutzmaßnahmen vorhanden sind, um den Risiken zu begegnen, während die Minister darauf drängen, KI zur Steigerung der wirtschaftlichen Produktivität Großbritanniens einzusetzen und, wie es Technologieminister Peter Kyle am Dienstag formulierte, „öffentlich zu machen“. Dienste aus dem Abgrund zurückholen“.
Diese Woche wurde berichtet, dass Chris Wormald, der neue Kabinettssekretär, sagte Beamten Der Premierminister möchte „eine Überarbeitung der Arbeitsweise der Regierung“ und fordert, dass die Beamten „die wichtigsten Möglichkeiten nutzen, die die Technologie bietet“.
Google und Meta haben direkt mit der britischen Regierung an Pilotprojekten zum Einsatz von KI im öffentlichen Dienst zusammengearbeitet. Microsoft stellt Beamten sein KI-basiertes Copilot-System zur Verfügung, und Anfang des Monats sagte Kabinettsminister Pat McFadden, er wolle, dass die Regierung „eher wie ein Startup denkt“.
Zu den weiteren Risiken und Vorteilen, die in der aktuellen KI der Zentralregierung identifiziert werden, gehören:
-
Die Möglichkeit, dass unangemessenes Unterrichtsmaterial generiert wird durch a KI-gestütztes Unterrichtsplanungstool wird von Lehrern basierend auf dem leistungsstarken großen Sprachmodell GPT-4o von Open AI verwendet. KI spart Lehrern Zeit und kann Unterrichtspläne schnell auf eine Weise personalisieren, die sonst nicht möglich wäre.
-
„Halluzinationen“ von a Chatbot wird eingesetzt, um Fragen zum Wohlergehen von Kindern zu beantworten vor Familiengerichten. Es bietet jedoch auch rund um die Uhr Informationen und verkürzt die Wartezeiten für Personen, die mit einem menschlichen Agenten sprechen müssen.
-
„Falsche Codeoperation“ und „falsche Eingabedaten“ im Neuen Richtlinien-Engine das maschinelles Lernen nutzt, um Steuer- und Leistungsänderungen „mit größerer Genauigkeit als bestehende Ansätze“ zu modellieren.
-
„Eine Verschlechterung des menschlichen Denkens“, wenn Benutzer einer KI zur Priorisierung von Risiken bei der Lebensmittelhygieneinspektion übermäßig abhängig werden das System. Dies könnte auch dazu führen, dass Betriebe einer bestimmten Art durchgängig deutlich schlechter bewertet werden, sollte aber auch zu schnelleren Inspektionen von Räumlichkeiten führen, bei denen die Wahrscheinlichkeit größer ist, dass sie gegen Hygienevorschriften verstoßen.
Die Offenlegungen erfolgen in einem kürzlich erweiterten Register für algorithmische Transparenz, das detaillierte Informationen über 23 Algorithmen der Zentralregierung aufzeichnet. Einige Algorithmen, wie sie beispielsweise im Sozialversicherungssystem vom Ministerium für Arbeit und Renten verwendet werden, haben dies getan zeigte Anzeichen von Vorurteilensind noch nicht registriert.
„Technologie hat ein enormes Potenzial, öffentliche Dienstleistungen zum Besseren zu verändern“, sagte Kyle. „Wir werden es nutzen, um Verzögerungen zu reduzieren, Geld zu sparen und die Ergebnisse für die Bürger im ganzen Land zu verbessern. Transparenz darüber, wie und warum der öffentliche Sektor algorithmische Tools nutzt, ist von entscheidender Bedeutung, um sicherzustellen, dass sie zuverlässig und effektiv sind.“
Zentrale Regierungsorganisationen werden verpflichtet sein, eine Aufzeichnung aller algorithmischen Tools zu veröffentlichen, die direkt mit Bürgern interagieren oder Entscheidungen über Menschen erheblich beeinflussen, es sei denn, es gelten enge Ausnahmen, wie etwa im Bereich der nationalen Sicherheit. Protokolle werden für Tools veröffentlicht, sobald sie öffentlich getestet werden oder live sind und funktionieren.
Zu den weiteren im erweiterten Register enthaltenen KIs gehört ein KI-Chatbot, der Kundenanfragen für Network Rail bearbeitet und anhand von Fallbeispielen aus dem Kundenbeziehungssystem des Eisenbahnunternehmens trainiert wird.
Das Bildungsministerium betreibt einen KI-Klassenzimmerassistenten für Lehrer, Aila, der das GPT-4o-Modell von Open AI verwendet. Es wurde in Whitehall entwickelt und ermöglicht es Lehrern, Unterrichtspläne zu erstellen, ohne einen Auftragnehmer beauftragen zu müssen. Das Tool wurde bewusst so konzipiert, dass es keine Klassen auf Knopfdruck generiert. Zu den erkannten und geminderten Risiken gehören jedoch schädliches oder unangemessenes Lehrmaterial, Voreingenommenheit oder Fehlinformationen und „sofortige Injektion” – eine Möglichkeit für böswillige Akteure, KI dazu zu bringen, ihre Absichten auszuführen.
Der Beratungs- und Unterstützungsdienst für Kinder- und Familiengerichte, der Familiengerichte in Fragen des Wohlergehens von Kindern berät, nutzt einen Roboter zur Verarbeitung natürlicher Sprache, um einen Chat-Dienst vor Ort zu betreiben, der monatlich rund 2.500 Anfragen bearbeitet. Eines der anerkannten Risiken besteht darin, dass Sie es möglicherweise mit Berichten zu tun haben, in denen es um Bedenken hinsichtlich Kindern geht, während es sich bei anderen um „Halluzinationen“ und „ungenaue Ergebnisse“ handelt. Die Erfolgsquote liegt bei zwei Dritteln. Es wird von Unternehmen wie Genesys und Kerv unterstützt, die wiederum Amazon Web Services nutzen.