Start News Britisches KI-Startup mit Regierungsbeziehungen entwickelt Technologie für Militärdrohnen

Britisches KI-Startup mit Regierungsbeziehungen entwickelt Technologie für Militärdrohnen

8
0
Britisches KI-Startup mit Regierungsbeziehungen entwickelt Technologie für Militärdrohnen

Ein Unternehmen, das eng mit der britischen Regierung im Bereich künstlicher Intelligenz für Sicherheit, NHS und Bildung zusammengearbeitet hat, entwickelt auch KI für Militärdrohnen.

Laut einem Partnerunternehmen der Verteidigungsindustrie verfügt das Beratungsunternehmen Faculty AI über „Erfahrung in der Entwicklung und Bereitstellung von KI-Modellen auf UAVs“ oder unbemannten Luftfahrzeugen.

Die Fakultät hat sich zu einem der aktivsten Unternehmen entwickelt, das KI-Dienste im Vereinigten Königreich verkauft. Im Gegensatz zu denen, die OpenAI, Deepmind oder AnthropicEs entwickelt selbst keine Modelle, sondern konzentriert sich auf den Weiterverkauf von Modellen, insbesondere von OpenAI, und die Beratung zu deren Einsatz in Regierung und Industrie.

Besondere Bekanntheit erlangte die Fakultät im Vereinigten Königreich durch die Arbeit an der Datenanalyse für die Vote-Leave-Kampagne vor dem Brexit-Referendum. Der damalige ehemalige Berater von Boris Johnson, Dominic Cummings übertrug die Arbeit der Regierung an die Fakultät während der Pandemie, einschließlich ihrer CEO, Marc Warnerin Sitzungen des wissenschaftlichen Beratungsgremiums der Regierung.

Seitdem führt das Unternehmen, offiziell Faculty Science genannt, Tests von KI-Modellen für durch Das AI Safety Institute (AISI) der britischen Regierung wurde 2023 gegründet in Form von Premierminister Rishi Sunak.

Regierungen auf der ganzen Welt bemühen sich darum, die Auswirkungen der künstlichen Intelligenz auf die Sicherheit zu verstehen, nachdem die raschen Verbesserungen der generativen KI eine Welle des Hypes um ihre Fähigkeiten ausgelöst haben.

Waffenhersteller sind bestrebt, Drohnen möglicherweise mit künstlicher Intelligenz auszustatten, von „loyalen Flügelmännern“, die neben Kampfflugzeugen fliegen könnten, bis hin zu herumlungernden Munitionen, die bereits in der Lage sind, auf das Auftauchen von Zielen zu warten, bevor sie auf sie schießen.

Jüngste technologische Entwicklungen haben die Aussicht auf Drohnen erhöht, die verfolgen und verfolgen können Töten, ohne dass ein Mensch „auf dem Laufenden“ ist die endgültige Entscheidung treffen.

In einem Pressemitteilung Das britische Startup Hadean, das eine Partnerschaft mit der in London ansässigen Faculty angekündigt hat, schrieb, dass die beiden Unternehmen bei der „Identifizierung von Subjekten, der Verfolgung von Objektbewegungen und der Erforschung der Entwicklung, Bereitstellung und des Betriebs autonomer Schwärme“ zusammenarbeiten.

Es wird davon ausgegangen, dass die Arbeit der Fakultät zu Hadean nicht das Zielen mit Waffen beinhaltete. Die Fakultät antwortete jedoch nicht auf Fragen, ob sie an Drohnen arbeite, die tödliche Gewalt anwenden können, und gab unter Berufung auf Vertraulichkeitsvereinbarungen keine weiteren Einzelheiten zu ihrer Verteidigungsarbeit bekannt.

Ein Sprecher der Fakultät sagte: „Wir helfen bei der Entwicklung neuer KI-Modelle, die unseren Verteidigungspartnern dabei helfen werden, sicherere und robustere Lösungen zu entwickeln“, und fügte hinzu, dass es „strenge ethische Richtlinien und interne Prozesse“ gebe und die ethischen Richtlinien für KI von der Fakultät befolgt würden Ministerium für KI. Verteidigung.

Der Sprecher sagte, die Fakultät verfüge über zehn Jahre Erfahrung in der KI-Sicherheit, einschließlich der Bekämpfung von sexuellem Kindesmissbrauch und Terrorismus.

Der Scott Trust, der letztendliche Eigentümer des Guardian, ist ein Investor von Mercuri VC, ehemals GMG Ventures, einem Minderheitsaktionär der Fakultät.

Die Fakultät unter der Leitung von Geschäftsführer Marc Warner arbeitet weiterhin eng mit AISI zusammen. Foto: arutoronto/Faculty AI

„Wir arbeiten seit einem Jahrzehnt an der KI-Sicherheit und sind weltweit führende Experten auf diesem Gebiet“, sagte der Sprecher. „Deshalb vertrauen uns Regierungen und Modellentwickler, wenn es darum geht, die Sicherheit der Grenz-KI zu gewährleisten, und von Verteidigungskunden, dass wir KI auf ethische Weise anwenden, um die Sicherheit der Bürger zu gewährleisten.“

Viele Experten und Politiker mahnen zur Vorsicht, bevor mehr autonome Technologien in das Militär eingeführt werden. Im Jahr 2023 forderte ein Ausschuss des Oberhauses die britische Regierung auf, zu versuchen, einen Vertrag oder eine unverbindliche Vereinbarung zu schließen, um die Anwendung des humanitären Völkerrechts in Bezug auf tödliche Drohnen zu klären. Im September forderten die Grünen Gesetze zum vollständigen Verbot tödlicher autonomer Waffensysteme.

Die Fakultät arbeitet weiterhin eng mit AISI zusammen und versetzt sie in die Lage, dass ihre Bewertungen die Politik der britischen Regierung beeinflussen können.

Im November beauftragte AISI die Fakultät mit der Untersuchung, wie große Sprachmodelle „verwendet werden, um kriminelles oder anderweitig unerwünschtes Verhalten zu unterstützen“. AISI sagte, der Gewinner des Vertrags – die Fakultät – „wird ein wichtiger strategischer Mitarbeiter für das Sicherheitsteam von AISI sein und wichtige Informationen direkt zu den Systemsicherheitsmodellen von AISI beitragen.“

Vorherige Newsletter-Kampagne überspringen

Das Unternehmen arbeitet direkt mit OpenAI zusammen, dem Startup, das die jüngste Welle der KI-Begeisterung ausgelöst hat, um dessen ChatGPT-Modell zu nutzen. Laut Politico, einer Nachrichten-Website, haben Experten zuvor ihre Besorgnis über einen möglichen Arbeitskonflikt in der Arbeit der Fakultät mit AISI geäußert. Die Fakultät machte keine Angaben darüber, welche Modelle der Unternehmen sie getestet hatte, obwohl sie dies tat Das o1-Modell von OpenAI bevor es veröffentlicht wird.

Die Regierung hat zuvor über die KI-Arbeit der Fakultät für AISI gesagt: „Es ist entscheidend, dass sie durch die Entwicklung ihres eigenen Modells nicht in Konflikt geraten.“

Natalie Bennett, eine Kollegin der Grünen, sagte: „Die Grünen haben seit langem ernsthafte Bedenken hinsichtlich der ‚Drehtür‘ zwischen Industrie und Regierung geäußert und Fragen von Gasunternehmen aufgeworfen, die für die Arbeit an der Energiepolitik abgeordnet wurden, bis hin zu ehemaligen Verteidigungsministern, die das Unternehmen verlassen, um für Rüstungsunternehmen zu arbeiten.“ .

„Dass ein einzelnes Unternehmen sowohl zahlreiche Regierungsaufträge für die Arbeit an künstlicher Intelligenz erhalten hat als auch mit dem AI Safety Institute zusammenarbeitet, um große Sprachmodelle zu testen, ist ein ernstes Problem – nicht so sehr ‚Wilderer, der zum Wildtier wurde‘.“ als würde man beide Rollen gleichzeitig ausüben.“

Bennett betonte auch, dass sich die britische Regierung „noch nicht vollständig verpflichtet“ habe, sicherzustellen, dass ein Mensch für autonome Waffensysteme zuständig sei, wie vom Lords Committee empfohlen.

Faculty, deren größter Anteilseigner eine in Guernsey eingetragene Holdinggesellschaft ist, hat auch versucht, enge Beziehungen zur britischen Regierung zu pflegen und hat laut Regierungsangaben Aufträge im Wert von mindestens 26,6 Millionen Pfund gewonnen. Dazu gehören Verträge mit dem NHS, dem Ministerium für Gesundheit und Soziales, dem Ministerium für Bildung und dem Ministerium für Kultur, Medien und Sport.

Diese Verträge stellen eine bedeutende Einnahmequelle für ein Unternehmen dar, das einen Umsatz von 32 Millionen Pfund erzielte. im Jahr bis zum 31. März. Ich habe in diesem Zeitraum 4,4 Millionen Pfund abgenommen.

Albert Sanchez-Graells, Professor für Wirtschaftsrecht an der Universität Bristol, warnte, dass Großbritannien auf die „Selbstbeherrschung und Verantwortung von Technologieunternehmen bei der KI-Entwicklung“ setze.

„Unternehmen, die die Arbeit von AISI unterstützen, müssen organisatorische Interessenkonflikte vermeiden, die sich aus ihrer Arbeit für andere Teile der Regierung und breitere marktbasierte KI-Unternehmen ergeben“, sagte Sanchez-Graells.

„Unternehmen mit einem so breiten Portfolio an KI-Aktivitäten wie die Fakultät müssen Fragen dazu beantworten, wie sie sicherstellen können, dass ihre Beratung an AISI unabhängig und unvoreingenommen ist, und wie sie vermeiden können, dieses Wissen bei ihren anderen Aktivitäten auszunutzen.“

Das Ministerium für Wissenschaft, Innovation und Technologie lehnte eine Stellungnahme ab und erklärte, es werde nicht näher auf einzelne Handelsverträge eingehen.

Quelle link