Start IT/Tech KI -Systeme mit „inakzeptables Risiko“ sind in der EU jetzt verboten

KI -Systeme mit „inakzeptables Risiko“ sind in der EU jetzt verboten

8
0
Hands waving small European Union flags

Am Sonntag können BLOC -Aufsichtsbehörden in der Europäischen Union die Verwendung von AI -Systemen verbieten, die sie als „inakzeptables Risiko“ oder -beschädigung darstellen.

2. Februar ist die erste Konformitätszeit für die Ich habe die TatDie umfassende regulatorische Struktur der KI, die das Europäische Parlament im vergangenen März nach Jahren der Entwicklung endgültig genehmigte. Das Gesetz trat offiziell in Kraft 1. August; Was jetzt folgt, ist die erste der Einhaltung von Einhaltung.

Die Details sind in Artikel 5 festgelegtDas Gesetz soll jedoch eine Vielzahl von Anwendungsfällen abdecken, in denen KI auftreten und mit Einzelpersonen interagieren kann, von Verbraucheranwendungen bis hin zu physischen Umgebungen.

Unter dem BlockansatzEs besteht vier große Risiken: (1) Mindestrisiko (z. B. E -Mail -Filter per E -Mail) wird keine behördliche Aufsicht ausgesetzt sein; . . und (4) inakzeptable Risikoanwendungen – der Schwerpunkt der Compliance -Anforderungen dieses Monats – ist völlig verboten.

Einige der inakzeptablen Aktivitäten umfassen:

  • KI für soziale Punktzahl verwendet (zum Beispiel Risikoprofile auf der Grundlage des Verhaltens einer Person).
  • Oh, das manipuliert die Entscheidungen einer Person, die subliminär oder irreführend ist.
  • Oh, das untersucht Schwachstellen wie Alter, Mangel oder sozioökonomischer Status.
  • Oh, das versucht, Menschen vorherzusagen, die Verbrechen begehen, die auf ihrem Aussehen basieren.
  • Oh, das nutzt Biometrie, um die Eigenschaften einer Person wie ihre sexuelle Orientierung zu schließen.
  • Oh, das sammelt biometrische Daten „in Echtzeit“ an öffentlichen Orten für Strafverfolgungsbehörden.
  • Oh, das versucht, die Gefühle der Menschen bei der Arbeit oder in der Schule zu schließen.
  • Oh, das erstellt – oder erweitert – Gesichtserkennungsdatenbanken, die Bilder auf -Line- oder Sicherheitskameras abkratzen.

Unternehmen, die eine der oben genannten KI -Anwendungen verwenden, unterliegen Geldstrafen, unabhängig davon, wo sie ihren Hauptsitz haben. Sie können bis zu 35 Mio. € (~ 36 Millionen US -Dollar) oder 7% ihres Jahresumsatzes im letzten Geschäftsjahr, der am höchsten ist, angeschlossen sein.

Bußgelder werden für eine Weile keine Maßnahmen ergreifen, bemerkte Rob Sumroy in einem Interview mit TechCrunch.

„Es wird erwartet, dass Organisationen bis zum 2. Februar vollständig kompatibel sind, aber … die nächste große Frist, die Unternehmen wissen müssen, ist im August“, sagte Sumroy. „Bis dahin werden wir wissen, wer die zuständigen Behörden sind und welche Geldstrafen und Durchsetzungsbestimmungen in Kraft treten.“

Vorläufige Versprechen

Die Zeit vom 2. Februar ist in gewisser Weise eine Formalität.

Im vergangenen September haben mehr als 100 Unternehmen die unterschrieben Ich bin PaktEin freiwilliges Versprechen, vor dem Eintritt in den Antrag die Grundsätze des KI -Gesetzes anzuwenden. Im Rahmen des Pakts verpflichtete sich Unterzeichner – zu denen Amazon, Google und Openai gehörte – KI -Systeme, die wahrscheinlich nach KI -Gesetz als ein hohes Risiko eingestuft werden.

Einige Riesen der Technologie, insbesondere Ziel, und Apple, sprangen in den Pakt. Französische AIA -Startup MistralEiner der schwerwiegendsten Kritiker von AI, entschied sich auch dafür, nicht zu unterschreiben.

Dies deutet nicht darauf hin, dass Apple, Ziel, Mistral oder andere, die nicht mit dem Pakt zugestimmt haben, ihre Verpflichtungen nicht erfüllen – einschließlich des Verbots unannehmbar riskanter Systeme. Sumroy weist darauf hin, dass die meisten Unternehmen angesichts der Art der verbotenen Anwendungsfälle nicht an diesen Praktiken beteiligt sind.

„Für Organisationen ist ein wichtiges Anliegen des EU -AI -Gesetzes, ob klare Richtlinien, Standards und Verhaltenskodizes rechtzeitig eintreten werden – und entscheidend, wenn sie Klarheit über die Einhaltung der Einhaltung bieten“, sagte Sumroy. „Arbeitsgruppen erfüllen jedoch ihre Fristen im Verhaltenskodex für … Entwickler.“

Mögliche Ausnahmen

Es gibt Ausnahmen von einigen der Verbote des KI -Gesetzes.

Zum Beispiel erlaubt das Gesetz die Anwendung des Gesetzes, bestimmte Systeme zu verwenden, die an öffentlichen Orten Biometrie sammeln, wenn diese Systeme dazu beitragen, eine „gezielte Forschung“ durch ein Opfer von Entführung oder Verhinderung einer spezifischen, wesentlichen und unmittelbar bevorstehenden Bedrohung durchzuführen. “ „Fürs Leben. Diese Befreiung erfordert die Genehmigung der zuständigen Regierungsbehörde, und das Gesetz betont, dass die Anwendung des Gesetzes keine Entscheidung treffen kann, die „einen nachteiligen rechtlichen Effekt in einer Person hervorruft“, die nur auf den Ergebnissen dieser Systeme basiert.

Das Gesetz führt auch Ausnahmen von Systemen, die Emotionen an Arbeitsplätzen und Schulen färben, an denen eine „medizinische oder Sicherheit“ -Regifizierung vorhanden ist, wie z. B. Systeme für den therapeutischen Gebrauch.

Die Europäische Kommission, die EU Executive Branch, sagte, er würde zusätzliche Richtlinien veröffentlichen In der „frühen 2025“ nach einer Ernennung mit den Stakeholdern im November. Diese Richtlinien wurden jedoch noch nicht veröffentlicht.

Sumroy sagte, es sei unklar, da andere Gesetze in Büchern mit den verwandten Verboten und Bestimmungen des KI -Rechts interagieren können. Klarheit kann das Ende des Jahres nicht erreichen, wenn sich das Ausführungsfenster nähert.

„Es ist wichtig für Organisationen, sich daran zu erinnern, dass die KI -Regulierung nicht isoliert existiert“, sagte Sumroy. „Andere rechtliche Strukturen wie DSGVO, NIS2 und Dora werden mit dem KI -Recht interagieren und mögliche Herausforderungen schaffen – insbesondere in Bezug auf Anforderungen an die Benachrichtigung von Vorfällen. Das Verständnis, wie diese Gesetze passen, wird ebenso entscheidend sein wie das Verständnis des AI -Gesetzes selbst. ”

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein