Start IT/Tech Bahnbrechendes mathematisches Modell könnte zum Schutz der Privatsphäre beitragen und eine sicherere...

Bahnbrechendes mathematisches Modell könnte zum Schutz der Privatsphäre beitragen und eine sicherere Nutzung von KI gewährleisten

10
0
Leicht, flexibel und strahlungsbeständig: Organische Solarzellen für den Weltraum

KI-Tools werden zunehmend eingesetzt, um uns sowohl online als auch vor Ort zu verfolgen und zu überwachen, doch ihre Wirksamkeit birgt große Risiken. Informatiker des Oxford Internet Institute, des Imperial College London und der UCLouvain haben ein neues mathematisches Modell entwickelt, das den Menschen helfen könnte, die von KI ausgehenden Risiken besser zu verstehen und Regulierungsbehörden beim Schutz der Privatsphäre der Menschen zu unterstützen. Die Ergebnisse wurden in veröffentlicht Naturkommunikation.

Die Methode bietet erstmals einen robusten wissenschaftlichen Rahmen für die Bewertung von Identifikationstechniken, insbesondere beim Umgang mit großen Datenmengen. Dazu könnte beispielsweise die Überwachung der Genauigkeit von Werbecodes und unsichtbaren Trackern bei der Identifizierung von Online-Benutzern anhand kleiner Informationen wie Zeitzone oder Browsereinstellungen gehören (eine Technik, die als „Browser-Fingerprinting“ bezeichnet wird).

Hauptautor Dr. Luc Rocher, Senior Research Fellow am Oxford Internet Institute, Teil der Universität Oxford, sagte: „Wir sehen unsere Methode als einen neuen Ansatz, der dabei hilft, das Risiko einer erneuten Identifizierung bei der Datenfreigabe einzuschätzen, aber auch modernere Methoden zu bewerten.“ Identifizierungstechniken in kritischen Umgebungen mit hohem Risiko. An Orten wie Krankenhäusern, bei der Bereitstellung humanitärer Hilfe oder bei der Grenzkontrolle steht unglaublich viel auf dem Spiel und die Notwendigkeit einer genauen und zuverlässigen Identifizierung ist von größter Bedeutung.“

Die Methode stützt sich auf das Gebiet der Bayes’schen Statistik, um herauszufinden, wie identifizierbar Individuen im kleinen Maßstab sind, und um die Genauigkeit der Identifizierung auf größere Populationen zu extrapolieren, die bis zu zehnmal besser ist als frühere Heuristiken und Faustregeln. Dies verleiht der Methode eine einzigartige Leistungsfähigkeit bei der Beurteilung der Leistung verschiedener Datenidentifizierungstechniken im großen Maßstab, in verschiedenen Anwendungen und Verhaltensumgebungen. Dies könnte erklären, warum einige KI-Identifikationstechniken beim Test in kleinen Fallstudien sehr genau funktionieren, dann aber Menschen unter realen Bedingungen falsch identifizieren.

Die Ergebnisse sind angesichts der Herausforderungen, die sich aus der rasanten Verbreitung KI-basierter Identifizierungstechniken für Anonymität und Privatsphäre ergeben, äußerst aktuell. Beispielsweise werden KI-Tools getestet, um Menschen automatisch anhand ihrer Stimme beim Online-Banking, ihrer Augen bei der Bereitstellung humanitärer Hilfe oder ihres Gesichts bei der Strafverfolgung zu identifizieren.

Den Forschern zufolge könnte die neue Methode Organisationen dabei helfen, ein besseres Gleichgewicht zwischen den Vorteilen von KI-Technologien und der Notwendigkeit, die persönlichen Daten der Menschen zu schützen, zu finden und so die täglichen Interaktionen mit der Technologie sicherer und sicherer zu machen. Ihre Testmethode ermöglicht die Identifizierung potenzieller Schwachstellen und Verbesserungsbereiche vor der vollständigen Implementierung, was für die Aufrechterhaltung von Sicherheit und Genauigkeit unerlässlich ist.

Co-Autor, außerordentlicher Professor Yves-Alexandre de Montjoye (Data Science Institute, Imperial College, London) sagte: „Unser neues Skalierungsgesetz liefert zum ersten Mal ein prinzipielles mathematisches Modell, um zu bewerten, wie Identifikationstechniken im Maßstab funktionieren. Das verstehen.“ Die Skalierbarkeit der Identifizierung ist von wesentlicher Bedeutung, um die von diesen Reidentifizierungstechniken ausgehenden Risiken zu bewerten, einschließlich der Gewährleistung der Einhaltung moderner Datenschutzgesetze weltweit.“

Dr. Luc Rocher kam zu dem Schluss: „Wir glauben, dass diese Arbeit einen entscheidenden Schritt in Richtung der Entwicklung prinzipieller Methoden zur Bewertung der Risiken darstellt, die von immer fortschrittlicheren KI-Techniken ausgehen, und der Art der Identifizierbarkeit in menschlichen Spuren im Internet. Wir gehen davon aus, dass diese Arbeit von Nutzen sein wird.“ eine große Hilfe für Forscher, Datenschutzbeauftragte, Ethikkommissionen und andere Praktiker, die ein Gleichgewicht zwischen der gemeinsamen Nutzung von Forschungsdaten und dem Schutz der Privatsphäre von Patienten, Teilnehmern und Bürgern finden wollen.“

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein