Amazon-Technologieunternehmen, Google und Meta wurden von einem Untersuchungsausschuss des Senats dafür kritisiert, dass sie sich besonders vage darüber äußerten, wie sie australische Daten zum Trainieren ihrer leistungsstarken Produkte der künstlichen Intelligenz nutzten.
Labour-Senator Tony Sheldon, Vorsitzender der Untersuchung, zeigte sich frustriert über die Weigerung multinationaler Konzerne, direkte Fragen zur Nutzung privater und persönlicher Daten von Australiern zu beantworten.
„Anwesend Amazonas„Dass Meta und Google Fragen während der Anhörungen vermieden haben, war wie das Ansehen eines billigen Zaubertricks – viel Handbewegungen, eine Rauchwolke und am Ende nichts, was man sehen konnte“, sagte Sheldon in einer Erklärung, nachdem er am Dienstag den Abschlussbericht der Untersuchung veröffentlicht hatte . -gerecht.
Er bezeichnete Technologieunternehmen als „Piraten“, die „unsere Kultur, Daten und Kreativität aus Profitgier plündern und die Australier mit leeren Händen zurücklassen“.
Der Bericht kam zu dem Schluss, dass einige Allzweck-KI-Modelle – wie GPT von OpenAI, Llama von Meta und Gemini von Google – automatisch in die Kategorie „hohes Risiko“ fallen und verbindlichen Transparenz- und Rechenschaftspflichten unterliegen sollten.
Während der Untersuchung und im Bericht tauchten mehrere Schlüsselthemen auf.
Unabhängige KI-Gesetze erforderlich
Sheldon sagte, Australien brauche „neue unabhängige KI-Gesetze“, um „Big Tech“ zu kontrollieren, und dass bestehende Gesetze bei Bedarf geändert werden sollten.
„Sie wollen ihre eigenen Regeln festlegen, aber die Australier brauchen Gesetze, die ihre Rechte schützen, nicht das Endergebnis des Silicon Valley“, sagte er.
Er sagte, Amazon habe sich während der Untersuchung geweigert, offenzulegen, wie es aufgezeichnete Daten von Alexa-, Kindle- oder Audible-Geräten verwendet habe, um seine KI zu trainieren.
Google weigerte sich außerdem, Fragen dazu zu beantworten, welche Daten von Nutzern seiner Dienste und Produkte es zum Trainieren seiner KI-Produkte verwendet habe.
Meta gab zu, seit 2007 australische Facebook- und Instagram-Nutzer gestohlen zu haben, um sich auf zukünftige KI-Modelle vorzubereiten. Doch das Unternehmen versäumte es, zu erklären, wie Nutzer der Verwendung ihrer Daten für etwas zustimmen konnten, das es 2007 noch nicht gab.
Sheldon sagte, Meta habe Fragen dazu vermieden, wie es Daten aus seinen WhatsApp- und Messenger-Produkten verwendet habe.
„Hochrisiko“-KI für kreative Arbeitnehmer
Der Bericht kam zu dem Schluss, dass für Kreativschaffende das größte Risiko besteht, dass KI ihren Lebensunterhalt ernsthaft beeinträchtigt.
Es wurde empfohlen, Zahlungsmechanismen einzuführen, um Kreative zu entschädigen, wenn KI-generierte Arbeiten auf ihrem Ausgangsmaterial basieren.
Entwickler von KI-Modellen müssten transparent über die Verwendung urheberrechtlich geschützter Werke in ihren Datensätzen sein, heißt es in dem Bericht. Jedes deklarierte Werk muss lizenziert und bezahlt werden.
Zu den 13 Empfehlungen des Berichts gehört die Forderung nach Einführung einer unabhängigen KI-Gesetzgebung, um KI-Modelle abzudecken, die als „hochriskant“ gelten.
KI, die sich auf die Rechte der Menschen am Arbeitsplatz auswirkt, sollte als risikoreich eingestuft werden, was Konsultation, Zusammenarbeit und Vertretung vor ihrer Einführung erfordert.
Die Musikrechte-Verwaltungsorganisation Apra Amcos sagte, der Bericht erkenne die schädlichen Auswirkungen von KI auf Arbeitnehmer an, insbesondere im Kreativsektor. Darin heißt es, dass in den Empfehlungen des Berichts „klare Maßnahmen“ zur Risikominderung vorgeschlagen würden.
Die Media Entertainment and Arts Alliance sagte, die Forderung des Berichts nach der Einführung eines Gesetzes zur Einführung eines KI-Gesetzes sei „klar und eindeutig“.
Ersticken Sie KI nicht mit Bürokratie
Die beiden Koalitionsmitglieder im Ausschuss, die Senatoren Linda Reynolds und James McGrath, sagten, KI stelle eine größere Bedrohung für Australiens Cybersicherheit, nationale Sicherheit und demokratische Institutionen dar als die Kreativwirtschaft.
Sie erklärten, dass es notwendig sei, Mechanismen zu implementieren, „ohne die potenziellen Chancen zu beeinträchtigen, die KI in Bezug auf die Schaffung von Arbeitsplätzen und das Produktivitätswachstum bietet“.
Sie akzeptierten nicht die Schlussfolgerung des Berichts, dass alle Nutzungen von KI durch „Menschen am Arbeitsplatz“ automatisch als „hohes Risiko“ eingestuft werden sollten.
In weiteren Stellungnahmen der Grünen wurde argumentiert, dass der Abschlussbericht nicht weit genug gehe.
„(Der Bericht) empfiehlt keine umfassende Strategie, die die australische KI-Regulierung an die des Vereinigten Königreichs, Europas, Kaliforniens oder anderer Gerichtsbarkeiten anpasst“, sagte die Partei.
Der Guardian hat Amazon, Google und Meta um einen Kommentar gebeten.