Zurück Es könnteOpenAI sagte, es entwickele ein Tool, mit dem Entwickler festlegen können, wie ihre Arbeit in ihre KI-Trainingsdaten einbezogen oder daraus ausgeschlossen werden soll. Aber sieben Monate später ist diese Funktion immer noch nicht verfügbar.
Das als Media Manager bezeichnete Tool würde „urheberrechtlich geschützte Texte, Bilder, Audio- und Videodateien identifizieren“, sagte OpenAI damals, um die Präferenzen der Ersteller „über mehrere Quellen hinweg“ widerzuspiegeln. Ziel war es, einige Probleme des Unternehmens zu vermeiden heftiger Kritikund möglicherweise OpenAI davor schützen Rechtliche Herausforderungen im Zusammenhang mit geistigem Eigentum.
Aber vertraute Personen sagen TechCrunch, dass das Tool intern selten als Hauptversion angesehen wurde. „Ich glaube nicht, dass es Priorität hatte“, sagte ein ehemaliger OpenAI-Mitarbeiter. „Um ehrlich zu sein, kann ich mich nicht erinnern, dass jemand daran gearbeitet hat.“
Ein nicht angestellter Mitarbeiter, der die Arbeit mit dem Unternehmen koordiniert, teilte TechCrunch im Dezember mit, dass man das Tool in der Vergangenheit bereits mit OpenAI besprochen habe, es aber keine aktuellen Updates gegeben habe. (Diese Personen lehnten es ab, bei der Erörterung vertraulicher Geschäftsangelegenheiten öffentlich genannt zu werden.)
Und ein Mitglied des OpenAI-Rechtsteams, das bei Media Manager arbeitete, Fred von Lohmann, wechselte im Oktober zu einer Teilzeitberaterrolle. OpenAI PR bestätigte Von Lohmanns Wechsel zu TechCrunch per E-Mail.
OpenAI hat den Fortschritt von Media Manager noch nicht aktualisiert und das Unternehmen hat seine selbst gesetzte Frist, das Tool bis 2025 betriebsbereit zu haben, verpasst.
IP-Probleme
KI-Modelle wie OpenAI lernen Muster auf Datensätzen, um Vorhersagen zu treffen – z.B. Wer in einen Hamburger beißt, hinterlässt eine Bissspur. Dadurch können Modelle bis zu einem gewissen Grad durch Beobachtung lernen, wie die Welt funktioniert. GPT-Chat kann überzeugende E-Mails und Aufsätze schreiben, während SoraDer Videogenerator von OpenAI kann relativ realistische Bilder erstellen.
Die Fähigkeit, auf Beispiele aus Schriften, Filmen und mehr zurückzugreifen, um neue Arbeiten zu generieren, macht KI unglaublich leistungsfähig. Es kommt aber auch zum Aufstoßen. Auf eine bestimmte Art und Weise gefragt, erzeugen die Modelle – die größtenteils auf unzähligen Webseiten, Videos und Bildern trainiert werden – nahezu Kopien dieser Daten, die trotz ihrer „öffentlichen Zugänglichkeit“ nicht auf diese Weise verwendet werden sollten.
Sora kann es zum Beispiel Generieren Sie Clips mit TikTok-Logo Und beliebte Videospielcharaktere. Die New York Times ließ ChatGPT seine Artikel wörtlich zitieren (OpenAI machte für das Verhalten eine „hacken“).
Verständlicherweise verärgerte dies die Entwickler, deren Arbeit ohne ihre Erlaubnis in die KI-Schulung einbezogen wurde. Viele haben Anwälte engagiert.
OpenAI kämpft gegen Sammelklagen von Künstlern, Schriftstellern, YouTuberInformatiker und Nachrichtenorganisationen, die alle behaupten, das Startup habe ihre Jobs illegal ausgebildet. Zu den Klägern zählen unter anderem die Autoren Sarah Silverman und Ta Nehisi-Coates, bildende Künstler und Medienkonzerne wie The New York Times und Radio-Canada.
OpenAI gesucht Lizenzierung Angebote mit wählen Partneraber nicht alle Ersteller sehen das Bedingungen so attraktiv.
OpenAI bietet Entwicklern mehrere Ad-hoc-Möglichkeiten, sich von ihrem KI-Training abzumelden. Im vergangenen September hat das Unternehmen freigegeben ein Einreichungsformular, mit dem Künstler ihre Werke markieren können, um sie aus künftigen Schulungssets zu entfernen. Und OpenAI ermöglicht es Webmastern seit langem, ihre Web-Crawling-Bots zu blockieren Daten-Scraping in ihren Domänen.
Doch die Macher kritisierten diese Methoden als willkürlich und unangemessen. Es gibt keine spezifischen Ausschlussmechanismen für schriftliche Werke, Videos oder Audioaufnahmen. Und für das Bildlöschungsformular müssen Sie von jedem zu entfernenden Bild eine Kopie zusammen mit einer Beschreibung einreichen, was ein mühsamer Prozess ist.
Media Manager wurde heute als komplette Überarbeitung – und Erweiterung – der Opt-out-Lösungen von OpenAI eingeführt.
In der Ankündigung vom Mai sagte OpenAI, dass Media Manager „modernste maschinelle Lernforschung“ nutzen werde, um es den Erstellern und Eigentümern von Inhalten zu ermöglichen, „OpenAI mitzuteilen, was sie besitzen“. OpenAI, das behauptete, bei der Entwicklung des Tools mit Regulierungsbehörden zusammenzuarbeiten, sagte, es hoffe, dass Media Manager „einen Standard in der gesamten KI-Branche setzen“ werde.
Seitdem hat OpenAI Media Manager nie mehr öffentlich erwähnt.
Ein Sprecher teilte TechCrunch mit, dass sich das Tool im August „noch in der Entwicklung“ befinde, reagierte jedoch nicht auf eine Bitte um Stellungnahme Mitte Dezember.
OpenAI hat keinen Hinweis darauf gegeben, wann Media Manager auf den Markt kommen könnte – oder auch nur, mit welchen Features und Fähigkeiten er auf den Markt kommen könnte.
Faire Verwendung
Unter der Annahme, dass Media Manager irgendwann auf den Markt kommt, sind Experten nicht davon überzeugt, dass es die Bedenken der Urheber zerstreuen oder viel zur Lösung der rechtlichen Probleme im Zusammenhang mit der Nutzung von KI und geistigem Eigentum beitragen wird.
Adrian Cyhan, Anwalt für geistiges Eigentum bei Stubbs Alderton & Markiles, stellte fest, dass Media Manager, wie beschrieben, ein ehrgeiziges Unterfangen sei. Sogar Plattformen so groß wie YouTube und TikTok kämpfen mit Content-ID im großen Maßstab. Könnte OpenAI es wirklich besser machen?
„Die Sicherstellung der Einhaltung der gesetzlich vorgeschriebenen Urheberschutzmaßnahmen und potenzieller Vergütungsanforderungen stellt eine Herausforderung dar“, sagte Cyhan gegenüber TechCrunch, „insbesondere angesichts der sich schnell entwickelnden und möglicherweise unterschiedlichen Rechtslandschaft in den nationalen und lokalen Gerichtsbarkeiten.“
Ed Newton-Rex, Gründer von Fairly Trained, einer gemeinnützigen Organisation, die bescheinigt, dass KI-Unternehmen die Rechte der Urheber respektieren, glaubt, dass Media Manager die Last der Kontrolle der KI-Ausbildung zu Unrecht auf die Urheber abwälzen würde; Wenn sie es nicht nutzen, könnten sie eine stillschweigende Zustimmung zur Nutzung ihrer Arbeit erteilen. „Die meisten Entwickler werden nie davon hören, geschweige denn nutzen“, sagte er gegenüber TechCrunch. „Aber es wird dennoch genutzt, um die Massenausbeutung kreativer Werke gegen den Willen der Urheber zu verteidigen.“
Mike Borella, Co-Vorsitzender der KI-Praxisgruppe des MBHB, wies darauf hin, dass Opt-out-Systeme nicht immer Transformationen berücksichtigen, die an einem Werk vorgenommen werden können, beispielsweise ein verkleinertes Bild. Sie berücksichtigen möglicherweise auch nicht das häufige Szenario, dass Drittplattformen Kopien der Inhalte der Ersteller hosten, fügt Joshua Weigensberg, Anwalt für geistiges Eigentum und Medien bei Pryor Cashman, hinzu.
„Urheber und Urheberrechtsinhaber haben keine Kontrolle und wissen oft nicht einmal, wo ihre Werke im Internet erscheinen“, sagte Weigensberg. „Selbst wenn ein Urheber jeder KI-Plattform mitteilt, dass er sich von der Schulung abmeldet, können diese Unternehmen weiterhin mit Kopien ihrer Arbeit trainieren, die auf Websites und Diensten Dritter verfügbar sind.“
Zumindest aus rechtswissenschaftlicher Sicht ist Media Manager möglicherweise nicht einmal besonders vorteilhaft für OpenAI. Evan Everist, ein auf Urheberrechtsrecht spezialisierter Partner bei Dorsey & Whitney, sagte, dass OpenAI das Tool zwar nutzen könne, um einem Richter zu zeigen, dass es seine Schulung zu IP-geschützten Inhalten abmildert, Media Manager das Unternehmen jedoch wahrscheinlich nicht vor Schaden bewahren würde. wenn festgestellt wird, dass ein Verstoß vorliegt.
„Urheberrechtsinhaber sind nicht dazu verpflichtet, anderen vorsorglich zu sagen, dass sie ihre Werke nicht verletzen sollen, bevor es zu einer Verletzung kommt“, sagte Everist. „Die Grundprinzipien des Urheberrechts gelten weiterhin – das heißt, man darf das Material anderer Personen nicht ohne Erlaubnis übernehmen oder kopieren. Bei dieser Funktion geht es möglicherweise eher um Öffentlichkeitsarbeit und die Positionierung von OpenAI als ethischer Nutzer von Inhalten.“
Eine Abrechnung
In Ermangelung von Media Manager implementierte OpenAI Filter – wenn auch unvollkommen – um zu verhindern, dass Ihre Modelle Trainingsbeispiele wiedergeben. Und in den von ihm eingeleiteten rechtlichen Schritten macht das Unternehmen weiterhin geltend faire Nutzung Schutzmaßnahmen und bekräftigen, dass ihre Modelle transformative Arbeit und kein Plagiat schaffen.
OpenAI könnte in seinen Urheberrechtsstreitigkeiten durchaus gewinnen.
Gerichte können entscheiden, dass die KI des Unternehmens einen „transformativen Zweck“ hat Präzedenzfall Dies geschah vor etwa einem Jahrzehnt im Rahmen der Klage der Verlagsbranche gegen Google. In diesem Fall entschied ein Gericht, dass Googles Kopieren von Millionen Büchern in Google Books, eine Art digitales Archiv, zulässig sei.
OpenAI hat sagte er öffentlich, dass es „unmöglich“ sei, wettbewerbsfähige KI-Modelle zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden – ob autorisiert oder nicht. „Die Beschränkung der Trainingsdaten auf gemeinfreie Bücher und Zeichnungen, die vor mehr als einem Jahrhundert erstellt wurden, könnte zu einem interessanten Experiment führen, würde aber keine KI-Systeme liefern, die den Bedürfnissen der heutigen Bürger gerecht werden“, schrieb das Unternehmen in einer Präsentation im Januar vor dem britischen Oberhaus . .
Sollten die Gerichte OpenAI schließlich für siegreich erklären, hätte Media Manager keinen rechtlichen Zweck. OpenAI scheint bereit zu sein, diese Wette einzugehen – oder seine Opt-out-Strategie zu überdenken.