SAN FRANCISCO – Ein ehemaliger OpenAI-Forscher, der dafür bekannt ist, das äußerst erfolgreiche Unternehmen für künstliche Intelligenz, mit dem er konfrontiert ist, aufzudecken eine Welle von Klagen wegen seines Geschäftsmodells starb, bestätigten die Behörden diese Woche.
Suchir Balaji, 26, wurde am 26. November tot in seiner Wohnung in der Buchanan Street aufgefunden, teilten die Polizei von San Francisco und das Büro des Chief Medical Examiner mit. Ein Polizeisprecher sagte, die Polizei sei gegen 13 Uhr an diesem Tag in die Wohnung von Lower Haight gerufen worden, nachdem sie einen Anruf erhalten habe, in dem sie gebeten worden sei, sich nach seinem Wohlergehen zu erkundigen.
Das Büro des Gerichtsmediziners hat die Todesursache nicht bekannt gegeben, aber Polizeibeamte sagten diese Woche, dass es „derzeit keine Beweise für ein Verbrechen“ gebe.
Es wurde erwartet, dass die Informationen, über die er verfügte, eine Schlüsselrolle im Gerichtsverfahren gegen das in San Francisco ansässige Unternehmen spielen würden.
Balajis Tod ereignet sich drei Monate, nachdem er OpenAI öffentlich beschuldigt hatte, mit der Entwicklung von ChatGPT, einem Programm zur Generierung künstlicher Intelligenz, gegen das US-amerikanische Urheberrecht verstoßen zu haben, das zu einer profitablen Sensation wurde und von Hunderten Millionen Menschen auf der ganzen Welt genutzt wird.
Sein öffentlicher Start Ende 2022 hat eine Flut von Klagen gegen OpenAI von Autoren, Computerprogrammierern und Journalisten ausgelöst, die behaupten, das Unternehmen habe illegal gestohlen Ihr urheberrechtlich geschütztes Material, um Ihr Programm zu trainieren und seinen Wert auf über 150 Milliarden US-Dollar steigern.
Mercury News und sieben Schwestermedien gehören zu mehreren Zeitungen, darunter die New York Times, die letztes Jahr OpenAI verklagt haben.
In ein Interview mit der New York Times In der am 23. Oktober veröffentlichten Studie argumentierte Balaji, dass OpenAI Unternehmen und Unternehmern schade, deren Daten zum Trainieren von ChatGPT verwendet wurden.
„Wenn Sie glauben, was ich glaube, verlassen Sie einfach das Unternehmen“, sagte er der Verkaufsstelle und fügte hinzu, dass „dies kein nachhaltiges Modell für das Internet-Ökosystem als Ganzes ist.“
Balaji wuchs in Cupertino auf, bevor er an der UC Berkeley Informatik studierte. Damals kam er zu der Überzeugung, dass künstliche Intelligenz der Gesellschaft potenzielle Vorteile bieten könnte, einschließlich ihrer Fähigkeit, Krankheiten zu heilen und das Altern aufzuhalten, berichtete die Times. „Ich dachte, wir könnten einen Wissenschaftler erfinden, der bei der Lösung dieser Probleme helfen könnte“, sagte er der Zeitung.
Doch im Jahr 2022, zwei Jahre nachdem er als Forscher zu OpenAI gekommen war, begannen sich seine Aussichten zu verschlechtern. Er war besonders besorgt über seine Aufgabe, Internetdaten für das GPT-4-Programm des Unternehmens zu sammeln, das Texte aus fast dem gesamten Internet analysierte, um sein Programm für künstliche Intelligenz zu trainieren, berichtete die Nachrichtenagentur.
Die Praxis, sagte er der Times, verstoße gegen die „Fair Use“-Gesetze des Landes, die regeln, wie Menschen zuvor veröffentlichte Werke nutzen dürfen. Ende Oktober postete er eine Analyse auf Ihrer persönlichen Website diesen Punkt argumentieren.
Keine bekannten Faktoren „scheinen dafür zu sprechen, dass ChatGPT seine Trainingsdaten fair nutzt“, schrieb Balaji. „Allerdings ist keines der Argumente hier grundsätzlich spezifisch für ChatGPT, und ähnliche Argumente könnten für viele generative KI-Produkte in einer Vielzahl von Bereichen vorgebracht werden.“
Balajis Mutter wurde von dieser Nachrichtenagentur kontaktiert und bat um Privatsphäre, während sie um den Tod ihres Sohnes trauerte.
In einem am 18. November beim Bundesgericht eingereichten Brief nannten Anwälte der New York Times Balaji als jemanden, der über „einzigartige und relevante Dokumente“ besitze, die ihren Fall gegen OpenAI stützen würden. Er gehörte zu mindestens zwölf Personen – viele davon ehemalige oder aktuelle OpenAI-Mitarbeiter –, von denen die Zeitung in den Gerichtsakten anführte, dass sie vor den Aussagen über nützliches Material für ihren Fall verfügten.
Generative Programme für künstliche Intelligenz funktionieren Analyse einer riesigen Menge an Internetdaten und nutzen Sie diese, um auf von Benutzern gesendete Anfragen zu antworten oder um Texte, Bilder oder Videos zu erstellen.
Als OpenAI Ende 2021 sein ChatGPT-Programm startete, beflügelte es eine Branche von Unternehmen, die Essays schreiben, Kunst schaffen und Computercode erstellen wollten. Viele der wertvollsten Unternehmen der Welt arbeiten heute auf dem Gebiet der künstlichen Intelligenz oder stellen die Computerchips her, die zum Ausführen solcher Programme erforderlich sind. Der Wert von OpenAI hat sich letztes Jahr fast verdoppelt.
Medien argumentierten, dass OpenAI und Microsoft – das mit OpenAI Geschäfte macht und auch von The Mercury News verklagt wurde – seine Artikel plagiierten und stahlen und damit seine Geschäftsmodelle untergruben.
„Microsoft und OpenAI übernehmen einfach das Arbeitsprodukt von Reportern, Journalisten, Redakteuren, Redakteuren und anderen, die zur Arbeit lokaler Zeitungen beitragen – und das alles ohne Rücksicht auf die Bemühungen und schon gar nicht auf die gesetzlichen Rechte derjenigen, die o.g. erstellen und veröffentlichen.“ Nachrichten, auf die die lokalen Gemeinschaften angewiesen sind“, heißt es in der Klageschrift der Zeitung.
OpenAI hat diese Behauptungen entschieden zurückgewiesen und betont, dass alle seine Arbeiten im Rahmen der „Fair Use“-Gesetze weiterhin legal sind.
„Wir sehen ein enormes Potenzial für KI-Tools wie ChatGPT, um die Beziehungen von Verlagen zu Lesern zu vertiefen und das Nachrichtenerlebnis zu verbessern“, sagte das Unternehmen bei Einreichung der Klage.
Jakob Rodgers ist ein erfahrener Reporter für aktuelle Nachrichten. Rufen Sie an, schreiben Sie eine SMS oder senden Sie eine verschlüsselte Nachricht über Signal an 510-390-2351 oder senden Sie eine E-Mail an jrodgers@bayareanewsgroup.com.