Eine weitere leitende Sicherheitsforscherin bei OpenAI, Lilian Weng, gab am Freitag bekannt, dass sie das Startup verlässt. Weng ist seit August Vizepräsident für Forschung und Sicherheit und davor Leiter des Sicherheitssystemteams von OpenAI.
In einem Beitrag auf XWeng sagte: „Nach sieben Jahren bei OpenAI fühle ich mich bereit, einen Neuanfang zu starten und etwas Neues zu erkunden.“ Weng sagte, sein letzter Tag werde der 15. November sein, machte aber keine Angaben, wohin er als nächstes gehen werde.
„Ich habe die äußerst schwierige Entscheidung getroffen, OpenAI zu verlassen“, sagte Weng in dem Beitrag. „Angesichts dessen, was wir erreicht haben, bin ich sehr stolz auf alle im Security Systems-Team und bin äußerst zuversichtlich, dass das Team weiterhin erfolgreich sein wird.“
Wengs Weggang ist der jüngste in einer langen Reihe von KI-Sicherheitsforschern, Politikforschern und anderen Führungskräften, die das Unternehmen im vergangenen Jahr verlassen haben, und zwar mehrere von ihnen beschuldigte OpenAI, kommerziellen Produkten Vorrang vor der KI-Sicherheit zu geben. Weng schließt sich an Ilja Suzkever Und Jan Leike – OpenAI-Anführer haben sich jetzt aufgelöst Superalignment-Teamder versuchte, Methoden zur Steuerung superintelligenter KI-Systeme zu entwickeln – der dieses Jahr auch das Startup verließ, um anderswo an der KI-Sicherheit zu arbeiten.
Ihrer Meinung nach kam Weng erstmals 2018 zu OpenAI LinkedInEr arbeitete im Robotik-Team des Startups und baute schließlich eine Roboterhand, die in der Lage war, einen Zauberwürfel zu lösen – eine Aufgabe, die laut seinem Beitrag zwei Jahre dauerte.
Als OpenAI begann, sich mehr auf das GPT-Paradigma zu konzentrieren, tat dies auch Weng. Der Forscher wechselte 2021, um beim Aufbau des angewandten KI-Forschungsteams des Startups mitzuhelfen. Nach der Einführung von GPT-4 wurde Weng damit beauftragt, im Jahr 2023 ein spezielles Team zusammenzustellen, um Sicherheitssysteme für das Startup zu entwickeln. Heute verfügt die Sicherheitssystemeinheit von OpenAI über mehr als 80 Wissenschaftler, Forscher und Politikexperten, heißt es in Wengs Beitrag.
Das sind viele Leute, die an KI-Sicherheit arbeiten, aber viele haben Bedenken hinsichtlich des Fokus von OpenAI auf Sicherheit geäußert, da das Unternehmen versucht, immer leistungsfähigere KI-Systeme zu entwickeln. Miles Brundage, ein langjähriger Politikforscher, verließ das Startup im Oktober und kündigte an, dass OpenAI sein von ihm beratenes AGI-Bereitschaftsteam auflösen werde. Am selben Tag stellte die New York Times einen ehemaligen OpenAI-Forscher vor Suchir Balajider sagte, er habe OpenAI verlassen, weil er glaubte, dass die Technologie des Startups der Gesellschaft mehr schaden als nützen würde.
OpenAI teilte TechCrunch mit, dass Sicherheitsmanager und -forscher an einem Übergang arbeiten, um Weng zu ersetzen.
„Wir schätzen Lilians Beiträge zur innovativen Sicherheitsforschung und zum Aufbau strenger technischer Schutzmaßnahmen sehr“, sagte ein OpenAI-Sprecher in einer per E-Mail gesendeten Erklärung. „Wir sind zuversichtlich, dass das Security Systems-Team weiterhin eine entscheidende Rolle dabei spielen wird, sicherzustellen, dass unsere Systeme sicher und zuverlässig sind und Hunderte Millionen Menschen auf der ganzen Welt bedienen.“
Zu den weiteren Führungskräften, die OpenAI in den letzten Monaten verlassen haben, gehören: Technologiedirektorin Mira FanForschungsdirektor Bob McGrew und Vizepräsident für Forschung Barret Zoph. Im August der angesehene Forscher Andrej Karpatia und Mitbegründer John Schulman kündigte außerdem an, das Startup zu verlassen. Einige dieser Leute, darunter Leike und Schulman, verließen das Unternehmen, um sich dem OpenAI-Konkurrenten Anthropic anzuschließen, während andere ihre eigenen Unternehmen gründeten.