Um einen Tag mit Produkteinführungen zu beenden, beantworteten Forscher, Ingenieure und Führungskräfte von OpenAI, einschließlich des OpenAI -CEO Sam Altman, Fragen in einem Ama Reddit reichlich am Freitag.
Openai Das Unternehmen ist in einer prekären Position. Kämpft gegen die Wahrnehmung, dass es im IA -Rennen aufgibt Chinesische Unternehmen wie DeepseekDiese OpenAI behauptet, seine IP gestohlen zu haben. Der ChatGPT -Hersteller hat versucht Finden Sie Ihre Beziehung zu Washington und gleichzeitig a Ehrgeiziges Rechenzentrumsprojektwährend angeblich Ablagerungsgelder für eine der größten Finanzierungsrunden in der Geschichte.
Altman gab zu, dass Deepseek die Führung von Openai in der KI verringert hat, und er glaubt auch, dass Openai „auf der falschen Seite der Geschichte“ ist, wenn es um eine Open -Quelle seiner Technologien geht. Während OpenAI in der Vergangenheit Open -Source -Modelle hat, bevorzugt das Unternehmen in der Regel einen Eigentümer der geschlossenen Code -Entwicklung.
„(Ich persönlich denke, wir müssen eine andere Open -Source -Strategie entdecken“, sagte Altman. „Nicht jeder in Openai teilt diese Ansicht, und es ist nicht unsere größte aktuelle Priorität (…). Wir werden bessere Modelle produzieren (in Zukunft), aber wir werden weniger Führung als in den Vorjahren behalten.“
Kevin Weil, OpenAI -Produktdirektor, sagte, OpenAI erwähne in einer Follow -up -Antwort mehr ältere Modelle als nicht die letzte Generation. „Wir werden definitiv daran denken, mehr davon zu tun“, sagte er ohne weitere Details.
Altman hat nicht nur Openai aufgefordert, seine Veröffentlichungsphilosophie zu überdenken, sondern auch, dass Deepseek das Unternehmen möglicherweise mehr darüber enthält, wie seine sogenannten Argumentationsmodelle wie das heute veröffentlichte O3-Mini-Modell seinen „Gedankenprozess“ zeigen. Derzeit verbergen OpenAI -Modelle ihre Argumentation, eine Strategie, mit der Wettbewerber Schulungsdaten für ihre eigenen Modelle beseitigt werden sollen. Auf der anderen Seite zeigt Deepseks Argumentationsmodell R1 seine vollständige Denkkette.
„Wir arbeiten daran, viel mehr zu zeigen, als wir heute zeigen – (zeigt den Denkprozess des Modells) sehr bald“, fügte Weil hinzu. „TBD in allem – zeigt, dass die gesamte Gedankenkette zu einer Wettbewerbsdestillation führt, aber wir wissen auch, dass Menschen (zumindest Energieverbraucher) wollen. Wir werden also den richtigen Weg finden, um es auszugleichen.“
Altman und Weil versuchten, Gerüchte zu zerstreuen, dass Chatgpt, die Chatbot -App, durch die OpenAI viele ihrer Modelle startet, den Preis erhöhen würde. Altman sagte, er möchte Chatgpt im Laufe der Zeit „billiger“ machen, wenn sie lebensfähig sind.
Altman sagte zuvor, dass Openai mit seinem Chatgpt -Plan Chatgpt Pro Geld verlor, das 200 US -Dollar pro Monat kostet.
In einem etwas verwandten Thema sagte Weil, dass OpenAI weiterhin Beweise dafür erfasst, dass die Rechenleistung zu „besseren“ und mehr leistungsfähigeren Modellen führt. Dies ist größtenteils das, was Projekte wie Stargate, OpenAIs erfordert kürzlich angekündigt Das massive Projekt des Rechenzentrums, sagten wir Weil. Die Dienste einer wachsenden Basis von Benutzern füttert die Nachfrage nach dem Computer bei OpenAI.
Auf die Frage nach der rekursiven Selbstverbesserung, die von diesen mächtigen Modellen aktiviert werden kann, sagte Altman, er denke, dass ein „schneller Start“ plausibler ist, als er es früher glaubte. Eine rekursive Selbstverbesserung ist ein Prozess, bei dem ein KI-System seine eigene Intelligenz und Kapazitäten ohne menschlichen Beitrag verbessern kann.
Natürlich ist es erwähnenswert, dass Altman dafür berüchtigt ist, zu viel zu prostituieren. Nicht lange, seit er reduzierte die Openai -Bar auf Ag.
Ein Reddit -Benutzer fragte, ob die OpenAI -Modelle zur Entwicklung destruktiver Waffenkernwaffen verwendet werden würden. Diese Woche hat OpenAI eine Partnerschaft mit der US -Regierung angekündigt, um ihre Modelle den US -amerikanischen Labors zum Teil für die nukleare Verteidigungsforschung zu geben.
Weil sagte, er habe der US -Regierung vertraut.
„Ich habe diese Wissenschaftler getroffen und sie sind KI -Experten sowie Forscher von World -Class -Klassen“, sagte er. „Sie verstehen die Kraft und die Grenzen der Modelle, und ich glaube nicht, dass es eine Chance gibt, dass es in einer nuklearen Berechnung nur ein Ausgangsmodell Yolo gibt. Sie sind intelligent und evidenzbasiert und führen viele Experimente und Datenarbeit durch, um ihre gesamte Arbeit zu validieren. ”
Das OpenAI-Team erhielt mehrere weitere technische Fragen, beispielsweise wenn OpenAIs nächstes Argumentationsmodell O3 veröffentlicht wird („mehr als ein paar Wochen, weniger als ein paar Monate“, sagte Altman), als das nächste Flaggschiff des Unternehmens „nicht“ nicht „nicht“ nicht „nicht“ nicht „nicht mehr als ein paar Monate“, „Non-„-nicht „nicht“ nicht „nicht“ nicht „nicht mehr als ein paar Monate) veröffentlicht wird. Raciary-Modell „, GPT-5, kann landen (“ haben noch keine Zeitleiste „, sagte Altman) und wenn OpenAI einen Nachfolger von Dall-E 3, dem Image-Generierungsmodell des Unternehmens, enthüllen kann. Vor ungefähr zwei Jahren war im Zahn sehr alt. In mehreren Referenztests ist es nicht mehr wettbewerbsfähig.
„Ja! Wir arbeiten daran“, sagte Weil über ein Dall-e 3-Follow-up. „Und ich denke, es lohnt sich zu warten.“