Plötzlich, Tief Ist überall.
Sind R1 -Model Ist Open Source, angeblich für einen Bruchteil der Kosten anderer KI -Modelle ausgebildet und ist genauso gut, wenn nicht sogar besser als Chatgpt.
Diese tödliche Kombination Schlagen Sie die Wall Street hartAus diesem Grund stürzen technische Aktien und die Anleger fragen sich, wie viel Geld erforderlich ist, um gute KI -Modelle zu entwickeln. Deepseek R1 wurde mit 2.788 GPUs ausgebildet, die im Vergleich zu GPT-4 von Openai rund 6 Millionen US-Dollar kosten, die Berichten zufolge Kostet 100 Millionen US -Dollar, um zu trainieren.
Die Kosteneffizienz von Deepseek stellt auch die Idee in Frage, dass größere Modelle und weitere Daten zu einer besseren Leistung führen. Inmitten des verrückten Gesprächs über die Kapazitäten von Deepseek, der Bedrohung für KI -Unternehmen wie OpenAI und den Hauptinvestoren, kann es schwierig sein, zu verstehen, was vor sich geht. KI -Experten mit erfahrener Erfahrung haben jedoch mit wertvollen Perspektiven abgewogen.
Deepseek beweist, was KI -Experten seit Jahren sagen: größer ist nicht besser
China wurde von Handelsbeschränkungen und dem Zugang zum Nvidia -GPUs geführt und errichtete Deepseek musste kreativ in der Entwicklung und Schulung von R1 werden. Dass sie diese Leistung für nur 6 Millionen US -Dollar erzielen könnten (was in KI nicht viel Geld ist), war eine Offenbarung für Investoren.
Aber KI -Experten waren nicht überrascht. „Bei Google fragte ich, warum sie beim Aufbau des größten Modells behoben wurden. Warum gehen Sie für die Größe? Welche Funktion versuchen Sie zu erreichen? Warum war das, was Sie verärgert haben, dass Sie nicht das größte Modell hatten? gepostet Timnit Gebru, der von Google berühmt war, weil er AI -Voreingenommenheit auf X angerufen hatte.
Mashable Lichtgeschwindigkeit
Tweet wurde möglicherweise entfernt
UmarmungDas Klima und die KI -Leiterin Sasha Luccioni wiesen darauf hin, wie gefährlich KI -Investitionen für Marketing und Hype sind. „Es ist wild, dass ein einzelner (gut leistungsstarker) LLM diese Leistung erzielen kann, ohne die Scheiße aus Tausenden von GPUs brutal zu machen, ausreicht, um dies zu verursachen“, „“ sagte Luconi.
Tweet wurde möglicherweise entfernt
Klären Sie, warum Deepseek R1 ein so großes Problem ist
Deepseek R1 wurde ähnlich wie das OpenAI O1 -Modell für wichtige Benchmarks. Es übertraf marginal, ausgewogen oder fiel knapp unter O1 für Mathematik-, Codierungs- und Allgemeinwissenstests. Das heißt, es gibt andere Modelle, die da sind, z.
Aber R1 verursacht einen solchen Wahnsinn, weil es wenig kostet. „Es ist nicht schlauer als frühere Modelle, nur billiger trainiert“, “ sagte AI -Forschungswissenschaftler Gary Marcus.
Tweet wurde möglicherweise entfernt
Die Tatsache, dass Deepseek in der Lage ist, ein Modell zu erstellen, das mit den Modellen von OpenAI konkurriert, ist ziemlich bemerkenswert. Andrej Karpathy, der Mitbegründer von Openai, gepostet Auf X: „Dies bedeutet, dass Sie keine großen GPU -Cluster für Frontier LLMs benötigen? Nein, aber Sie müssen sicherstellen, dass Sie mit dem, was Sie haben mit Daten und Algorithmen vorbeikommen.
Tweet wurde möglicherweise entfernt
Wharton Ai Professor Ethan Mollick sagte Es geht nicht um die Möglichkeiten, sondern um Modelle, auf die Menschen derzeit Zugang haben. „Deepseek ist wirklich ein gutes Modell, aber im Allgemeinen ist es kein besseres Modell als O1 oder Claude“, sagte er. „Aber weil es sowohl kostenlos als auch viel Aufmerksamkeit ist, denke ich, dass viele Menschen, die freie ‚Mini‘ -Modelle verwendet haben, dem ausgesetzt sind, was eine frühe KI von 2025, und überrascht ist.“
Tweet wurde möglicherweise entfernt
Punkte für Open -Source -KI -Modelle
Deepseek R1 Breakout ist ein großer Sieg für Open -Source -Befürworter, die behaupten, dass demokratisieren der Zugang zu mächtigen KI -Modellen Transparenz, Innovation und gesunden Wettbewerb. „Für Menschen, die denken, dass“ China die USA in AI übertrifft „, ist der richtige Gedanke, dass“ Open -Source -Modelle geschlossen sind „,“ „“ “ sagte Yann Lecun, Chef -AI -Wissenschaftler bei Meta, der den offenen Einkauf mit seinen eigenen Lama -Models unterstützt hat.
Tweet wurde möglicherweise entfernt
Der Informatiker und KI -Experte Andrew Ng erwähnte die Bedeutung von R1 als Open -Source -Modell nicht ausdrücklich, betonte jedoch, wie die Deepseek -Störung ein Segen für Entwickler ist, da der Zugang, der von Big Tech weiter von GateWeert geht.
„Der heutige“ Deepseek -Ausverkauf „an der Börse – der Deepseek V3/R1 zugeschrieben wird, das das technische Ökosystem stört – ist ein weiteres Zeichen dafür, dass die Anwendungsschicht ein großartiger Ort ist“ “ sagte Ng. „Die Fundamentmodellschicht, die hyper -wettbewerbsfähig ist, eignet sich hervorragend für Menschen, die Anwendungen erstellen.“
Tweet wurde möglicherweise entfernt
Unterwerfen
Künstliche Intelligenz
Tief