Start IT/Tech Deepseek „bohrt“ technische Ausgabenpläne und was Analysten sagen

Deepseek „bohrt“ technische Ausgabenpläne und was Analysten sagen

17
0
Deepseek „bohrt“ technische Ausgabenpläne und was Analysten sagen

Das chinesische KI-Unternehmen Deepseek hat hat sich als potenzieller Herausforderer für US-amerikanische KI-Führer herausgestelltdemonstrieren innovative Modelle Dieser Anspruch besteht darin, eine mit führenden Chatbots vergleichbare Leistung zu einem Bruchteil der Kosten zu bieten. Die Anfang Januar eingeführte mobile App des Unternehmens erreichte auch in wichtigen Märkten wie den USA, Großbritannien und China den ersten Platz in den iPhone-Charts.

Deepseek wurde 2023 von Liang Wenfeng, dem ehemaligen Leiter des Hedgefonds AI Quantity, gegründet. Das Unternehmen stellt seine Modelle als Open Source zur Verfügung und integriert eine Argumentationsfunktion, die seine Gedanken formuliert, bevor es Antworten liefert.

Die Reaktion der Wall Street war gemischt. Während Jefferies warnt, dass der effiziente Ansatz von Deepseek „einen Teil der Capex-Euphorie zunichtemacht“, nachdem Meta und Microsoft kürzlich Ausgabenzusagen gemacht haben, die in diesem Jahr jeweils über 60 Milliarden US-Dollar betragen, stellt Citi in Frage, ob diese Ergebnisse ohne fortschrittliche GPUs erzielt wurden. Goldman Sachs sieht weitreichendere Auswirkungen und geht davon aus, dass die Entwicklung den Wettbewerb zwischen etablierten Technologiegiganten und Start-ups verändern könnte, indem die Eintrittsbarrieren gesenkt werden.

Sehen Sie, wie Wall-Street-Analysten in ihren eigenen Worten (Hervorhebung von mir) auf Deepseek reagieren:

Jefferies

Auswirkungen der Deepseek-Leistung auf das KI-Training durchdringt etwas von der Investitionseuphorie Was letzte Woche auf große Stargate- und Meta-Engagements folgte. Da Deepseek eine mit GPT-4O vergleichbare Leistung für einen Bruchteil der Rechenleistung bietet, gibt es sie Mögliche negative Auswirkungen für BauherrenDa der Druck auf KI-Akteure, ständig steigende CAPEX-Pläne zu rechtfertigen, zu einem niedrigeren Umsatz- und Gewinnwachstum im Rechenzentrum führen könnte.

Wenn kleinere Modelle gut funktionieren können, ist dies der Fall potenziell positiv für Smartphones. Wir stehen der Smartphone-KI skeptisch gegenüber, da KI bei den Verbrauchern noch keinen Anklang gefunden hat. Für den Betrieb größerer Modelle auf dem Telefon sind mehr Hardware-Upgrades (Adv PKG+Fast DRAM) erforderlich, was zu höheren Kosten führt. Das Modell von AAPL basiert zwar auf MOE, aber die 3 Milliarden Datenparameter sind immer noch zu klein, um die Dienste für Verbraucher nützlich zu machen. Der Erfolg von Deepseek gibt also Anlass zur Hoffnung, hat aber keinen Einfluss auf die kurzfristigen Aussichten des KI-Smartphones.

China ist das Einziger Markt, der effizientes LLM anstrebt Aufgrund der Chip-Beschränkung. Trump/Musk ist sich wahrscheinlich bewusst, dass das Risiko weiterer Beschränkungen China zu schnelleren Innovationen zwingt. Daher gehen wir davon aus, dass Trump die Politik zur Verbreitung von KI wahrscheinlich lockern wird.

Stadt

Auch wenn die Leistung von Deepseek bahnbrechend sein mag, wir die Vorstellung in Frage stellen dass ihre Leistungen ohne den Einsatz fortschrittlicher GPUs zur Optimierung und/oder zum Aufbau des zugrunde liegenden LLMS erbracht wurden, in dem das endgültige Modell auf der Destillationstechnik basiert. Während die Dominanz von US-Unternehmen bei den fortschrittlichsten KI-Modellen möglicherweise in Frage gestellt werden könnte, gehen wir davon aus, dass in einem zwangsläufig restriktiveren Umfeld der Zugang der USA zu fortschrittlicheren Chips von Vorteil ist. Daher gehen wir nicht davon aus, dass sich führende KI-Unternehmen von fortschrittlicheren GPUs abwenden, die in großem Maßstab attraktivere $/Tflops bieten. Wir betrachten die jüngsten Ankündigungen zu KI-Investitionen wie Stargate als Anspielung auf den Bedarf an fortschrittlichen Chips.

Bernstein

Kurz gesagt, wir glauben, dass 1) Deepseek Nicht „OpenAI für 5 Millionen Dollar gebaut“; 2) Die Modelle sehen fantastisch aus, aber wir Denken Sie nicht, dass es sich um Wunder handelt; und 3) das resultierende Twitterverse Wochenendpanik scheint übertrieben.

Unsere eigene erste Reaktion beinhaltet keine Panik (ganz im Gegenteil). Wenn wir anerkennen, dass DeepSeek die Kosten für die Erzielung gleichwertiger Modellleistung beispielsweise um das Zehnfache gesenkt hat, stellen wir auch fest, dass die aktuellen Modellkostenverläufe jedes Jahr um so viel ansteigen (die berüchtigten „Skalierungsgesetze…“), dass es so nicht weitergehen kann für immer. In diesem Zusammenhang brauchen wir Innovationen wie diese (MOE, Destillation, Mixed Precision etc.), damit die KI weiter vorankommt. Und für diejenigen, die auf der Suche nach einer KI-Einführung sind, etwa Semi-Analysten, glauben wir fest an das Jevons-Paradoxon (d. h., dass Effizienzgewinne einen Nettoanstieg der Nachfrage erzeugen) und glauben, dass die freigesetzte neue Rechenkapazität mit viel größerer Wahrscheinlichkeit absorbiert wird zu Nutzung und Steigerung der Nachfrage im Vergleich zu den Auswirkungen auf die langfristige Ausgabenperspektive zum jetzigen Zeitpunkt, da wir nicht glauben, dass der Computerbedarf in der KI annähernd seine Grenzen erreicht. Es erscheint auch weit hergeholt zu glauben, dass die von Deepseek eingesetzten Innovationen der großen Zahl hochkarätiger KI-Forscher in den anderen zahlreichen KI-Laboren der Welt völlig unbekannt sind (offen gesagt wissen wir nicht, was die großen geschlossenen Labore tun). Sie entwickeln und implementieren ihre eigenen Modelle, aber wir können einfach nicht glauben, dass sie ähnliche Strategien nicht in Betracht gezogen oder vielleicht sogar angewendet haben.

Morgan Stanley

Wir haben die Richtigkeit dieser Berichte nicht bestätigt, aber wenn sie korrekt sind und fortgeschrittenes LLM tatsächlich für einen Bruchteil der vorherigen Investition entwickelt werden könnte, Wir könnten sehen, dass generative KI irgendwann auf immer kleineren Computern läuft (Verkleinerung von Supercomputern hin zu Workstations, Bürocomputern und schließlich Personalcomputern) und der SPE-Sektor können von der steigenden Nachfrage nach verwandten Produkten (Chips und SPE) profitieren, da sich die Nachfrage nach generativer KI ausweitet.

Goldman Sachs

Mit den neuesten Entwicklungen sehen wir auch 1) Möglicher Wettbewerb zwischen kapitalreichen Internetgiganten und Startupsangesichts der Verringerung der Markteintrittsbarrieren, insbesondere da neue Modelle zu einem Bruchteil der Kosten bestehender Modelle entwickelt wurden; 2) Vom Training bis hin zu weiteren Schlussfolgerungenmit stärkerem Schwerpunkt auf Post-Training (einschließlich Argumentationsfunktionen und Verstärkungsfunktionen), was im Vergleich zu Pre-Training deutlich weniger Rechenressourcen erfordert; und 3) das Potenzial für eine weitere globale Expansion chinesischer Akteure angesichts ihrer Leistung und Kosten-/Preiswettbewerbsfähigkeit.

Wir gehen weiterhin davon aus, dass der Wettlauf um Anwendungs-/KI-Agenten in China weitergehen wird, insbesondere bei C-Anwendungen, wo chinesische Unternehmen im Internetzeitalter Pionierarbeit bei mobilen Anwendungen geleistet haben, beispielsweise Tencents Entwicklung der Weixin (WeChat) Super-App Among C Im vergangenen Jahr war Bytedance führend bei der Einführung von 32 KI-Anwendungen. Unter ihnen war Doubao bisher der beliebteste KI-Chatbot in China mit der höchsten MAU (ca. 70 Mio.), der kürzlich mit seinem Doubao 1.5 Pro-Modell aktualisiert wurde. Wir glauben, dass die inkrementellen Einnahmequellen (Abonnement, Werbung) und die Ein letztendlicher/nachhaltiger Weg zur Monetarisierung/positive Wirtschaftlichkeit über alle Apps/Agenten hinweg wird von entscheidender Bedeutung sein.

Für die Infrastrukturebene konzentrierte sich Investor Focus darauf, ob es im Falle erheblicher Verbesserungen der Kosten-/Modell-Recheneffizienz kurzfristig zu einer Diskrepanz zwischen den Markterwartungen in Bezug auf KI-Investitionen und der Rechennachfrage kommen wird. Für chinesische Cloud-/Rechenzentrumsakteure glauben wir weiterhin, dass der Schwerpunkt im Jahr 2025 auf der Chipverfügbarkeit und der Fähigkeit von CSP (Cloud-Service-Providern) liegen wird, einen verbesserten Umsatzbeitrag durch Umsatzwachstum, KI-gesteuerte Cloud-Entwicklung und über GPU-Infrastruktur/-Vermietung hinaus zu liefern , wie KI-Workloads und KI-bezogene Dienste in Zukunft zu Wachstum und Margen beitragen können. Wir bleiben hinsichtlich des langfristigen Wachstums der KI-Nachfrage optimistisch, da eine weitere Reduzierung der Rechen-/Schulungs-/Inferenzkosten zu einer stärkeren KI-Einführung führen könnte. Siehe auch Thema 5 unseres Kernthemenberichts für unsere Basis-/Bären-Szenarien für BBAT-Investitionsschätzungen abhängig von der Chipverfügbarkeit, wobei wir in unserem Basisszenario davon ausgehen, dass sich das gesamte BBAT-Investitionswachstum bis 2025E fortsetzt (GSE: +38 % im Jahresvergleich), wenn auch bei ein etwas gemäßigteres Tempo vs. ein starkes Jahr 2024 (GSE: +61 % im Jahresvergleich), angetrieben durch anhaltende Investitionen in die KI-Infrastruktur.

JPMorgan

Vor allem wird viel Wert auf die Forschungsarbeit von Deepseek und die Effizienz seiner Modelle gelegt. Es ist unklar, inwieweit DeepSeek die ~50.000 Hopper High-Flyer-GPUs von Hopper nutzt (ähnlich groß wie der Cluster, auf dem OpenAI vermutlich GPT-5 trainiert), aber es scheint wahrscheinlich, dass sie die Kosten drastisch senken (Schlussfolgerung). Die Kosten für das V2-Modell sollen beispielsweise 1/7 des GPT-4 Turbo betragen. Seine subversive (wenn auch nicht neue) Behauptung – die diese Woche erstmals US-amerikanische KI-Namen traf – lautet: „Mehr Investitionen bedeuten nicht mehr Innovation.“ LIANG: „Im Moment sehe ich keine neuen Ansätze, aber große Unternehmen haben keinen klaren Vorteil. Große Unternehmen haben bestehende Kunden, aber ihre Cashflow-Unternehmen sind auch eine Belastung für sie, und das macht sie jederzeit anfällig für Störungen. „Und auf die Frage, dass GPT5 noch nicht veröffentlicht ist: „Openai ist kein Gott, sie werden nicht immer an vorderster Front stehen.“

Ubs

Bis 2024, dem ersten Jahr, in dem wir in China eine enorme Arbeitsbelastung für KI-Schulungen sahen, wurden mehr als 80–90 % der IDC-Nachfrage durch KI-Schulungen getrieben und konzentrierten sich auf 1–2 Hyperscaler-Kunden, was zu einer Nachfrage nach Hyperscale-IDC im Großhandel geführt hat das relativ abgelegene Gebiet (da stromverbrauchendes KI-Training eher auf die Betriebskosten als auf die Benutzerlatenz reagiert).

Wenn die Kosten für KI-Training und -Inferenz deutlich niedriger sind, Wir würden erwarten, dass mehr Endbenutzer KI nutzen, um ihr Geschäft zu verbessern oder neue Anwendungsfälle zu entwickelninsbesondere Privatkunden. Diese IDC-Nachfrage bedeutet eine stärkere Konzentration auf den Standort (da die Benutzerlatenz wichtiger ist als die Versorgungskosten) und daher eine größere Preissetzungsmacht für IDC-Betreiber, die über reichlich Ressourcen in Tier-1- und Satellitenstädten verfügen. Gleichzeitig würde ein vielfältigeres Kundenportfolio auch eine größere Preissetzungsmacht bedeuten.

Wir werden die Geschichte aktualisieren, sobald weitere Analysten reagieren.



Quelle link