Start IT/Tech Google macht Gemini Thinking -Modell in der App verfügbar und startet Gemini...

Google macht Gemini Thinking -Modell in der App verfügbar und startet Gemini 2.0 Pro

8
0
Google macht Gemini Thinking -Modell in der App verfügbar und startet Gemini 2.0 Pro

Der Google Gemini -app Enthält nun ein Argumentationsmodell, das seinen „Denkprozess“ zeigt.

Am Mittwoch der Tech -Riese angekündigt Die Verfügbarkeit von Gemini 2.0 Flash Thinking Experimental auf Geminis Desktop und mobilen Versionen. Neben seinem Argumentationsmodell, dem 2.0 -Flash -Denken, der für Benutzer zugänglicher, hat Google andere Ankündigungen in Bezug auf die Gemini -Familie geteilt: der Start von Gemini 2.0 Pro, umfangreicher Zugriff auf Gemini 2.0 Flash in AI Studio und Vertex AI und a Low -Kostermodel namens Flash -Lite.

Über Google, Es sieht so aus wie üblich, während das Unternehmen im Verlauf seiner KI -Strategie bleibt, um seiner Zwillingsfamilie weiterhin mehr Optionen zu verleihen. Die Einführung von Gemini 2.0 Flash-Lite erhält jedoch ein interessantes Timing Deepseeks Störung Letzte Woche. Tief Die KI -Industrie machte Mit seinem R1 -Modell ist es genauso fähig wie Wettbewerbsmodelle, sorgt jedoch für einen Bruchteil der Kosten, was die Überzeugungen erhöht, dass mehr Geld gleich besseren Modellen ist.

Google hat zuvor ein kostengünstiges Modell mit dem Namen 1.5 Flash und CEO Sundar Pichai veröffentlicht ausgelöst Die tiefen Einflüsse von Deepseek auf Google in seinem Einkommensanruf von Q4 2024 am Dienstag und sagte: „Es war uns immer klar“, dass Modelle im Laufe der Zeit effizienter werden könnten. Trotzdem plant Google dazu ausgeben Investitionen in Höhe von 75 Milliarden US -Dollar, was 2023 eine enorme Steigerung von 32,3 Milliarden US -Dollar entspricht.

Die heutigen Ankündigungen von Google scheinen alle Grundlagen der KI -Entwicklung abzudecken: Argumentationsmodelle, fortschrittliche Modelle und billige Modelle.

Mashable Lichtgeschwindigkeit

Kündigte im Dezember 2,0 Flash Thinking -Konkurrenten angekündigt Openai’s O1 Und O3-Mini-Argumentationsmodelle in dem Sinne, dass es in der Lage ist, komplexere Probleme zu bewältigen und zu zeigen, wie sie argumentieren. Zuvor debütierte es in AI Studio, hat aber nun eine breite Verfügbarkeit im experimentellen Modus als Drop -Down -List -Option in der Gemini -App.

Es gibt auch eine Version, die sich in YouTube, Google Maps und Google Search integriert. Mit dieser Version kann das Modell auswählen, um das Internet nach Antworten zu durchsuchen, relevante YouTube -Links aufzunehmen oder Google Maps zu fragen, anstatt nur seinen eigenen Trainingsdaten zu vertrauen.

Wenn Sie beispielsweise 2.0 Flash -Denken ohne App -Integration fragen: „Wie lange würde es dauern, nach China zu gehen?“ Es wäre zuversichtlich, dass seine eigene Wissensbasis durch Unbestimmtheit und verschiedene beteiligte Faktoren zu begründen wäre. Aber in der Version mit den oben genannten Apps geht es sofort zu Google Maps, um Antworten zu erhalten (wie in seinem „Denken“))

Die Release Gemini 2.0 Pro ist die bemerkenswerteste Ankündigung in Bezug auf den technischen Fortschritt. Laut Google ist 2.0 Pro das fähigste Modell, das Beste für die Codierung und den Umgang mit komplexen Aufgaben (nicht zu verwechseln mit 2.0 Flash -Denken, was auch komplexe Probleme angehen kann, aber seine Arbeit zeigt). Gemini 2.0 Pro ist als experimentelles verfügbares verfügbares Problem Version zu Gemini Advanced Abonnenten sowie in AI Studio und Vertex AI.

Gemini 2.0 Flash-Lite hat ein 1-Millionen-Token-Kontextfenster und ein multimodales Eingang und funktioniert mit der gleichen Geschwindigkeit und dem gleichen Preis wie die frühere 1,5-Flash-Version, sodass es einen Schlag für seine Größe hat. Flash-Lite ist im Vorschau-Modus in AI Studio und der Vertex AI erhältlich.



Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein