Ziel hat angekündigt die neueste Ergänzung zu Ihrem Lama Familie generativer KI-Modelle: Llama 3.3 70B.
In einem veröffentlichen Ahmad Al-Dahle, Vizepräsident für generative KI bei Meta, sagte auf Rufen Sie 3.1 405B anzu geringeren Kosten.
„Durch die Nutzung der neuesten Fortschritte bei Post-Training-Techniken verbessert dieses Modell die Kernleistung zu deutlich geringeren Kosten“, schrieb Al-Dahle.
Al-Dahle hat ein Diagramm veröffentlicht, das zeigt, dass das Llama 3.3 70B Googles Gemini 1.5 Pro, OpenAIs GPT-4o und Amazons kürzlich veröffentlichten Nova Pro in einer Reihe von Branchen-Benchmarks übertrifft, darunter MMLU, das die Fähigkeit eines Modells zum Sprachverständnis bewertet. Per E-Mail teilte ein Meta-Sprecher mit, dass das Modell Verbesserungen in Bereichen wie Mathematik, Allgemeinwissen, Befolgung von Anweisungen und Nutzung von Anwendungen bringen solle.
Wir stellen den Llama 3.3 vor – ein neues 70B-Modell, das die Leistung unseres 405B-Modells bietet, aber einfacher und wirtschaftlicher zu bedienen ist. Durch die Nutzung der neuesten Fortschritte bei Post-Training-Techniken, einschließlich Online-Präferenzoptimierung, verbessert dieses Modell die Kernleistung in… pic.twitter.com/6oQ7b3Yuzc
-Ahmad Al-Dahle (@Ahmad_Al_Dahle) 6. Dezember 2024
Llama 3.3 70B, erhältlich für herunterladen von der Hugging Face AI-Entwicklungsplattform und anderen Quellen, einschließlich dem offiziellen Llama Webseiteist Metas jüngster Schritt, den Bereich der KI mit „offenen“ Modellen zu dominieren, die für eine Vielzahl von Anwendungen genutzt und kommerzialisiert werden können.
Zielbedingungen schränkt ein wie bestimmte Entwickler ihre Llama-Modelle verwenden können; Plattformen mit mehr als 700 Millionen monatlichen Nutzern müssen eine Sondergenehmigung des Unternehmens einholen. Für viele Entwickler und Unternehmen ist es jedoch unerheblich, dass Llama-Modelle nicht im engeren Sinne „offen“ sind. Laut Meta haben seine Llama-Modelle mehr als 650 Millionen Downloads verzeichnet.
Meta nutzte Llama auch für seine eigenen Zwecke. Meta AI, der KI-Assistent des Unternehmens, der vollständig auf Llama-Modellen basiert, hat laut einem Instagram-Konto inzwischen fast 600 Millionen aktive Nutzer pro Monat. veröffentlichen von CEO Mark Zuckerberg am Freitag. Zuckerberg behauptet, dass Meta AI auf dem besten Weg ist, der meistgenutzte KI-Assistent der Welt zu werden.
Lamas offene Art war für Meta sowohl ein Segen als auch ein Fluch.
Im November, a Bericht Es wurde festgestellt, dass chinesische Militärforscher ein Lama-Modell zur Entwicklung eines Verteidigungs-Chatbots verwendet haben. Meta antwortete mit seinem Lama Modelle, die US-Verteidigungspartnern zur Verfügung stehen.
Meta äußerte auch Bedenken hinsichtlich seiner Fähigkeit, sich zu treffen das KI-Gesetzdas EU-Gesetz zur Schaffung eines rechtlichen und regulatorischen Rahmens für KI – und nannte die Umsetzung des Gesetzes „sehr unvorhersehbar“. Für das Unternehmen stehen damit verbundene Bestimmungen der DSGVO, des EU-Datenschutzgesetzes, in Bezug auf KI-Schulungen auf dem Spiel. Meta trainiert KI-Modelle anhand öffentlicher Daten von Instagram- und Facebook-Nutzern, die sich nicht abgemeldet haben – Daten, die in Europa den Datenschutzbestimmungen der DSGVO unterliegen.
EU-Regulierungsbehörden forderten Meta Anfang des Jahres auf, die Schulung zu europäischen Benutzerdaten einzustellen, während sie die DSGVO-Konformität des Unternehmens bewerteten. Meta gab nach, befürwortete aber auch a offener Brief fordert eine „moderne Interpretation“ der DSGVO, die „den Fortschritt nicht ablehnt“.
Meta, das nicht vor den technischen Herausforderungen anderer KI-Labore gefeit ist, verbessert seine Computerinfrastruktur, um zukünftige Generationen von Lama-Modellen zu trainieren und zu bedienen. Das Unternehmen kündigte am Mittwoch an, dass es in Louisiana ein KI-Rechenzentrum im Wert von 10 Milliarden US-Dollar bauen werde – das größte KI-Rechenzentrum, das jemals gebaut wurde.
Zuckerberg sagte er auf Metas Ergebnismitteilung für das vierte Quartal im August, dass das Unternehmen zum Trainieren des nächsten großen Satzes von Llama-Modellen, Llama 4, zehnmal mehr Rechenleistung benötigen wird, als zum Trainieren von Llama 3 erforderlich ist.
Das Trainieren großer Sprachmodelle kann eine teure Angelegenheit sein. Die Investitionsausgaben von Meta stiegen im zweiten Quartal 2024 um fast 33 % auf 8,5 Milliarden US-Dollar von 6,4 Milliarden US-Dollar im Vorjahr, was auf Investitionen in Server, Rechenzentren und Netzwerkinfrastruktur zurückzuführen ist.