Hallo Leute, gut zum regulären KI -Bericht von TechCrunch. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang wollen, abonnieren Sie Hier.
Vielleicht haben Sie bemerkt, dass wir letzte Woche den Newsletter gesprungen haben. Der Grund? Ein chaotischer Nachrichtenzyklus von KI wurde noch pandemonischer von durch Die chinesische KI -Firma Deepseek Rise wurde vorgestelltund die Antwort auf praktisch immer immer singen von Industrie und Regierung.
Glücklicherweise sind wir wieder auf dem richtigen Weg – nicht sehr früh, wenn man am vergangenen Wochenende die neuen Entwicklungen von OpenAI berücksichtigt.
Sam Altman, CEO von OpenAI, hielt in Tokio an, um mit Masayoshi Sohn, dem CEO des japanischen Konglomerats Softbank, auf der Bühne zu sprechen. Softbank ist ein großartiger Openai Investor Und Partnerhaben versprochen, die Finanzierung zu unterstützen Das riesige OpenAI -Infrastrukturprojekt von OpenAI in den USA
Dann hatte Altman wahrscheinlich das Gefühl, dass er seinem Sohn ein paar Stunden seiner Zeit schuldete.
Worüber haben die zwei Milliardäre gesprochen? Viele Abstracts arbeiten durch AI -Agenten durch Secondhand -Berichte. Son sagte, sein Unternehmen würde 3 Milliarden US -Dollar pro Jahr für OpenAI -Produkte ausgeben und sich mit OpenAI anschließen, um eine Intelligenz „Cristal (SIC) -Plattform (SIC) zu entwickeln, um Millionen von traditionellen weißen Kragen Workflows zu automatisieren.
„Durch die Automatisierung und autonomisierter Autonisierung all Ihrer Aufgaben und Workflows wird SoftBank Corp. Ihr Geschäft und Ihre Dienstleistungen wenden und einen neuen Wert schaffen“, sagte Softbank in einem Pressemitteilung.
Aber was sollte der bescheidene Arbeiter all diese Automatisierung und Autonomisierung halten?
Wie Sebastian Siemiatkowski, der CEO Fintech Klarna, der oft oft Wenn ein verwirrter KI Menschen ersetztDer Sohn scheint die Meinung zu sein, dass die Bestände für Arbeiter nur fabelhaften Reichtum auslösen können. Geschlossen sind die Kosten der Fülle. Wenn die verallgemeinerte Automatisierung von Arbeitsplätzen verabschiedet wird, Die Arbeitslosigkeit in großem Umfang scheint das wahrscheinlichste Ergebnis zu sein.
Es ist entmutigt, dass diejenigen, die an der Spitze der KI stehen – Unternehmen wie OpenAI und Investoren wie SoftBank – Pressekonferenzen ausgeben, indem sie ein Bild von automatisierten Unternehmen mit weniger Lohn- und Gehaltsabrechnungsarbeitern malen. Sie sind natürlich Unternehmen – keine Wohltätigkeitsorganisationen. Und die Entwicklung von KI ist nicht billig. Aber vielleicht Leute Ich würde IA vertrauen Wenn diejenigen, die ihren Einsatz leiteten, ein wenig mehr Sorge um das Gute zeigten, um zu sein.
Essen zum Gedanken.
Nachricht
Tiefe Forschung: OpenAI hat einen neuen KI -Agenten gestartet, der Menschen helfen soll, komplexe und detaillierte Umfragen mit Chatgpt, der AI -Chatbot -Plattform des Unternehmens, durchzuführen.
O3-mini: In anderen Nachrichten von OpenAI startete das Unternehmen nach einer Vorschau im vergangenen Dezember ein neues AI-MINI-Argumentationsmodell. Es ist nicht das leistungsstärkste Modell von OpenAI, aber O3-Mini hat eine größere Effizienz und Reaktionsgeschwindigkeit.
Ich verbietet dort riskant: Am Sonntag können BLOC -Aufsichtsbehörden in der Europäischen Union die Verwendung von AI -Systemen verbieten, die sie als „inakzeptables Risiko“ oder -beschädigung darstellen. Dies schließt KI ein, die für soziale Punktzahl und unterschwellige Werbung verwendet werden.
Ein Stück über „Doomer“: In der Kultur von AI „Doomer“ gibt es eine neue Bewegung, die vage auf Sam Altman, der als CEO von OpenAI ausgewiesen wurde Im November 2023. Meine Kollegen Dominic und Rebecca teilen ihre Gedanken nach dem Debüt.
Technologie zur Erhöhung der Ernteerträge: Ox „Moonshot Factory“ von Google gab in dieser Woche seinen letzten Absolvent bekannt. Erblandwirtschaft Es ist ein maschinenorientiertes und lernorientiertes Startup, um die Kultivierung der Kulturen zu verbessern.
Suchdokument der Woche
Die Argumentationsmodelle sind besser als ihre durchschnittliche KI bei der Problemlösung, insbesondere in Bezug auf Naturwissenschaften und mathematische Konsultationen. Aber sie sind keine Silberkugel.
EINS Neue Studie von Forschern des chinesischen Unternehmens Tencent Untersucht die Frage, ob sie in Argumentationsmodellen „erstocken“, in denen Modelle vorzeitig unerklärlicherweise potenziell vielversprechende Gedankenketten aufgeben. Laut Studienergebnissen treten „schmutzige“ Muster in der Regel häufiger mit schwierigeren Problemen auf, was die Modelle dazu veranlasst, zwischen Argumentationsketten zu wechseln, ohne Antworten zu erreichen.
Das Team schlägt eine Korrektur vor, die eine „Denkmalstrafe“ einsetzt, um Modelle dazu zu ermutigen, „jede Argumentation“ zu entwickeln, bevor sie Alternativen in Betracht ziehen, und die Genauigkeit der Modelle erhöht.
Modell der Woche
Ein Forscherteam, das vom Eigentümer von Tiktok Bydance, dem chinesischen IA Company Moonshot und anderen unterstützt wurde, haben ein neues offenes Modell auf den Markt gebracht, das relativ hochwertige Songs von Eingaben erzeugen kann.
Das Modell genannt YueEs kann bis zu ein paar Minuten lang einen Song mit Gesang und Support -Tracks erzeugen. Es steht unter einer Apache 2.0 -Lizenz, was bedeutet, dass das Modell kommerziell ohne Einschränkungen verwendet werden kann.
Es gibt jedoch Nachteile. Das Yue -Rennen erfordert eine robuste GPU; Die Erzeugung eines 30 -zweiten Songs dauert sechs Minuten mit einem NVIDIA RTX 4090. Zusätzlich ist unklar, ob das Modell unter Verwendung von Copyright -geschützten Daten trainiert wurde. Ihre Schöpfer haben es nicht gesagt. Wenn von Copyright geschützte Songs tatsächlich im Trainingssatz des Modells wären, könnten Benutzer zukünftigen IP -Herausforderungen stehen.
Greifen
Dann anthropische Behauptungen des Labors, die eine Technik entwickelten, um sich zuverlässig gegen AIs Jailbreaks zu verteidigen, die Methoden, mit denen die Sicherheitsmaßnahmen eines KI -Systems ignoriert werden können.
Die Technik, VerfassungsklassifiziererEs verfügt über zwei Sätze von KI -Modellen von „Klassifizier“: einen „Eingabe“ -Klassifikator und einen „Ausgangs“ -Klassifikator. In den Anfragen der beigefügten Eingabeklassifizierer wird nach einem Schutzmodell mit Modellen gefragt, die Jailbreaks und andere unfähige Inhalte beschreiben, während der Ausgangsklassifizierer die Wahrscheinlichkeit berechnet, dass eine Modellantwort schädliche Informationen erörtert.
Anthropic sagt, dass konstitutionelle Klassifizierer die „überwältigende Mehrheit“ von Jailbreaks filtern können. Es hat jedoch Kosten. Jede Konsultation ist 25% anspruchsvoller rechnerisch, und das Sicherheitsmodell ist um 0,38% geringer, um harmlose Fragen zu beantworten.