Hallo zusammen, willkommen zum regelmäßigen KI-Newsletter von TechCrunch. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang haben möchten, melden Sie sich an Hier.
Am Montag setzte sich Anthropic-CEO Dario Amodei zu einem fünfstündigen Podcast zusammen Interview mit KI-Influencer Lex Fridman. Die beiden behandelten eine Reihe von Themen, von Zeitplänen für Superintelligenz bis hin zu Fortschritten bei Anthropics nächster Flaggschifftechnologie.
Um Ihnen den Download zu ersparen, haben wir die wichtigsten Punkte entfernt.
Trotz Beweis Im Gegenteil, Amodei glaubt, dass die „Skalierung“ von Modellen immer noch ein gangbarer Weg zu leistungsfähigerer KI ist. Amodei stellte klar, dass er mit der Skalierung nicht nur die Erhöhung des Rechenaufwands für das Training von Modellen meint, sondern auch die Größe der Modelle – und die Größe der Trainingssätze der Modelle.
„Die Expansion wird wahrscheinlich weitergehen, und darin liegt eine Magie, die wir noch nicht theoretisch erklärt haben“, sagte Amodei.
Im Gegensatz zu manchen glaubt Amodei auch nicht, dass die Datenknappheit eine Herausforderung für die Entwicklung von KI darstellt Experten. Unabhängig davon, ob synthetische Daten generiert oder vorhandene Daten extrapoliert werden, werden KI-Entwickler Datenbeschränkungen „umgehen“, sagt er. (Es bleibt abzuwarten, ob die Probleme mit synthetischen Daten gelöst werden kann, werde ich hier anmerken.)
Amodei tut es Wir sind uns bewusst, dass KI-Computing in naher Zukunft wahrscheinlich teurer werden wird, teilweise aufgrund der Skalierung. Er geht davon aus, dass Unternehmen im nächsten Jahr Milliarden von Dollar für Cluster zum Trainieren von Modellen ausgeben werden und bis 2027 Hunderte von Milliarden Dollar ausgeben werden. (Tatsächlich ist OpenAI Gerüchte planen ein 100-Milliarden-Dollar-Rechenzentrum.)
Und Amodei war offen darüber, dass selbst die besten Models von Natur aus unberechenbar sind.
„Es ist sehr schwierig, das Verhalten eines Modells zu kontrollieren – das Verhalten eines Modells unter allen Umständen gleichzeitig zu steuern“, sagte er. „Es gibt diesen ‚Whack-a-Mole‘-Aspekt, bei dem man eine Sache drückt und diese anderen Dinge ebenfalls in Bewegung geraten, was man vielleicht nicht einmal bemerkt oder misst.“
Dennoch prognostiziert Amodei, dass Anthropic – oder ein Rivale – bis 2026 oder 2027 eine „superintelligente“ KI entwickeln wird – eine KI, die bei einer Reihe von Aufgaben die Leistung „menschlicher Ebene“ übertrifft. Und er macht sich Sorgen über die Auswirkungen.
„Uns gehen schnell die wirklich überzeugenden Blocker aus, wirklich überzeugende Gründe, warum das in den nächsten Jahren nicht passieren wird“, sagte er. „Ich mache mir Sorgen um die Wirtschaft und die Machtkonzentration. Tatsächlich ist es das, worüber ich mir am meisten Sorgen mache: der Machtmissbrauch.“
Gut, dass er in der Lage ist, etwas dagegen zu unternehmen.
Nachricht
Eine KI-Nachrichten-App: Der von ehemaligen Twitter-Ingenieuren ins Leben gerufene Newsreader AI Particle soll den Lesern mithilfe der KI-Technologie helfen, die Nachrichten besser zu verstehen.
Der Autor erhebt: Writer sammelte 200 Millionen US-Dollar bei einem Wert von 1,9 Milliarden US-Dollar, um seine unternehmensorientierte generative KI-Plattform zu erweitern.
Auf Trainium aufbauen: Amazon Web Services (AWS) hat Build on Trainium gestartet, ein neues Programm, das 110 Millionen US-Dollar an Institutionen, Wissenschaftler und Studenten vergibt, die KI mithilfe der AWS-Infrastruktur erforschen.
Red Hat kauft ein Startup: IBMs Red Hat übernimmt Neural Magic, ein Startup, das KI-Modelle optimiert, um schneller auf Standardprozessoren und GPUs zu laufen.
Kostenloser Grok: X, ehemals Twitter, testet eine kostenlose Version seines KI-Chatbots Grok.
KI für die Grammys: Der mit KI verfeinerte und letztes Jahr veröffentlichte Beatles-Titel „Now and Then“ wurde für zwei Grammy Awards nominiert.
Anthropisch für die Verteidigung: Anthropic arbeitet mit dem Datenanalyseunternehmen Palantir und AWS zusammen, um US-Geheimdiensten und Verteidigungsbehörden Zugriff auf die Claude-KI-Modellfamilie von Anthropic zu ermöglichen.
Eine neue Domain: OpenAI hat Chat.com gekauft und damit seine Sammlung hochkarätiger Domainnamen erweitert.
Forschungspapier der Woche
Google gibt an, ein verbessertes KI-Modell zur Hochwasservorhersage entwickelt zu haben.
Das Modell, das auf der bisherigen Arbeit des Unternehmens in diesem Bereich aufbaut, kann Hochwasserbedingungen in Dutzenden von Ländern bis zu sieben Tage im Voraus genau vorhersagen. Theoretisch könnte das Modell eine Überschwemmungsvorhersage für jeden Ort auf der Erde liefern, Google weist jedoch darauf hin, dass es in vielen Regionen an historischen Daten zur Validierung mangelt.
Google bietet Experten für Katastrophenmanagement und Hydrologie eine Warteliste für den Zugriff auf die Modell-API an. Es stellt darüber hinaus auch Modellvorhersagen zur Verfügung Hochwasserzentrum Plattform.
„Indem wir unsere Prognosen weltweit auf Flood Hub verfügbar machen, hoffen wir, einen Beitrag zur Forschungsgemeinschaft zu leisten“, schreibt das Unternehmen in einer Erklärung. Blogbeitrag. „Diese Daten können von erfahrenen Benutzern und Forschern genutzt werden, um weitere Studien und Analysen darüber zu liefern, wie sich Überschwemmungen auf Gemeinden auf der ganzen Welt auswirken.“
Modell der Woche
Rami Seid, ein KI-Entwickler, hat ein Minecraft-Simulationsmodell veröffentlicht, das auf einer einzelnen Nvidia RTX 4090 ausgeführt werden kann.
Ähnlich der kürzlich vom KI-Startup Decart ins Leben gerufenen „Open World“. ModellSeids, Lucid v1 genannt, emuliert die Minecraft-Spielwelt in Echtzeit (oder nahezu in Echtzeit). Mit einem Gewicht von 1 Milliarde Parametern erfasst Lucid v1 Tastatur- und Mausbewegungen und generiert Frames, die die gesamte Physik und Grafik simulieren.
Lucid v1 unterliegt den gleichen Einschränkungen wie andere Spielesimulationsmodelle. Die Auflösung ist recht niedrig und man vergisst schnell die Anordnung der Level – dreht man den Charakter um, sieht man eine neu arrangierte Szene.
Aber Seid und sein Partner, Ollin Boer Bohan, sagen, dass sie planen, das Modell weiterzuentwickeln, das verfügbar ist herunterladen und unterstützt die Online-Demo Hier.
Tasche
DeepMind, Googles Flaggschiff-KI-Labor, hat den Code für veröffentlicht AlfaFold 3sein KI-basiertes Proteinvorhersagemodell.
AlphaFold 3 wurde vor sechs Monaten angekündigt, DeepMind hielt den Code jedoch kontrovers zurück. Stattdessen ermöglichte es den Zugriff über einen Webserver, der die Anzahl und Art der Vorhersagen, die Wissenschaftler machen konnten, einschränkte.
Kritiker sahen in der Änderung einen Versuch, die kommerziellen Interessen von DeepMind auf Kosten der Reproduzierbarkeit zu schützen. DeepMind-Spin-off, Isomorphe Laboresetzt AlphaFold 3, das Proteine zusammen mit anderen Molekülen modellieren kann, in der Arzneimittelforschung ein.
Jetzt können Wissenschaftler das Modell verwenden, um beliebige Vorhersagen zu treffen – einschließlich des Verhaltens von Proteinen in Gegenwart potenzieller Medikamente. Wissenschaftler mit akademischer Bindung können dies tun Fordern Sie hier den Zugangscode an.