Start IT/Tech Der anthropische CEO Dario Amodei warnt vor „Rasse“, KI zu verstehen, da...

Der anthropische CEO Dario Amodei warnt vor „Rasse“, KI zu verstehen, da es mächtiger wird

12
0
Der anthropische CEO Dario Amodei warnt vor "Rasse", KI zu verstehen, da es mächtiger wird

Kurz nach dem Ende von IA Action Summit In Paris ist der Mitbegründer und CEO von Anthropic Dario Amodei angerufen Die Veranstaltung ist eine „verpasste Gelegenheit“. Er fügte hinzu, dass „größerer Fokus und Dringlichkeit in mehreren Themen erforderlich sind, da die Technologie in der Technologie voranschreitet“ Communiqué am Dienstag veröffentlicht.

Die IA -Firma veranstaltete eine Veranstaltung, die sich in Zusammenarbeit mit dem französischen Startup auf den Entwickler in Paris konzentrierte StaubUnd TechCrunch hatte die Möglichkeit, Amodei auf der Bühne zu interviewen. Bei der Veranstaltung erklärte er seine Gedankenlinie und verteidigte einen dritten Weg, der weder reinem Optimismus noch reine Kritik an den Themen der Innovations- und Governance -Themen von AI ist.

„Früher war ich ein Neurowissenschaftler, wo ich im Grunde genommen das Gehirn real angesehen habe, um zu leben. Und jetzt schauen wir uns das künstliche Gehirn an, um zu leben. Daher werden wir in den kommenden Monaten einige interessante Fortschritte im Bereich der Interpretierbarkeit erzielen – wo wir wirklich beginnen zu verstehen, wie Modelle funktionieren “, sagte Amodei gegenüber TechCrunch.

„Aber es ist definitiv ein Rennen. Es ist ein Rennen zwischen den mächtigeren Modellen, was für uns unglaublich schnell ist und für andere unglaublich schnell – Sie können nicht wirklich langsamer werden, oder? … Unser Verständnis muss mit unserer Fähigkeit Schritt halten, Dinge aufzubauen. Ich denke, das ist der einzige Weg “, fügte er hinzu.

Von Anfang an AI Gipfel in Bletchley Im Vereinigten Königreich hat sich der Ton der Diskussion über die KI -Governance erheblich verändert. Dies ist teilweise auf die derzeitige geopolitische Landschaft zurückzuführen.

„Ich bin heute Morgen nicht hier, um über KI -Sicherheit zu sprechen, was vor einigen Jahren der Titel der Konferenz war“, US Vice President JD Vance sagte am Dienstag auf dem AI Action Summit. „Ich bin hier, um über die Gelegenheit von AI zu sprechen.“

Interessanterweise versucht Amodei, diese Antagonisierung zwischen Sicherheit und Chancen zu vermeiden. Tatsächlich glaubt er, dass ein verstärkter Fokus auf die Sicherheit Und Eine Gelegenheit.

„Auf dem ursprünglichen Gipfel, dem britischen Gipfel Bletchley, gab es viele Diskussionen über Tests und Messungen für verschiedene Risiken. Und ich denke nicht, dass diese Dinge die Technologie sehr verlangsamen “, sagte ich Amodei bei der anthropischen Veranstaltung. „Wie auch immer, diese Art von Messung hat uns dabei geholfen, unsere Modelle besser zu verstehen, was uns am Ende bessere Modelle produzieren kann.“

Und jedes Mal, wenn Amodei die Sicherheit betont, erinnert er auch gerne alle daran, dass Anthropic immer noch sehr darauf ausgerichtet ist, Grenz -KI -Modelle zu bauen.

„Ich möchte nichts tun, um das Versprechen zu verringern. Wir bieten jeden Tag Modelle an, die Menschen bauen können und werden verwendet, um erstaunliche Dinge zu tun. Und wir sollten definitiv nicht aufhören, das zu tun “, sagte er.

„Wenn die Leute viel über die Risiken sprechen, ärgere ich mich irgendwie und sage: ‚Oh, Mann, niemand hat wirklich gut gemacht, wie groß diese Technologie sein könnte“, fügte er das Gespräch später hinzu.

Deepseek -Trainingskosten „braucht einfach nicht“

Wenn sich das Gespräch zu änderte Deepseek, chinesischer Hersteller von LLMDie jüngsten Modelle, die ich Amode, unterschätzte technische Erfolge und sagte, dass er der Ansicht war, dass die öffentliche Reaktion „anorganisch“ sei.

„Ehrlich gesagt war meine Reaktion sehr klein. Wir hatten V3 gesehen, das im Dezember das Grundmodell von Deepseek R1 ist. Und das war ein beeindruckendes Modell “, sagte er. „Das im Dezember eingeführte Modell befand sich in dieser Art der sehr normalen Kostenreduzierungskurve, die wir in unseren Modellen und anderen Modellen gesehen haben.“

Bemerkenswert war, dass das Modell nicht aus den „drei oder vier Grenzlabors“ stammte, die seinen Hauptsitz in den USA hat, er listete Google, OpenAI und Anthrop als einige der Grenzlabors auf, die normalerweise den Umschlag mit neuen Modellfreisetzungen vorantreiben.

„Und das war eine Frage der geopolitischen Sorge für mich. Ich wollte nie, dass autoritäre Regierungen diese Technologie beherrschen “, sagte er.

Was die angeblichen Deepseek -Schulungskosten betrifft, schließte er die Idee aus, dass das Training von Deepseek V3 im Vergleich zu den US -Schulungskosten „Ich glaube, (dies) nicht benötigt und nicht auf Fakten basiert“, sagte er.

Nächste Models Claude mit Argumentation

Während Amodei bei der Veranstaltung am Mittwoch kein neues Modell angekündigt hat, verursachte er einige der bevorstehenden Veröffentlichungen des Unternehmens – sondern enthält einige Argumentationsfunktionen.

„Wir konzentrieren uns normalerweise darauf, unsere eigene Meinung über Argumentationsmodelle zu machen, die besser differenziert sind. Wir machen uns die Mühe, sicherzustellen, dass wir über genügend Kapazitäten verfügen, damit die Modelle klüger sind und sich um Sicherheitsdaten sorgen “, sagte Amodei.

Eines der Probleme, die Anthropic zu lösen versucht, ist das Puzzle der Modellauswahl. Wenn Sie beispielsweise ein ChatGPT Plus-Konto haben, kann es schwierig sein, zu wissen, welches Modell Sie aus dem Popup der Modellauswahl für Ihre nächste Nachricht auswählen sollten.

Bildnachweis:CHATGPT -Bildschirmaufnahme

Gleiches gilt für Entwickler, die APIs mit großer Sprachmodell (LLM) für ihre eigenen Anwendungen verwenden. Sie wollen Dinge zwischen Genauigkeit, Antworten Geschwindigkeit und Kosten ausgleichen.

„Wir sind ein wenig fasziniert von der Idee, dass es normale Modelle gibt und dass es Argumentationsmodelle gibt und dass sie sich halb voneinander unterscheiden“, sagte Amodei. „Wenn ich mit dir spreche, hast du nicht zwei Gehirne und einer antwortet sofort und erwartet wie der andere mehr Zeit.“

Ihm zufolge sollte es je nach Eingang einen glatteren Übergang zwischen vorgebliebenen Modellen wie Claude 3.5 Sonetten oder GPT-4O und Modellen geben, die mit Verstärkungslernen ausgebildet sind, die eine Gedankenkette (COT) wie Opens O1 oder R1 Deepseek produzieren können .

„Wir glauben, dass sie als Teil einer einzigen kontinuierlichen Einheit existieren müssen. Und wir sind noch nicht da, aber der Anthropic will die Dinge wirklich in diese Richtung bewegen “, sagte Amodei. „Wir sollten einen reibungsloseren Übergang von dieser zu den vorgebrachten Models haben ‚Hier ist das Ding und hier ist das Ding B'“, fügte er hinzu.

Da große KI -Unternehmen wie Anthropic weiterhin bessere Modelle starten, ist Amodei der Ansicht, dass es große Möglichkeiten eröffnen wird, die großen Unternehmen der Welt in allen Sektoren zu stören.

„Wir arbeiten mit einigen Pharmaunternehmen zusammen, um Claude zu verwenden, um klinische Studien zu schreiben, und konnten die Zeit verkürzen, die für den Schreiben des 12 -Wochen -Klinischen Studienberichts erforderlich ist“, sagte Saidi.

„Zusätzlich zu den Biomedizinern gibt es legale, finanzielle, sichere, produktivität, software- und tätige Energie. Ich denke, es wird – im Grunde – eine Wiedergeburt disruptiver Innovationen im AI -Anwendungsraum geben. Und wir wollen ihm helfen, wir wollen alles unterstützen “, schloss er.

Lesen Sie unsere vollständige Berichterstattung des Aktionsgipfels für künstliche Intelligenz in Paris.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein