Start IT/Tech Elon Musk sagt, alle menschlichen Daten für das KI-Training seien „erschöpft“

Elon Musk sagt, alle menschlichen Daten für das KI-Training seien „erschöpft“

7
0
Elon Musk sagt, alle menschlichen Daten für das KI-Training seien „erschöpft“

Den Unternehmen für künstliche Intelligenz gingen die Daten zum Trainieren ihrer Modelle aus und die Summe des menschlichen Wissens war „erschöpft“. Elon Musk sagte er.

Der reichste Mensch der Welt schlug vor, dass Technologieunternehmen auf „synthetische“ Daten – oder durch KI-Modelle erstellte Materialien – zurückgreifen müssten, um neue Systeme zu bauen und zu verbessern, ein Prozess, der bei sich schnell entwickelnden Technologien bereits abläuft.

„Die kumulierte Summe des menschlichen Wissens ist im KI-Training ausgeschöpft. „Das ist im Grunde letztes Jahr passiert“, sagte Musk in einem Interview, das live auf seiner Social-Media-Plattform X übertragen wurde.

KI-Modelle, wie das GPT-4o-Modell, das das antreibt ChatGPTbot Sie werden anhand einer Vielzahl von Daten aus dem Internet „trainiert“ und lernen dabei, Muster in diesen Informationen zu erkennen – so können sie beispielsweise das nächste Wort in einem Satz vorhersagen.

Musk sagte, der „einzige Weg“, dem Mangel an Quellmaterial zum Trainieren neuer Modelle entgegenzuwirken, sei die Umstellung auf synthetische, von KI erstellte Daten.

In Bezug auf die Datenerschöpfung sagte er: „Die einzige Möglichkeit, dies zu ergänzen, sind synthetische Daten, bei denen … er einen Aufsatz schreibt oder eine Abschlussarbeit vorlegt, sich dann selbst bewertet und … diesen Selbstlernprozess durchläuft.“

Facebook- und Instagram-Inhaber Meta nutzten synthetische Daten, um sein größeres Llama-KI-Modell zu verfeinern, während Microsoft auch KI-basierte Inhalte für sein Phi-4-Modell nutzte. Google und OpenAIDas Unternehmen hinter ChatGPT hat in seiner KI-Arbeit auch synthetische Daten verwendet.

Allerdings warnte Musk auch davor, dass die Angewohnheit von KI-Modellen, „Halluzinationen“ zu erzeugen – eine Bezeichnung für ungenaue oder unsinnige Ergebnisse – eine Gefahr für den Prozess der synthetischen Daten darstelle.

Er erzählte dem Interview live übertragen mit Mark Penn, Präsident der Werbegruppe Stagwell, dass die Halluzinationen den Prozess der Verwendung künstlichen Materials „herausfordernd“ machten, denn „woher weiß man, ob … die Reaktion eine Halluzination war oder ob es eine echte Reaktion ist.“

Hochwertige Daten und die Kontrolle darüber sind eines der juristischen Schlachtfelder im KI-Boom. OpenAI gab letztes Jahr zu, dass es unmöglich sei, Tools wie ChatGPT zu entwickeln Kein Zugriff auf urheberrechtlich geschütztes Materialwährend die Kreativwirtschaft Und Herausgeber fordern eine Vergütung für die Nutzung ihrer Ergebnisse im Modelltrainingsprozess.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein