Start IT/Tech Auf dem Weg zu einer neuen Generation von von Menschen inspirierten Sprachmodellen

Auf dem Weg zu einer neuen Generation von von Menschen inspirierten Sprachmodellen

13
0
Leicht, flexibel und strahlungsbeständig: Organische Solarzellen für den Weltraum

Kann ein Computer eine Sprache so lernen, wie es ein Kind tut? Eine kürzlich in der führende Journal Computational Linguistics von Professoren Katrien Beuls (Universität von Namur) und Paul Van Eecke (AI Lab, Vrije Universiteit Brüssel) veröffentlichte Studie wirft neues Licht auf diese Frage. Die Forscher setzen sich für eine grundlegende Überarbeitung der Künstlerninformation ein und verarbeitet die Sprache.

„Kinder lernen ihre Muttersprache, indem sie mit den Menschen um sie herum in ihrer Umgebung kommunizieren. Wenn sie mit der Sprache spielen und experimentieren, versuchen sie, die Absichten ihrer Konversationspartner zu interpretieren. Auf diese Weise lernen sie allmählich, sprachliche Konstruktionen zu verstehen und zu verwenden. Dieser Prozess, in dem Sprache durch Interaktion und sinnvoller Kontext erworben wird, ist der Kern des Erwerbs menschlicher Sprache “, sagt Katrien Buls.

„Die aktuelle Generation von Großsprachemodellen (LLMs), wie z. B. Chatgpt, lernt Sprache auf ganz andere Weise“, fügt Paul Van Eecke hinzu. „Durch die Beobachtung großer Mengen an Text und das Erkennen, welche Wörter häufig zusammen erscheinen, generieren sie Texte, die häufig nicht vom menschlichen Schreiben zu unterscheiden sind. Dies führt zu Modellen, die in vielen Formen der Textgenerierung äußerst leistungsfähig sind – z. Fragen – aber diese zeigen auch inhärente Einschränkungen.

Die Forscher schlagen ein alternatives Modell vor, in dem künstliche Agenten Sprache lernen wie Menschen – indem sie sich an sinnvollen kommunikativen Interaktionen in ihrer Umgebung beteiligen. Durch eine Reihe von Experimenten zeigen sie, wie diese Wirkstoffe sprachliche Konstruktionen entwickeln, die direkt mit ihrer Umgebung und sensorischen Wahrnehmungen verbunden sind. Dies führt zu Sprachmodellen, die:

  • Sind weniger anfällig für Halluzinationen und Vorurteile, da ihr Sprachverständnis auf der direkten Interaktion mit der Welt beruht.
  • Verwenden Sie Daten und Energie effizienter, was zu einem kleineren ökologischen Fußabdruck führt.
  • Sind tiefer in Bedeutung und Absicht verwurzelt und ermöglichen es ihnen, Sprache und Kontext auf menschlichere Weise zu verstehen.

„Die Integration kommunikativer und situierter Interaktionen in KI -Modelle ist ein entscheidender Schritt bei der Entwicklung der nächsten Generation von Sprachmodellen. Diese Forschung bietet einen vielversprechenden Weg zu Sprachtechnologien, die ähnlicher, wie Menschen die Sprache verstehen und verwenden“, schließen die Forscher.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein