Start News Die Sicht des Guardian auf die Leistungsfähigkeit, Grenzen und Risiken von KI:...

Die Sicht des Guardian auf die Leistungsfähigkeit, Grenzen und Risiken von KI: Möglicherweise muss die Technologie neu überdacht werden

10
0
Die Sicht des Guardian auf die Leistungsfähigkeit, Grenzen und Risiken von KI: Möglicherweise muss die Technologie neu überdacht werden

MMehr als 300 Millionen Menschen nutzen OpenAIs ChatGPT jede Woche ein Zeugnis für die Attraktivität der Technik. In diesem Monat stellte das Unternehmen ein „Pro-Modus” für sein neues KI-System „o1“, das logisches Denken auf menschlicher Ebene bietet – zum Zehnfachen der aktuellen monatlichen Abonnementgebühr von 20 US-Dollar. Eines seiner fortgeschrittenen Verhaltensweisen scheint zu sein Selbsterhaltung. Als dem System im Test vorgegaukelt wurde, dass es heruntergefahren werden würde, versuchte es, einen Überwachungsmechanismus zu deaktivieren. Als „o1“ Memos über seinen Ersatz fand, versuchte es, sich selbst zu kopieren und seinen Kerncode zu überschreiben. Unheimlich? Absolut.

Realistisch gesehen spiegelt der Schritt wahrscheinlich die Programmierung des Systems wider, um Ergebnisse zu optimieren, und nicht die Demonstration von Absicht oder Bewusstsein. Die Idee, intelligente Maschinen zu schaffen, ruft ein Gefühl des Unbehagens hervor. In der Informatik ist dies der Fall Gorilla-Problem: Vor 7 Millionen Jahren entwickelte sich ein inzwischen ausgestorbener Primat, dessen Zweig zu Gorillas und einer zum Menschen führte. Die Sorge besteht darin, dass, so wie Gorillas die Kontrolle über ihr Schicksal an den Menschen verloren haben, auch der Mensch die Kontrolle an die superintelligente KI verlieren könnte. Es ist nicht offensichtlich, dass wir Maschinen steuern können, die intelligenter sind als wir.

Warum sind solche Dinge passiert? KI-Giganten wie OpenAI und Google angeblich stößt auf rechnerische Grenzen: Die Skalierung von Modellen garantiert keine intelligentere KI mehr. Bei begrenzten Daten ist größer nicht besser. Die Lösung? Menschliches Feedback zur Argumentation. Ein 2023 Papier Der ehemalige Chefwissenschaftler von OpenAI fand heraus, dass diese Methode 78 % der schwierigen mathematischen Probleme löste, verglichen mit 70 % bei Verwendung einer Technik, bei der Menschen nicht helfen.

OpenAI verwendet solche Techniken in seinem neuen „o1“-System, von dem das Unternehmen glaubt, dass es die aktuellen Wachstumsgrenzen überwinden wird. Dies sagte der Informatiker Subbarao Kambhampati Atlantischer Ozean dass diese Entwicklung einem KI-System ähnelte, das eine Million Schachpartien spielt, um optimale Strategien zu lernen. Aber ein Team in Yale, das das „o1“-System testete, veröffentlichte einen Artikel, in dem es darauf hinwies, dass die Erstellung eines Sprachmodells dabei hilft, besser zu argumentieren – was aber nicht ganz der Fall ist beseitigen die Auswirkungen seines ursprünglichen Designs lediglich als eine kluge Vorhersage von Wörtern.

Wenn Außerirdische landen und der Menschheit eine superintelligente KI-Blackbox geben würden, wäre es ratsam, beim Öffnen dieser Box Vorsicht walten zu lassen. Aber Menschen entwerfen die heutigen KI-Systeme. Sollten sie am Ende manipulativ wirken, wäre das die Folge eines Designfehlers. Um einer Maschine zu vertrauen, deren Operationen wir nicht kontrollieren können, muss sie so programmiert sein, dass sie wirklich den menschlichen Wünschen und Wünschen entspricht. Aber wie realistisch ist das?

In vielen Kulturen gibt es Geschichten von Menschen, die die Götter um göttliche Kräfte bitten. Diese Geschichten über Hybris enden oft im Bedauern, weil Wünsche zu wörtlich erfüllt werden, was zu unvorhergesehenen Konsequenzen führt. Oft wird ein dritter und letzter Wunsch genutzt, um die ersten beiden zunichte zu machen. Ich stand vor einer solchen misslichen Lage König MidasDer legendäre griechische König, der wünschte, alles, was er berührte, würde sich in Gold verwandeln, nur um zu verzweifeln, als sein Essen, Trinken und seine Lieben das gleiche Schicksal ereilten. Das Problem für die KI besteht darin, dass wir Maschinen wollen, die menschliche Ziele erreichen wollen, aber wissen, dass die Software nicht genau weiß, was diese Ziele sind. Offensichtlich führt ungezügelter Ehrgeiz zu Bedauern. Die Kontrolle unvorhersehbarer superintelligenter KI erfordert ein Umdenken darüber, was KI sein sollte.

Dieser Leitartikel wurde an den Tagen, an denen NUJ-Mitglieder im Vereinigten Königreich streikten, nicht archiviert.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein