OpenAI-Mitbegründer Ilya Sutskever er sprach auf einer Reihe von Themen auf NeurIPS, der jährlichen KI-Konferenz, bevor er eine Auszeichnung für seine Beiträge auf diesem Gebiet entgegennahm.
Sutskever gab seine Vorhersagen für eine „superintelligente“ KI ab, eine KI, die bei vielen Aufgaben leistungsfähiger als der Mensch ist und von der er glaubt, dass sie irgendwann erreicht wird. Superintelligente KI werde „qualitativ anders“ sein als die KI, die wir heute haben, sagte Sutskever – und in mancher Hinsicht nicht wiederzuerkennen.
„(Superintelligente) Systeme werden in Wirklichkeit Agenten sein“, sagte Suktsever, im Gegensatz zur aktuellen Generation „sehr leicht agentiver“ KI. Sie werden „vernünftig“ und dadurch unberechenbarer. Sie werden Dinge auf der Grundlage begrenzter Daten verstehen. Und sie werden sich ihrer selbst bewusst sein, glaubt Sutskever.
Sie wollen vielleicht tatsächlich Rechte. „Es ist kein schlechtes Ergebnis, wenn es KIs gibt und diese nur mit uns koexistieren und einfach nur Rechte haben wollen“, sagte Sutskever.
Nachdem er OpenAI verlassen hatte, gründete Sutskever ein Labor, Safe Superintelligence (SSI), das sich auf allgemeine KI-Sicherheit konzentrierte. SSI hat im September 1 Milliarde US-Dollar eingesammelt.