Der anglo-kanadische Informatiker wird oft als … angepriesen „Pate“ der künstlichen Intelligenz hat die Wahrscheinlichkeit verringert, dass KI die Menschheit in den nächsten drei Jahrzehnten auslöschen wird, und warnt davor, dass das Tempo des technologischen Wandels „viel schneller“ sei als erwartet.
Prof. Geoffrey Hinton, der dieses Jahr die Auszeichnung erhielt Nobelpreis für Physik für seine Arbeit im Bereich KIsagte, dass die Wahrscheinlichkeit, dass KI innerhalb der nächsten drei Jahrzehnte zum Aussterben der Menschheit führen würde, bei „10 bis 20 %“ liege.
Zuvor hatte Hinton gesagt, dass dies der Fall sei eine 10-prozentige Chance auf Technologie ein katastrophales Ergebnis für die Menschheit auslösen.
Auf die Frage in der Sendung „Today“ von BBC Radio 4, ob er seine Analyse einer möglichen KI-Apokalypse und der Wahrscheinlichkeit, dass sie eintritt, geändert habe, sagte er: „Nicht wirklich, 10 bis 20 %.“
Hintons Einschätzung veranlasste den Gastredakteur von Today’s, den ehemaligen Kanzler Sajid Javid, zu der Aussage „Sie steigen“, worauf Hinton antwortete: „Wenn überhaupt. Sehen Sie, wir mussten noch nie intelligenter mit den Dingen umgehen als wir.“
Er fügte hinzu: „Und wie viele Beispiele kennen Sie dafür, dass ein intelligenteres Ding von einem weniger intelligenten Ding gesteuert wird? Es gibt nur sehr wenige Beispiele. Es gibt eine Mutter und ein Baby. Die Evolution hat sich sehr bemüht, dem Baby die Kontrolle über die Mutter zu ermöglichen, aber dies ist so ziemlich das einzige Beispiel, das ich kenne.“
Hinton, ein in London geborener emeritierter Professor an der University of Toronto, sagte, dass Menschen im Vergleich zur Intelligenz hochleistungsfähiger KI-Systeme wie Kinder wären.
„Ich stelle es mir gerne so vor: Stellen Sie sich Sie und einen Dreijährigen vor. Wir werden die Dreijährigen sein“, sagte er.
KI lässt sich grob als Computersysteme definieren, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern.
Letztes Jahr machte Hinton Schlagzeilen, nachdem er seine Position bei Google niedergelegt hatte, um offener über die Risiken zu sprechen, die mit der uneingeschränkten Entwicklung von KI einhergehen, und verwies auf Bedenken, dass „schlechte Akteure“ die Technologie nutzen würden, um anderen zu schaden. Eine der Hauptsorgen der Befürworter der KI-Sicherheit besteht darin, dass die Schaffung künstlicher allgemeiner Intelligenz oder Systeme, die intelligenter als Menschen sind, dazu führen könnte, dass die Technologie eine existenzielle Bedrohung darstellt, da sie der menschlichen Kontrolle entgeht.
Als Hinton darüber nachdachte, wo die KI-Entwicklung seiner Meinung nach zu Beginn seiner Arbeit in der Technologie verlaufen wäre, sagte er: „Ich hätte nicht gedacht, dass es dort sein würde, wo wir jetzt sind. Ich dachte, irgendwann in der Zukunft würden wir hier ankommen.“
Er fügte hinzu: „Denn die Situation, in der wir uns jetzt befinden, ist, dass die meisten Experten auf diesem Gebiet glauben, dass wir irgendwann, wahrscheinlich in den nächsten 20 Jahren, KIs entwickeln werden, die intelligenter sind als Menschen.“ Und das ist ein sehr beängstigender Gedanke.“
Hinton sagte, das Entwicklungstempo sei „sehr, sehr schnell, viel schneller als ich erwartet hatte“ und forderte eine staatliche Regulierung der Technologie.
„Ich mache mir Sorgen, dass die unsichtbare Hand uns nicht beschützen wird. Daher wird es nicht ausreichen, es einfach den Gewinnen großer Unternehmen auszusetzen, um sicherzustellen, dass sie es sicher entwickeln“, sagte er. „Das Einzige, was große Unternehmen zu mehr Sicherheitsforschung zwingen kann, ist staatliche Regulierung.“
Hinton ist einer von dreien „Paten der KI“ die für ihre Arbeit den ACM AM Turing Award – das Informatik-Äquivalent zum Nobelpreis – gewannen. Ein Mitglied des Trios, Yann LeCun, Chef-KI-Wissenschaftler bei Mark Zuckerbergs Meta, minimierte die existenzielle Bedrohung und sagte, KI „könnte die Menschheit tatsächlich vor dem Aussterben retten.“