Stellen Sie sich Folgendes vor: Sie werden sanft von den beruhigenden Tönen Ihres persönlichen Assistenten geweckt, gerade als Sie sich dem Ende Ihres letzten Schlafzyklus nähern.
Eine körperlose Stimme informiert Sie über E-Mails, die Sie über Nacht verpasst haben, und darüber, wie in Ihrer Abwesenheit darauf geantwortet wurde. Dieselbe Stimme warnt Sie, dass heute Morgen Regen vorhergesagt wird, und empfiehlt Ihnen, Ihren Mantel anzuziehen, bevor Sie das Haus verlassen. Während Ihr Auto Sie ins Büro bringt, verkündet Ihre Armbanduhr, dass das Mittagessen im örtlichen Steakhouse zur Lieferung vorbestellt wurde, da Ihr Eisenspiegel in letzter Zeit etwas niedrig war.
Eines der Potenziale fortschrittlicher künstlicher Intelligenz besteht darin, alle Ihre Bedürfnisse vorherzusehen und zu erfüllen, bevor Sie überhaupt die Chance haben, sie selbst zu erfüllen. Einige der besten KI-Forscher Kanadas glauben, dass dadurch eine Utopie für die Menschheit entstehen könnte – wenn die KI nicht zuerst unsere Spezies ausrottet.
Obwohl weder neu noch einfach, lässt sich die Diskussion über KI und wie sie sich auf die Art und Weise auswirken wird, wie wir unser Leben führen, in drei Teile unterteilen: ob Superintelligenz – eine Entität, die die menschliche Intelligenz übertrifft – entstehen wird, und wie diese Entität das Leben gestalten oder zerstören wird wie wir es kennen und was wir jetzt tun können, um das Ergebnis zu kontrollieren.
Aber egal, was passiert, sagen Beobachter vor Ort, dass das Thema zu den obersten Prioritäten der Staats- und Regierungschefs der Welt gehören sollte.
Der Wettlauf um Superintelligenz
Für den Durchschnittsmenschen könnte KI im aktuellen Kontext dadurch gekennzeichnet sein, dass er einem Gerät eine Frage stellt und die Antwort innerhalb von Sekunden hört. Oder Ihr Handy-Portemonnaie öffnet sich, wenn Sie Ihr Gesicht sehen.
Hierbei handelt es sich um Antworten, die auf eine menschliche Anfrage nach einer einzelnen Aufgabe erfolgen, was ein gemeinsames Merkmal der künstlichen Intelligenz oder der künstlichen Narrow Intelligence (ANI) ist. Der nächste Schritt ist AGI, also künstliche allgemeine Intelligenz, die sich noch in der Entwicklung befindet, aber das Potenzial für Maschinen bieten würde, eigenständig zu denken und Entscheidungen zu treffen und daher produktiver zu sein, heißt es in der Studie Universität Wolverhampton in England.
ASI oder Superintelligenz wird über die menschliche Ebene hinaus operieren und ist nur eine Frage von Jahren entfernt, sagen viele auf diesem Gebiet, darunter der britisch-kanadische Informatiker Geoffrey Hinton, der mit CBC aus seinem Studio in Toronto, wo er lebt, sprach und ist derzeit emeritierter Professor an der University of Toronto.
„Wenn Sie wissen wollen, wie es ist, nicht der Gipfel der Intelligenz zu sein, fragen Sie ein Huhn“, sagte Hinton, der oft als einer der Paten der KI gepriesen wird.
„Fast alle führenden Forscher glauben, dass wir Superintelligenz erlangen werden. Wir werden die Dinge intelligenter machen, als wir es sind“, sagte Hinton. „Ich dachte, es würde 50 bis 100 Jahre dauern. Jetzt denke ich, dass es vielleicht fünf bis 20 Jahre dauern wird, bis wir Superintelligenz haben. Vielleicht länger, aber es kommt schneller, als ich dachte.“
Jeff Clune, Professor für Informatik an der University of British Columbia und Präsident von Canada CIFAR AI am Vector Institute, einer in Toronto ansässigen gemeinnützigen KI-Forschungsorganisation, bestätigt Hintons Vorhersagen hinsichtlich der Superintelligenz.
„Ich glaube auf jeden Fall, dass es eine Chance gibt, und zwar eine nicht triviale Chance, dass es dieses Jahr klappt“, sagte er.
„Wir sind in die Ära eingetreten, in der Superintelligenz mit jedem Monat möglich ist und diese Wahrscheinlichkeit mit jedem Monat steigt.“
Die Ausrottung von Krankheiten, die Vereinfachung von Bewässerungssystemen und die Verbesserung der Nahrungsmittelverteilung sind nur einige der Techniken, die Superintelligenz bereitstellen könnte, um Menschen zu helfen. die Klimakrise lösen und den Welthunger beenden. Experten warnen jedoch davor, die Macht der KI zu unterschätzen – im Guten wie im Schlechten.
Der Vorteil von KI
Obwohl das Versprechen von Superintelligenz, einer empfindungsfähigen Maschine, die Bilder von HAL heraufbeschwört 2001: Odyssee im Weltraum oder Der TerminatorMan geht davon aus, dass SkyNet unvermeidlich ist, es muss kein Todesurteil für die gesamte Menschheit sein.
Clune schätzt, dass die Wahrscheinlichkeit, dass der Mensch die Kontrolle über Superintelligenzen behält, also Bereiche wie medizinische Hilfe Und Ausbildung könnte sich über unsere kühnsten Vorstellungen hinaus verbessern.
„Ich hätte gerne einen Lehrer mit unendlicher Geduld, der alle meine Fragen beantworten könnte“, sagte er. „Und in meinen Erfahrungen mit Menschen auf diesem Planeten ist das selten, wenn nicht unmöglich, zu finden.“
Er sagt auch, dass Superintelligenz uns helfen würde, „den Tod optional zu machen“, die Wissenschaft zu beschleunigen und alles vom Unfalltod bis zum Krebs auszuschließen.
„Seit Beginn der wissenschaftlichen Revolution war der wissenschaftliche Einfallsreichtum des Menschen durch Zeit und Ressourcen begrenzt“, sagte er.
„Und wenn Sie etwas haben, das viel intelligenter ist als wir und von dem Sie Billionen Kopien auf einem Supercomputer erstellen können, dann sprechen Sie davon, dass die Geschwindigkeit wissenschaftlicher Innovationen absolut katalysiert wird.“
Medizinische Hilfe war eine der Branchen, von denen Hinton einig war, dass sie ein KI-Upgrade am meisten verdient hätten.
„In ein paar Jahren könnten wir Hausärzte haben, die tatsächlich 100 Millionen Patienten behandelt haben und jeden Test kennen, der bei Ihnen und Ihren Angehörigen durchgeführt wurde“, sagte Hinton gegenüber der BBC und betonte das Potenzial von KI, menschliches Versagen bei Diagnosen zu eliminieren.
EINS Umfrage 2018 Eine vom Canadian Patient Safety Institute in Auftrag gegebene Studie zeigte, dass Fehldiagnosen ganz oben auf der Liste der von Kanadiern gemeldeten Vorfälle im Bereich der Patientensicherheit stehen.
„Die Kombination aus KI-System und Arzt ist viel besser als der Arzt, der sich mit schwierigen Fällen befasst“, sagte Hinton. „Und das System wird nur noch besser.“
Das riskante Geschäft der Superintelligenz
Diese helle Prophezeiung könnte jedoch noch viel düsterer werden, wenn es dem Menschen nicht gelingt, die Kontrolle zu behalten, obwohl die meisten auf dem Gebiet der KI tätigen Personen erkennen, dass es unzählige Möglichkeiten gibt, wenn künstliche Intelligenz im Spiel ist.
Hinton, der auch gewann den Nobelpreis für Physik Letztes Jahr sorgte er über die Feiertage für Schlagzeilen, als er der BBC mitteilte, dass die Wahrscheinlichkeit, dass KI innerhalb der nächsten 30 Jahre zum Aussterben der Menschheit führen werde, bei 10 bis 20 Prozent liege.
„Wir mussten noch nie intelligenter mit den Dingen umgehen als wir. Und wie viele Beispiele kennen Sie dafür, dass ein intelligenteres Ding von einem weniger intelligenten Ding gesteuert wird?“ fragte Hinton bei der BBC Heute Programm.
Informatiker und „Godfather of AI“ @geoffreyhinton es heißt #R4Today Gastredakteur Sir Sajid Javid KI könnte innerhalb von zwei Jahrzehnten zum Aussterben der Menschheit führen und Regierungen müssen „große Unternehmen zwingen“, umfangreiche Sicherheitsforschung zu betreiben.
„Es gibt eine Mutter und ein Baby. Die Evolution hat hart daran gearbeitet, dem Baby die Kontrolle über die Mutter zu ermöglichen, aber das ist so ziemlich das einzige Beispiel, das ich kenne“, sagte er.
Im Gespräch mit CBC News erläuterte Hinton seine Eltern-Kind-Analogie.
„Wenn Sie Kinder haben, werden sie eines Tages versuchen, ihre Schnürsenkel selbst zu binden, wenn sie noch sehr klein sind. Und wenn Sie ein guter Elternteil sind, lassen Sie sie es versuchen und helfen Sie ihnen vielleicht dabei. zum Laden. Und nach einer Weile sagst du einfach: „Okay, vergiss es.“ Heute werde ich es tun.‘ So wird es zwischen uns und den Superintelligenzen sein“, sagte er.
„Es wird Dinge geben, die wir tun, und die Superintelligenzen werden es satt haben, dass wir so inkompetent sind, und sie werden uns einfach ersetzen.“
Vor fast 10 Jahren sagte Elon Musk, Gründer von SpaceX und CEO von Tesla Motors, dem amerikanischen Astrophysiker Neil deGrasse Tyson, dass er glaubt KI wird Menschen als Haustiere domestizieren.
Hinton sagt, wir werden genauso gehalten, wie wir Tiger in der Nähe halten.
„Ich verstehe nicht, warum sie es nicht tun würden. Aber wir werden die Dinge nicht mehr kontrollieren“, sagte er.
Wie es passiert6:47„Godfather of AI“ erhält Nobelpreis für Arbeit an der Entwicklung einer Technologie, die er jetzt fürchtet
Und wenn die Menschen der Unterhaltung nicht genug wert sind, glaubt Hinton, dass wir vollständig ausgelöscht werden könnten, obwohl er nicht glaubt, dass es hilfreich ist, das Ratespiel darüber zu spielen, wie die Menschheit ihr Ende finden wird.
„Ich möchte nicht darüber spekulieren, wie sie uns loswerden würden. Es gibt viele Möglichkeiten, das zu tun. Ich meine, ein offensichtlicher Weg ist etwas Biologisches, das sie nicht wie ein Virus befallen würde, aber wer weiß?“
Wie können wir die Kontrolle behalten?
Obwohl die Vorhersagen über den Umfang dieser Technologie und ihren Zeitpunkt variieren können, sind sich die Forscher in der Überzeugung einig, dass Superintelligenz unvermeidlich ist.
Es bleibt die Frage, ob der Mensch in der Lage sein wird, die Kontrolle zu behalten.
Für Hinton liegt die Antwort in der Wahl von Politikern, die der Regulierung von KI eine hohe Priorität einräumen.
„Was wir tun sollten, ist, die Regierungen zu ermutigen, große Unternehmen dazu zu zwingen, mehr Forschung darüber zu betreiben, wie diese Dinge bei ihrer Entwicklung sicher bleiben können“, sagte er.
Clune, der auch als leitender Forschungsberater bei Google DeepMind fungiert, sagt jedoch, dass viele der großen KI-Akteure die richtigen Werte haben und „versuchen, dies auf die richtige Art und Weise zu tun“.
„Was mich viel weniger beunruhigt als die Unternehmen, die es entwickeln, sind die anderen Länder, die aufholen wollen, und die anderen Organisationen, die viel weniger Skrupel haben als meiner Meinung nach die führenden KI-Labore.“
Eine praktische Lösung, die Clune anbietet, besteht ähnlich wie im Atomzeitalter darin, alle wichtigen Akteure der KI zu regelmäßigen Gesprächen einzuladen. Er glaubt, dass alle, die an dieser Technologie arbeiten, zusammenarbeiten müssen, um sicherzustellen, dass sie sicher entwickelt wird.
„Dies ist die größte Datenveröffentlichung, die Menschen in der Geschichte gemacht haben, und sogar größer als die Entwicklung von Atomwaffen“, sagte Clune und deutete an, dass Forscher auf der ganzen Welt, wenn sie sich gegenseitig über ihre Fortschritte auf dem Laufenden halten, bei Bedarf langsamer werden können . notwendig.
„Die Risiken sind extrem hoch. Wenn wir es richtig machen, werden wir enorme Vorteile haben. Und wenn wir es falsch machen, könnten wir über das Ende der menschlichen Zivilisation sprechen.“