Als der California Gouverneur Gavin Newsom im vergangenen Jahr ein Veto SB 1047 – eine staatliche Gesetzesvorlage, ein Veto ein Veto -Veto -Veto -CEO von Redwood Research, Buck Shlegeris, ein Veto ein Veto -Veto -Veto -Veto -CEO von Veto durch die Missachtung der Gefahren der künstlichen Intelligenz des Gouverneurs des Gouverneurs hatte wütend und verblüfft.
„Ich denke, Newsom hat das Interesse seiner großen Spender und anderer geschäftlicher Anhänger auf eine Art und Weise, die ziemlich beschämend ist, eingehalten“, sagte Shlegeris. „SB 1047 wurde von der Mehrheit der Kalifornier, die befragt wurden, unterstützt. Es wurde von der Mehrheit der Experten unterstützt. “
Berkeley ansässig Redwood -ForschungEin Beratungsunternehmen, das sich auf die Minderung der KI -Risiken konzentriert, hofft, dass seine Forschungen in den vielen KI -Unternehmen der Bay Area implementiert werden. Obwohl Shlegeris KI als Technologie ansieht, die unendlich fähig erscheint, glaubt er auch, dass dies existenziell gefährlich sein könnte.
Der Aufstieg der Technologie in den letzten Jahren hat zu unterschiedlichen Meinungen darüber geführt, wie die Technologieindustrie ihr exponentielles Wachstum regulieren sollte. Die Bay Area ist für diese intellektuelle Debatte zwischen denjenigen, die gegen die Regulierung der KI sind, und denen, die glauben, dass sie die Menschheit zum Aussterben verurteilen, auf dem Nullpunkt.
Shlegeris hofft, dass Redwood Research mit Unternehmen wie Google Deep Mind und Anthropic voranschreiten kann, bevor seine schlimmsten Ängste realisiert werden.
Q: Wie würden Sie das Potenzial von KI beschreiben?
A: Ich denke, dass KI das Potenzial hat, eine wirklich transformative Technologie zu sein, noch mehr als Strom. Elektrizität ist das, was Ökonomen als Allzwecktechnologie bezeichnen, wo Sie sie auf Haufen und Haufen verschiedener Dinge anwenden können. Sobald Sie eine Stromeinrichtung haben, wirkt sich dies im Grunde auf jeden Job aus, da Strom eine so bequeme Möglichkeit ist, die Stromversorgung zu bewegen. Und ähnlich denke ich, dass es für die Welt sehr transformativ ist, wenn KI -Unternehmen es schaffen, AIS aufzubauen, die die menschliche Intelligenz ersetzen können.
Die Weltwirtschaft wächst jedes Jahr und die Welt wird reicher. Die Welt wird jedes Jahr technischer und technologisch weiterentwickelt, und dies gilt für immer für immer. Es nahm um die industrielle Revolution zu. Es wird seitdem meist schneller. Und eine große Grenze dafür, wie schnell die Wirtschaft wächst, ist die Grenze dafür, wie viel intellektuelle Arbeitskräfte geleistet werden können, wie viel Wissenschaft und Technologie erfunden werden können und wie effektiv Organisationen ausgeführt werden können. Und derzeit ist dies ein Engpässe bei der menschlichen Bevölkerung. Wenn wir jedoch die Möglichkeit haben, Computer zu verwenden, um das Denken zu tun, ist es plausibel, dass wir sehr schnell massiv beschleunigtes technologisches Wachstum erhalten. Dies mag extrem gute Ergebnisse haben, aber ich denke auch, dass extreme Risiken eingeht.
Q: Was sind diese Risiken? Was ist das Worst-Case-Szenario für KI?
A: Ich möchte nicht buchstäblich über das schlimmste Szenario sprechen. Aber ich denke, dass AIs, die grundlegende Ziele mit der Menschheit falsch ausgerichtet haben, so stark genug werden, dass sie im Grunde genommen die Kontrolle über die Welt ergreifen und dann alle im Verlauf der Nutzung der Welt für ihre eigenen Zwecke töten … ich denke, es ist plausibel Ergebnis.
Q: Das ist sicherlich beängstigend.
A: Ich denke, das Szenario, in dem riesige Roboterarmeen gebaut werden, von Ländern, in denen Roboterarmeen aus dem offensichtlichen Grund wollen, dass sie es mögen, im Kampf gegen Kriege sehr hilfreich zu sein. Aber dann werden die Roboterarmeen von AIS erweitert, die sich autonom wünschen, dass sie gebaut werden, und kauft sie autonom und bauen autonome Fabriken auf, die sich dann umdrehen und jeden töten können.
Q: Sprechen wir also über eine 1% ige Chance?
A: Mehr als 1%. Ein weiteres schlechtes Ergebnis wäre, ich denke, es ist denkbar, dass jemand von einer KI -Firma die Kontrolle über die Welt übernimmt und sich als Kaiser der Welt ernennt.
Q: Zurück in die Bay Area-spezifische KI-Branche: San Francisco scheint ein Bett von aufstrebenden Giganten im Techsektor zu sein, während Berkeley und Oakland eher ein Hub für Forschung und KI-Sicherheitsbeamte zu sein scheinen. Wie haben sich diese unterschiedlichen Fraktionen in der Bay Area entwickelt?
Es ist größtenteils ein historischer Unfall. Im Grunde genommen gab es in Berkeley im Grunde genommen eine KI -Sicherheitsgemeinschaft in Berkeley, nur weil. Das Machine Intelligence Research Institute (MIRI), das früher in diesem Raum eine große Sache war, hatte aus wie 2007 in Berkeley. Und dann denke ich, dass es nur eine Menge Menschen ist, wie eine Kerngemeinschaft. Ich kenne viele Leute, die in Miri arbeiten. Ich habe dort selbst gearbeitet, und sie waren in Berkeley, und so arbeitete ich für sie, also zog ich nach Berkeley. Eine andere Möglichkeit zu sagen, dass Berkeley seit langem ein Zentrum der rationalistischen Gemeinschaft ist, und viele Menschen, die sich für KI -Sicherheitsforschung interessieren, auf die Sie sich meiner Meinung nach beziehen, sind mit der rationalistischen Gemeinschaft verbunden.
Q: Ich genieße es, eine historische Krawatte zu sehen, die erklärt, wie die Gemeinschaften gewachsen sind, selbst mit einer Technologie wie KI, die nur 30 Jahre zurückreicht.
A: Und der Grund, warum das SF -Zeug in SF ist, ist hauptsächlich, dass VC -Startups historisch gesehen waren. In Berkeley und Oakland gibt es einfach nicht sehr viele große Technologieunternehmen.
Q: Wie führt Silicon Valley in diese Division in AI ein?
A: Wenn ich breite Schläge ziehen würde, sind die großen Unternehmen der großen Silicon Valley – womit ich Google und Apple und Meta meine – wie sie Sachen betrachten. und Kapital? ‚ Nach meiner Erfahrung versuchen diese Unternehmen nur, KI -Fähigkeiten zu verfolgen, weil sie glauben, dass dies für sie in guten Produkten hilfreich sein wird. Die KI -Leute bei Meta, viele von ihnen sind Menschen, die sich kürzlich gerade eingelassen haben. Aber die Leute, die Open AI und Anthropic anfingen, waren wahre Gläubige, die vor Chat -GPT in dieses Zeug eintraten, bevor es offensichtlich war, dass dies kurzfristig eine große Sache sein würde. Und so sehen Sie einen Unterschied, in dem die offenen KI -Menschen und anthropischen Menschen idealistischer sind. Sam Altman sagt seit mehr als einem Jahrzehnt sehr extreme Dinge über KI im Internet. Das gilt weniger für die Meta -Leute.
Q: Denken Sie, dass der Hype, der aus diesen KI -Unternehmen kommt, übertrieben ist – oder unterstreichen sie ihn?
A: Ich denke, dass viele Menschen, insbesondere Tech -Journalisten, die Tendenz haben, ein bisschen zynisch zu sein, wenn sie die KI -Leute darüber sprechen, wie mächtig sie denken, dass sie KI sein könnten. Aber ich mache mir Sorgen, dass dieser Instinkt hier falsch anfängt. Ich denke, dass die KI-Leute ihre Technologie nicht überladen. Mein Gefühl ist, dass die großen KI -Unternehmen, wenn überhaupt, untergraben, was sie tatsächlich bauen, weil sie unglaublich unverantwortlich klingen würden. Ich denke, dass sie manchmal Dinge darüber sagen, wie groß sie für ihre Technologie sein werden, was es verrückt klingt, dass private Unternehmen es entwickeln dürfen. Ich wette, wenn Sie zu diesen Unternehmen gehen würden, würden Sie sie sagen hören, wie verrücktere Dinge öffentlich sagen.
Buck Shlegeris Profil
Titel: CEO von Redwood Research
Alter: 30
Ausbildung: BS in Informatik von der Australian National University
Wohnsitz: Berkeley, Kalifornien.
5 Dinge, die Sie über Buck Shlegeris wissen sollten
- Er hat am Machine Intelligence Research Institute in Berkeley gearbeitet, wo er zur Erforschung der KI -Sicherheitstheorie beigetragen hat.
- Er ist Lehrassistent an der App Academy in San Francisco und plant, seine Einnahmen in der Programmierung zu nutzen, um Wohltätigkeitsorganisationen zu geben, die die Zukunft verbessern.
- Schlegeris stammt aus Australien und wanderte vor 10 Jahren in die USA aus.
- Er ist ein multidisziplinärer Musiker, einschließlich Gitarre, Bass und Saxophon.
- Während des Studiums an der Australia National University unterrichtete er Studenten in Codeprogrammen wie Python, JavaScript und Haskell.
Ursprünglich veröffentlicht: