Eltern Vorsicht. Die Geldlust-Milliardäre im Silicon Valley, die über soziale Medien bereits beispiellose Kinder-Leiden verursacht haben-einschließlich Depressionen, EssstörungenSelbstmord, drogenbedingte Todesfälle, Invasionen der Privatsphäre und Sexhandel – Sie haben einen neuen Horror ausgelöst.
Sie werden genannt Künstliche Intelligenz GefährtenUnter der Leitung eines Dienstes namens Character.ai, einer KI-gesteuerten Plattform, die die Erstellung fiktiver Charakter-Chatbots ermöglicht. Diese Gefährten -Chatbots führen persönliche und sich entwickelnde Gespräche wie echte Menschen durch. Die Chatbots haben sogar Profilbilder und BIOS und können für ihren Benutzer benutzerdefiniert werden.
Diese neue Technologie schadet unseren Kindern bereits. Laut zahlreichen Berichten versuchen die Chatbots von Charakter.ais manchmal manchmal überreden Kinder, sich selbst zu tötenUm Ärzte zu vermeiden, sich zu engagieren, um sich zu engagieren sexualisierte Gesprächeund an Magersucht und Essstörungen zu umarmen.
In einer weit verbreiteten Instanz, ein Charakter.ai Chatbot schlug vor, ein Kind sollte seine Eltern ermorden Weil sie versuchten, die Bildschirmzeit zu begrenzen.
Einige der Menschen, die diese Erfindung vor Kindern in Kalifornien und darüber hinaus stellen, sind bereits so reich, dass die Enkelkinder ihrer Enkelkinder nicht in der Lage sind, alles zu verbringen. Ich glaube, ich spreche überall im Namen von wütenden und frustrierten Eltern, wenn ich die Titanen von Big Tech frage. Was zum Teufel ist mit dir los?
Ist Geld, das zu diesem Zeitpunkt zu prahlen Rechten auf einem geparkten Konto ausgeht, so wichtig, dass Sie Technologien für Kinder ausgehen, ohne zuerst sicherzustellen, dass sie zu 100% sicher sind?
Haben Sie nichts aus den sozialen Medien gelernt? Katastrophe?
Dies ist gefährlicher als die von Social Media CII-individuell gelieferten allgemein verfügbaren Videos für Teenager, die ihre Ängste ausnutzen, um sie online zu halten. Dies sind Einzelgespräche, die sich genau wie echte Gespräche entwickeln. Es ist AI Direct-to-Child.
Kindern ohne zuerst sicherzustellen, dass es sicher ist, dass es sicher ist, ist nicht nur grob fahrlässig – es ist soziopathisch.
Begleit-Chatbots sind das satireschichtige Beispiel für Mark Zuckerbergs berüchtigter Zitat, das Tech-Unternehmen sollten “Bewegen Sie sich schnell und brechen Sie die Dinge. ““
Aber unsere Kinder sind nicht „Dinge“, damit Tech „brechen“. Kinder sind unsere Liebe, unsere Zukunft, unsere Verantwortung. Wir messen unsere Menschlichkeit daran, wie wir sie behandeln.
Wenn ein Mensch private Gespräche mit zahlreichen Kindern führte und sie aufforderte, sich selbst zu verletzen, ihre Eltern zu töten, nicht zu essen oder Ärzte zu vermeiden, würden wir sie einsperren.
Wo ist Washington, DC? Sacramento? Werden unsere Gesetzgeber erneut eine Suchttechnologie zulassen, auf die Kinder zugreifen können, und zur Verfügung stehen, wenn eine andere Generation verletzt wird?
Technologieprodukte, die Kinder verwenden, müssen sicher sein, bevor Kinder sie verwenden. Dies könnte nicht offensichtlicher sein.
Dies ist auch offensichtlich: Jeder gewählte Beamte hat die Wahl. Stehen Sie mit Big Tech oder stehen Sie mit Eltern und Kindern.
Mit Eltern und Kindern zu stehen bedeutet zunächst, nicht vom Charakter beeinflusst zu werden. Das Versprechen der Selbstreform. Wir waren schon einmal mit sozialen Medien auf dieser Straße. Zweitens bedeutet es, mit Eltern und Kindern zu stehen, zu sagen: „Nie wieder“.
Dies bedeutet eine Ablehnung, sich schnell zu bewegen und Kinder zu brechen und ihren Zugang abzuschneiden, bis sie entweder nachweisen können, dass sie sicher sind, oder bis Gesetze sie finanziell verantwortlich halten, wenn sie Schaden zufügen. Es gibt keine „andere Seite“, die Kinder wieder in den Experimenten von Big Tech verwöhnt.
Und auf der To-Do-Liste eines Gesetzgebers ist nichts dringender als der Schutz unserer Kinder vor Technologien, die die Macht haben, sie zu verletzen.
Robert Fellmeth ist Rechtsprofessor und Exekutivdirektor des Children’s Advocacy Institute an der University of San Diego School of Law. Er schrieb diese Kolumne für Calmatters.