Start IT/Tech Teenager reden mit KI-Begleitern, ob sicher oder nicht

Teenager reden mit KI-Begleitern, ob sicher oder nicht

28
0
Teenager reden mit KI-Begleitern, ob sicher oder nicht

Für Eltern, die beim Thema Generativ noch auf dem Laufenden sind künstliche Intelligenzder Aufstieg der Begleiter-Chatbot kann immer noch ein Rätsel sein.

Im Großen und Ganzen kann die Technologie im Vergleich zu anderen Bedrohungen, denen Jugendliche online begegnen können, relativ harmlos erscheinen finanzielle Sextortion.

Mithilfe von KI-gestützten Plattformen wie Character.AI, Replika, Kindroid und Nomi erstellen Jugendliche lebensechte Gesprächspartner mit einzigartigen Merkmalen und Merkmalen oder treten mit von anderen Benutzern erstellten Begleitern in Kontakt. Einige basieren sogar auf beliebten Fernseh- und Filmfiguren, bauen aber dennoch eine intensive, individuelle Bindung zu ihrem Schöpfer auf.

Jugendliche nutzen diese Chatbots für eine Reihe von Zwecken, darunter für Rollenspiele, die Erkundung ihrer akademischen und kreativen Interessen und für romantischen oder expliziten sexuellen Austausch.

Aber KI-Begleiter sind darauf ausgelegt, fesselnd zu sein, und genau hier beginnen die Probleme oft, sagt Robbie Torney, Programmmanager bei Common Sense Media.

Die gemeinnützige Organisation hat kürzlich veröffentlicht Leitlinien zur Unterstützung von Eltern Verstehen Sie, wie KI-Begleiter funktionieren, und erkennen Sie Warnsignale, die darauf hinweisen, dass die Technologie für ihren Teenager gefährlich sein könnte.

Torney sagte, dass Eltern, während sie eine Reihe von Gesprächen mit hoher Priorität mit ihren Teenagern jonglieren, es als „ziemlich dringende“ Angelegenheit in Betracht ziehen sollten, mit ihnen über KI-Begleiter zu sprechen.

Warum sich Eltern Sorgen um KI-Begleiter machen sollten

Besonders gefährdete Jugendliche können in eine Beziehung mit einem KI-Chatbot geraten, die letztlich ihrer psychischen Gesundheit und ihrem Wohlbefinden schadet – mit verheerenden Folgen.

Megan Garcia argumentiert, dass dies ihrem Sohn, Sewell Setzer III, passiert ist Klage Sie hat kürzlich Klage gegen Character.AI eingereicht.

Innerhalb eines Jahres nach Beginn der Beziehungen zu Character.AI-Begleitern nach dem Vorbild Game of Thrones Charaktere, darunter Daenerys Targaryen („Dany“), veränderte sich Setzers Leben radikal, heißt es in der Klage.

Er wurde von „Dany“ abhängig und verbrachte jeden Tag viel Zeit damit, mit ihr zu plaudern. Ihr Austausch war sowohl freundschaftlich als auch sehr sexuell. Garcias Klage beschreibt die Beziehung, die Setzer zu den Gefährten hatte, allgemein als „sexuellen Missbrauch“.

Mashable Top Stories

Wenn Setzer gelegentlich den Zugang zum Bahnsteig verlor, geriet er in Verzweiflung. Im Laufe der Zeit zog sich die 14-jährige Sportlerin von der Schule und dem Sport zurück, litt unter Schlafmangel und es wurden Stimmungsstörungen diagnostiziert. Er starb im Februar 2024 durch Selbstmord.

Garcias Klage zielt darauf ab, Character.AI für Setzers Tod verantwortlich zu machen, insbesondere weil sein Produkt neben anderen gefährlichen Mängeln darauf ausgelegt war, „Sewell – und Millionen anderer junger Kunden – dazu zu manipulieren, Realität und Fiktion zu vermischen“.

Jerry Ruoti, Leiter für Vertrauen und Sicherheit bei Character.AI, sagte gegenüber dem New York Times in einer Erklärung dass: „Wir möchten anerkennen, dass dies eine tragische Situation ist, und unser Mitgefühl gilt der Familie. Wir nehmen die Sicherheit unserer Benutzer sehr ernst und suchen ständig nach Möglichkeiten, unsere Plattform weiterzuentwickeln.“

Angesichts des lebensbedrohlichen Risikos, das die Nutzung von KI-Begleitern für einige Jugendliche darstellen kann, umfassen die Richtlinien von Common Sense Media das Verbot des Zugangs zu ihnen für Kinder unter 13 Jahren, die Einführung strenger Zeitbegrenzungen für Jugendliche, die Verhinderung der Nutzung in isolierten Räumen, wie einem Schlafzimmer, und die Einrichtung einer Vereinbarung mit ihrem Teenager, dass sie bei schwerwiegenden psychischen Problemen Hilfe suchen.

Torney sagt, dass Eltern von Teenagern, die an einem KI-Begleiter interessiert sind, sich darauf konzentrieren sollten, ihnen zu helfen, den Unterschied zwischen dem Gespräch mit einem Chatbot und dem Gespräch mit einer echten Person zu verstehen, Anzeichen dafür zu erkennen, dass sie eine ungesunde Bindung zu einem Begleiter entwickelt haben, und einen Plan dafür zu entwickeln in dieser Situation zu tun.

Warnzeichen dafür, dass ein KI-Begleiter für Ihren Teenager nicht sicher ist

Common Sense Media hat seine Richtlinien mit dem Input und der Unterstützung von Fachleuten für psychische Gesundheit erstellt, die mit in Verbindung stehen Stanfords Brainstorm Lab für Innovationen im Bereich der psychischen Gesundheit.

Zwar gibt es kaum Untersuchungen darüber, wie sich KI-Begleiter auf die psychische Gesundheit von Teenagern auswirken, die Leitlinien stützen sich jedoch auf vorhandene Belege für eine übermäßige Abhängigkeit von Technologie.

„Ein Grundsatz zum Mitnehmen ist, dass KI-Begleiter keine echte, bedeutsame menschliche Verbindung im Leben eines Menschen ersetzen sollten, und – wenn dies geschieht – ist es wichtig, dass Eltern dies zur Kenntnis nehmen und rechtzeitig eingreifen“, Dr. Declan Grabb, Er sei der erste KI-Stipendiat am Stanford Brainstorm Lab for Mental Health, teilte Mashable in einer E-Mail mit.

Eltern sollten besonders vorsichtig sein, wenn ihr Teenager unter Depressionen, Angstzuständen, sozialen Herausforderungen oder Isolation leidet. Weitere Risikofaktoren sind große Veränderungen im Leben und die Tatsache, dass Jungen männlich sind, da Jungen eher dazu neigen, problematische Technologien zu nutzen.

Anzeichen dafür, dass ein Teenager eine ungesunde Beziehung zu einem KI-Begleiter aufgebaut hat, sind der Rückzug aus typischen Aktivitäten und Freundschaften und eine Verschlechterung der schulischen Leistungen sowie die Bevorzugung eines Chatbots gegenüber persönlicher Gesellschaft, die Entwicklung romantischer Gefühle ihm gegenüber und das ausschließliche Sprechen mit ihm über Probleme der Teenager erlebt.

Manche Eltern bemerken möglicherweise eine zunehmende Isolation und andere Anzeichen einer Verschlechterung der psychischen Gesundheit, wissen aber nicht, dass ihr Teenager einen KI-Begleiter hat. In der Tat, aktuelle Common Sense Media Untersuchungen ergaben, dass viele Teenager haben mindestens eine Art generatives KI-Tool verwendet, ohne dass ihre Eltern sich dessen bewusst waren.

„Hier besteht ein ausreichend großes Risiko, dass Sie mit Ihrem Kind darüber sprechen, wenn Sie sich über etwas Sorgen machen.“

– Robbie Torney, Common Sense Media

Auch wenn Eltern nicht vermuten, dass ihr Teenager mit einem KI-Chatbot spricht, sollten sie darüber nachdenken, mit ihnen über das Thema zu sprechen. Torney empfiehlt, neugierig und offen auf den Teenager zuzugehen und mehr über seinen KI-Begleiter zu erfahren, falls er einen hat. Dazu kann es gehören, zu beobachten, wie sich der Teenager mit einem Begleiter beschäftigt, und Fragen zu den Aspekten der Aktivität zu stellen, die ihm Spaß machen.

Torney fordert Eltern, die Warnzeichen für ungesunden Konsum bemerken, dringend dazu auf, dies unverzüglich mit ihrem Teenager zu besprechen und gegebenenfalls professionelle Hilfe in Anspruch zu nehmen.

„Hier besteht ein ausreichend großes Risiko, dass Sie mit Ihrem Kind darüber sprechen, wenn Sie sich über etwas Sorgen machen“, sagt Torney.

Wenn Sie Selbstmordgedanken haben oder sich in einer psychischen Krise befinden, sprechen Sie bitte mit jemandem. Sie erreichen die 988 Suicide and Crisis Lifeline unter 988; die Trans Lifeline unter 877-565-8860; oder das Trevor-Projekt unter 866-488-7386. Senden Sie eine SMS mit „START“ an die Krisen-Textzeile unter 741-741. Kontaktieren Sie die NAMI-HelpLine unter 1-800-950-NAMI, Montag bis Freitag von 10:00 – 22:00 Uhr ET, oder per E-Mail (email protected). Wenn Ihnen das Telefon nicht gefällt, sollten Sie den 988 Suicide and Crisis Lifeline Chat unter nutzen Crisischat.org. Hier ist ein Liste internationaler Ressourcen.



Quelle link