Der texanische Generalstaatsanwalt Ken Paxton veröffentlichte am Donnerstag eine Untersuchung auf Character.AI und 14 anderen Technologieplattformen zu Fragen der Privatsphäre und Sicherheit von Kindern. Bei der Untersuchung wird bewertet, ob Character.AI – und andere bei jungen Menschen beliebte Plattformen, darunter Reddit, Instagram und Discord – die texanischen Kindersicherheits- und Datenschutzgesetze einhalten.
Paxtons Untersuchung, die für Technologieunternehmen oft hart ist, wird sich mit der Frage befassen, ob diese Plattformen zwei texanische Gesetze eingehalten haben: den Protecting Children Online through Parental Empowerment Act (SCOPE Act) und den Privacy and Security Act Texas Data Agency (DPSA).
Diese Gesetze verpflichten Plattformen, Eltern Tools zur Verwaltung der Datenschutzeinstellungen der Konten ihrer Kinder zur Verfügung zu stellen und zwingen Technologieunternehmen dazu, bei der Erhebung von Daten über Minderjährige strenge Einwilligungsanforderungen einzuhalten. Laut Paxton erstrecken sich beide Gesetze auch auf die Art und Weise, wie Minderjährige mit KI-Chatbots interagieren.
„Diese Untersuchungen sind ein entscheidender Schritt, um sicherzustellen, dass Social-Media- und KI-Unternehmen unsere Gesetze zum Schutz von Kindern vor Ausbeutung und Schaden einhalten“, sagte Paxton in einer Pressemitteilung.
Character.AI, mit dem Sie generative KI-Chatbot-Charaktere einrichten können, mit denen Sie SMS schreiben und chatten können, war kürzlich in eine Reihe von Klagen zum Schutz von Kindern verwickelt. Die KI-Chatbots des Unternehmens fanden bei jüngeren Nutzern schnell Anklang, doch mehrere Eltern behaupteten in Klagen, dass die Chatbots von Character.AI ihren Kindern gegenüber unangemessene und verstörende Kommentare abgegeben hätten.
In einem Fall aus Florida wird behauptet, ein 14-jähriger Junge habe eine romantische Beziehung zu einem Charakter-KI-Chatbot und sagte, er hätte Selbstmordgedanken in den Tagen vor seinem eigenen Selbstmord. In einem anderen Fall in Texas schlug einer der Chatbots von Character.AI angeblich eine vor Ein autistischer Teenager sollte versuchen, seine Familie zu vergiften. Ein anderer Elternteil im Fall Texas behauptet, einer der Chatbots von Character.AI habe seine 11-jährige Tochter in den letzten zwei Jahren sexualisierten Inhalten ausgesetzt.
„Wir prüfen derzeit die Ankündigung des Generalstaatsanwalts. Als Unternehmen nehmen wir die Sicherheit unserer Benutzer sehr ernst“, sagte ein Sprecher von Character.AI in einer Erklärung gegenüber TechCrunch. „Wir begrüßen die Zusammenarbeit mit den Regulierungsbehörden und haben kürzlich angekündigt, dass wir einige der in der Ankündigung erwähnten Funktionen einführen werden, einschließlich der Kindersicherung.“
Character.AI am Donnerstag neue Sicherheitsfunktionen eingeführt Mit dem Ziel, Jugendliche zu schützen, werden diese Aktualisierungen die Chatbots daran hindern, romantische Gespräche mit Minderjährigen zu initiieren. Das Unternehmen hat letzten Monat auch mit der Schulung eines neuen Modells speziell für jugendliche Benutzer begonnen – es hofft, eines Tages Erwachsene ein Modell auf seiner Plattform verwenden zu können, während Minderjährige ein anderes verwenden.
Dies sind nur die neuesten Sicherheitsupdates, die Character.AI angekündigt hat. In derselben Woche, in der die Florida-Klage öffentlich wurde, erklärte das Unternehmen sagte er baute sein Vertrauens- und Sicherheitsteam aus und stellte kürzlich einen neuen Leiter der Abteilung ein.
Wie vorherzusehen war, treten Probleme mit KI-Begleitplattformen auf, während diese immer beliebter werden. Letztes Jahr sagte Andreessen Horowitz (a16z) in a Blog postenDas sah das KI-Unternehmen als einen unterbewerteten Bereich des Verbraucher-Internets an, in den es mehr investieren würde. A16z ist ein Investor in Character.AI und investiert weiterhin in andere KI-Unternehmens-Startups und unterstützte kürzlich a Unternehmen, dessen Gründer die Technologie aus dem Film „Her“ nachbauen möchte.
Reddit, Meta und Discord reagierten nicht sofort auf Anfragen nach Kommentaren.