Start IT/Tech In Bewegung des Feuer

In Bewegung des Feuer

12
0
Chatbot icon on the digital futuristic blue wavy background. 3d Illustration with bright colors and pixelated technology.

Die Charakter -KI, eine Plattform, mit der Benutzer mit AI -Chatbots in Rollenspiel beteiligen können, hat stellte eine Antrag auf Feuer vor Ein Fall, der gegen den Vater eines Teenagers vorgestellt wurde, der Selbstmord begangen hat, angeblich nachdem er der Technologie des Unternehmens abhängig war.

Im Oktober Megan Garcia reichte eine Klage gegen die Charakter AI ein Vor dem US -Bezirksgericht für den Middle District in Florida, Orlando Division, über den Tod seines Sohnes Sewell Setzer III. Laut Garcia entwickelte sein 14-jähriger Sohn eine emotionale Bindung an einen Chatbot an der Charakter-KI „Dany“, die er ihr ständig schickte, um sich von der realen Welt zu entfernen.

Nach dem Tod von Setzzers dort der Charakter dort sagte er Es würde mehrere neue Sicherheitsfunktionen auf den Markt bringen, einschließlich Erkennung, Reaktion und Intervention im Zusammenhang mit Interventionen im Zusammenhang mit dem Chat, die gegen ihre Nutzungsbedingungen verstoßen. Aber Garcia kämpft für zusätzliche Erziehungsberechtigte, einschließlich Änderungen, die zu Chatbots im Charakter führen können, wenn sie ihre Fähigkeit verliert, Geschichten und persönliche Anekdoten zu erzählen.

In dem Antrag auf Feuer sagt der Charakteranwalt, dass die Plattform gegen die Verantwortung für die erste Änderung geschützt ist. Genau wie der Computercode ist. Der Antrag kann einen Richter nicht überzeugen, und die rechtlichen Begründungen des Charakters können sich im Laufe des Falls ändern. Aber die Bewegung deutet möglicherweise auf die ersten Elemente der Verteidigung des Charakters hin.

„Die erste Änderung verbietet die Verantwortung von Verbrechen gegen Medien- und Technologieunternehmen, die sich aus einem angeblich schädlichen Diskurs ergeben, einschließlich der Rede, die angeblich zu Selbstmord führt“, heißt es in der Einreichung. „Der einzige Unterschied zwischen diesem Fall und denjenigen, die zuvor kamen, ist der Teil der Rede ist die KI. Der Kontext des ausdrucksstarken Diskurses – ob ein Gespräch mit einem KI -Chatbot oder einer Interaktion mit einem Videospielcharakter – die Analyse der ersten Änderung nicht ändert. ”

Der Antrag befasst sich nicht, ob die AMA des Charakters gemäß Abschnitt 230 des Kommunikationsdekrets, dem Hafen sicheren Bundesgesetz, das soziale Medien und andere Online -Plattformen vor Inhaltsverantwortung Dritter schützt, harmlos gehalten werden kann. DER Die Autoren des Gesetzes impliziert Dieser Abschnitt 230 schützt die KI -Produktion nicht wie KI -Chatbots, aber es ist Weit entfernt von einem rechtlichen Thema gelöst.

Der Anwalt des Charakters gibt auch an, dass Garcias wahre Absicht darin besteht, den dort ausgeschalteten Charakter und die unmittelbare Gesetzgebung, die Technologien wie diese reguliert, auszuschalten. Wenn die Kläger erfolgreich waren, wird es einen „erschreckenden Effekt“ in der KI des Charakters und in der gesamten generativen Industrie der KI haben, sagt der Anwalt der Plattform.

„Zusätzlich zu der deklarierten Absicht des Anwalts, die Charakter -KI zu schließen, sucht (die Denunziation) drastische Veränderungen, die die Natur und das Sprachvolumen auf der Plattform wesentlich einschränken würden“, heißt es in der Archivierung. Benutzer generieren und an Gesprächen mit Charakteren teilnehmen. „

Der Prozess, der auch den Charakter des kontrollierenden Unternehmens von AI Alphabet als Angeklagter nennt, ist nur einer von mehreren Prozessen, mit denen der Charakter die Art und Weise gegenübersteht, wie die Minderjährigen mit dem von AI auf seiner Plattform generierten Inhalt interagieren. Andere Tatsachen behaupten, dass der Charakter dort ausgesetzt ist Ein 9 -jähriger Junge für „hypersexualisierte Inhalte“ und förderte Selbsthilfe zu ein 17 -jähriger Benutzer.

Im Dezember kündigte der texanische Anwalt Ken Paxton an, dass dies der Fall war Einführung einer Untersuchung In dem Charakter, den ich war, und 14 weitere Technologieunternehmen wegen mutmaßlicher Verstöße gegen die Datenschutz- und Sicherheitsgesetze des Staates für Kinder. „Diese Untersuchungen sind ein wichtiger Schritt, um sicherzustellen, dass Social Media und KI -Unternehmen unsere Gesetze entsprechen, um Kinder vor Ausbeutung und Schäden zu schützen“, sagte Paxton in einer Pressemitteilung.

Die Charakter -AI ist Teil von a Boomend Industrie von Dort Unternehmen Anwendungen – Wessen Auswirkungen auf die psychische Gesundheit sind weithin nicht untersucht. Einige Experten äußerten Bedenken Mögen diese Anwendungen das Gefühl von Einsamkeit und Angst verschlimmern.

Charakter dort, das 2021 von Google Researcher Noam gegründet wurde und das angeblich 2,7 Milliarden US -Dollar für “gezahlt hat“Umkehrer AkquisitionEr sagte, er unternehme weiterhin Maßnahmen zur Verbesserung der Sicherheit und Mäßigung. Im Dezember das Unternehmen gestartet Neue Sicherheitsinstrumente, ein separates KI -Modell für Jugendliche, sensible Inhaltsblöcke und wichtigere Ausnahmen für Verantwortung, indem sie Benutzern benachrichtigen, dass ihre KI -Charaktere keine echten Menschen sind.

Der Charakter dort unterzog sich mehrere Personalveränderungen, nachdem Ochou und der andere Mitbegründer des Unternehmens, Daniel de Freitas,, zu Google überlassen. Die vertragliche Plattform Eine Ex -Executive von YouTubeErin Teague als Produktdirektor und ernannte Dominic Perella, der Generalberater für den Charakter, CEO Interim.

Ai Kürzlich begann, Spiele im Web zu testen Um die Benutzerbeteiligung und -bindung zu erhöhen.

Quelle link