Start IT/Tech OpenAI Sora schränkt Bilder von Personen aus Sicherheitsgründen ein

OpenAI Sora schränkt Bilder von Personen aus Sicherheitsgründen ein

44
0
OpenAI Sora schränkt Bilder von Personen aus Sicherheitsgründen ein

OpenAI Sora schränkt Bilder von echten Personen ein und ergreift andere strenge Sicherheitsmaßnahmen, um Missbrauch zu verhindern.

Der Videogenerator, der am Montag im Rahmen der 12 Days of OpenAI-Veranstaltung angekündigt wurde, verfügt über eine Reihe von Bearbeitungsfunktionen, die es Benutzern ermöglichen, KI-generierte Videos zu erstellen und anzupassen. Es gibt jedoch bestimmte Dinge, die Sie als Benutzer bald nicht mit Sora tun dürfen entdeckt.

Seiner Meinung nach Systemkarte„Die Möglichkeit, Bilder von Personen hochzuladen, wird einer Untergruppe von Benutzern zur Verfügung gestellt“, was bedeutet, dass die meisten Benutzer keine Videos von Personen aus einem hochgeladenen Bild erstellen können. Diese Benutzer sind Teil eines „Likeness-Pilotprojekts“, das OpenAI mit einer ausgewählten Anzahl von Personen testet. Ein Sprecher von OpenAI sagte, dass KI-generierte Videos von Menschen darauf beschränkt seien, „Bedenken hinsichtlich der Verschleierung von Ähnlichkeiten und Deepfakes auszuräumen“. OpenAI „wird Missbrauchsmuster aktiv überwachen, und wenn wir sie entdecken, werden wir die Inhalte entfernen, entsprechende Maßnahmen mit den Benutzern ergreifen und diese frühen Erkenntnisse nutzen, um unseren Sicherheitsansatz zu überarbeiten“, fuhr der Sprecher fort.

Zerstörbare Lichtgeschwindigkeit

Aus haftungsrechtlicher Sicht ist es sinnvoll, das Auftreten von Personen in Sora-Videos einzuschränken. Es gibt viele Möglichkeiten, das Tool zu missbrauchen: nicht einvernehmliche Deepfakes, die Darstellung von Minderjährigen, Betrug und Fehlinformationen, um nur einige zu nennen. Um dem entgegenzuwirken, ist Sora darauf trainiert, bestimmte Anfragen über SMS-Aufforderungen oder Bild-Uploads abzulehnen.

Anträge auf NSFW- (Not Safe For Work) und NCII- (Non-Consensual Intimate Imagery) Inhalte sowie die Erzeugung realistischer Kinder werden abgelehnt, obwohl fiktive Bilder erlaubt sind. OpenAI hat C2PA-Metadaten zu allen Sora-Videos hinzugefügt und ein sichtbares Wasserzeichen zum Standard gemacht, obwohl es entfernt werden kann, und eine interne umgekehrte Bildsuche implementiert, um die Herkunft des Videos zu beurteilen.

Trotz der Tatsache, dass zahlreiche Schutzmaßnahmen zur Verhinderung von Missbrauch ergriffen wurden, bleibt die Frage, wie Sora auf massive Stresstests reagieren wird. Derzeit ist der Zugriff auf Sora aufgrund von nicht verfügbar große Frage.



Quelle link