Glauben Sie, Sie hätten auf Facebook oder Instagram vielleicht jemanden „attraktiv, ledig und erfolgreich“ getroffen? Vielleicht möchten Sie noch einmal nachdenken, sagt Meta. Vor dem Valentinstag warnt das Unternehmen die Benutzer erneut, sich nicht abzuheben Romantik betrügt.
Diese Art von Zeitplänen, in denen Betrüger fiktive Identitäten erstellen, um Online -Beziehungen zu ahnungslosen Opfern aufzubauen, sind nicht gerade neu. (Die FTC sagt, die Menschen haben mehr als verloren als eine halbe Milliarde Dollar Zu Romantik betrügt im Jahr 2021.) Aber die Menschen hinter diesem Betrug sind anscheinend anhaltend anhaltend. Meta sagt, dass es bereits mehr als 116.000 Konten und Seiten auf Facebook und Instagram im Jahr 2025 gelöscht hat, die mit dem romantischen Betrug verbunden waren. Im Jahr 2024 entfernte es mehr als 408.000 von solchen Konten.
Laut Meta kommen diese Betrügerberichte oft aus westafrikanischen Ländern mit Betrüger, die als Mitglieder des amerikanischen Militärs oder berühmten Prominenten auftreten. In beiden Fällen werden sie behaupten, „nach Liebe zu suchen“, und sie werden Gespräche mit Menschen auf Facebook, Instagram und WhatsApp sowie anderen Nachrichten beginnen. Letztendlich fordert der Betrüger Geschenkgutscheine, Krypto oder andere Arten von Zahlungen an.
Meta hat Schritte unternommen, um diese Art von Zeitplänen zu bekämpfen. Das Unternehmen sagte, es würde es letztes Jahr zurückbringen Gesichtserkennung Technologie, um die Nachahmung von Prominenten anzugehen. Es arbeitet auch mit anderen Unternehmen zusammen, um sie zu schließen Organisierte Gruppen Von Betrügern. Trotzdem bemerkte David Agranovich, Direktor für Bedrohungsstörungen bei Meta, dass „Betrüger sich ständig entwickeln“.
Forscher sagen auch, dass AI es Betrüger noch einfacher gemacht hat, überzeugende fiktive Identitäten zu übernehmen. „In den letzten drei oder vier Monaten gibt es einige verschiedene Tools, die dort frei sind, sie sind zugänglich, sie sind einfach zu bedienen und ermöglichen es dem Angreifer, seine Gesichter dynamisch innerhalb des Videos zu verwandeln“, sagte Rachel Tobac CEO von sozialsicherer Sicherheit während eines Anrufs mit Reportern. „Sie können diese DeepFake -Bots auch verwenden, mit denen Sie eine Persona bauen, Telefonanrufe tätigen, einen Sprachklon verwenden können und eine Person nicht einmal involviert sein muss.“