22. Oktober, 2024

Technologie

Meta intensiviert Gesichtserkennungstests gegen Promi-Betrugsanzeigen

Meta intensiviert Gesichtserkennungstests gegen Promi-Betrugsanzeigen

Meta, das Mutterunternehmen von Facebook, hat bekanntgegeben, dass es seine Gesichtserkennungstests als Maßnahme gegen betrügerische Anzeigen mit Prominenten ausweitet. Diese Initiative zielt darauf ab, den Missbrauch von Bildern öffentlicher Personen für sogenannte "celeb-bait"-Anzeigen zu reduzieren, indem neue Technologien zur Erkennung solcher betrügerischer Inhalte eingesetzt werden.

Monika Bickert, Vice President für Inhaltsrichtlinien bei Meta, erläuterte in einem Blogbeitrag, dass die Tests die vorhandenen Anti-Betrugsmaßnahmen verbessern sollen. Die automatisierten Überprüfungen, die bereits Teil des Anzeigensystems sind, sollen durch den Einsatz von Machine-Learning-Klassifizierern verstärkt werden. Dadurch wird es Betrügern erschwert, mit fingierten Anzeigen Facebook- und Instagram-Nutzer auszutricksen und auf betrügerische Webseiten zu führen.

Besonders im Fokus stehen Anzeigen, die Bilder von Prominenten verwenden, um Nutzer dazu zu verleiten, persönliche Informationen preiszugeben oder Geld zu überweisen. Gesichtserkennung soll hier helfen, die Anzeigen zu überprüfen. Stellt sich heraus, dass ein Bild gefälscht ist, wird die Anzeige blockiert.

Meta betont, dass die Gesichtserkennung ausschließlich zur Bekämpfung von Betrugsanzeigen verwendet wird. Alle gewonnenen Gesichtsdatendaten werden sofort nach der Überprüfung gelöscht, unabhängig davon, ob ein Betrug festgestellt wurde. Die bisherigen Tests mit einer kleinen Gruppe von Prominenten zeigten vielversprechende Verbesserungen bei der Erkennung solcher Anzeigen.

Interessanterweise erfolgt dieser Vorstoß zur Gesichtserkennung zu einem Zeitpunkt, an dem Meta parallel große Anstrengungen unternimmt, um generative KI-Modelle zu entwickeln, die ebenfalls umfangreiche Nutzerdaten erfordern.