19. September, 2024

KI

Millionengeschäft mit Stimmenklonen: Bank warnt vor KI-basierten Betrugsmaschen

Millionengeschäft mit Stimmenklonen: Bank warnt vor KI-basierten Betrugsmaschen

Die Starling Bank, eine nur online operierende Bank aus Großbritannien, warnt eindringlich vor der Gefahr, dass Millionen von Menschen Opfer von Betrügereien durch künstliche Intelligenz werden könnten, die Stimmen nachahmt. Betrüger sollen laut der Bank in der Lage sein, aus lediglich drei Sekunden aufgenommenem Audiomaterial eine Stimme täuschend echt zu rekonstruieren, beispielsweise aus einem auf sozialen Medien geposteten Video. Mit dieser Klonstimme könnten sie dann Freunde und Familienmitglieder des Betroffenen anrufen und um Geld bitten.

Bereits Hunderte Menschen sind von solchen Betrugsmaschen betroffen, wie es weiter heißt. Eine Umfrage unter mehr als 3.000 Erwachsenen, die von der Bank in Zusammenarbeit mit Mortar Research letzten Monat durchgeführt wurde, ergab, dass mehr als ein Viertel der Befragten in den letzten zwölf Monaten Ziel eines solchen KI-Stimmenklon-Betrugs waren.

Erschreckenderweise zeigte die Umfrage ebenfalls, dass 46% der Befragten nicht wussten, dass solche Betrugsarten existieren, und dass 8% dazu bereit wären, Geld zu überweisen, wenn ein Freund oder Familienmitglied sie während eines verdächtigen Anrufs darum bitten würde.

Lisa Grahame, Chief Information Security Officer bei Starling Bank, erklärt in der Pressemitteilung: "Menschen posten regelmäßig Inhalte online, die Aufzeichnungen ihrer Stimme enthalten, ohne je zu ahnen, dass sie sich dadurch anfälliger für Betrüger machen."

Die Bank rät dazu, mit vertrauten Personen eine „sichere Phrase“ zu vereinbaren – eine einfache, zufällige Phrase, die leicht zu merken ist und sich von anderen Passwörtern unterscheidet –, um ihre Identität am Telefon zu verifizieren. Dabei solle vermieden werden, diese Phrase per Nachricht zu teilen. Falls dies unumgänglich sei, sollte die Nachricht nach dem Lesen umgehend gelöscht werden, um das Risiko zu minimieren.

Mit der stetigen Weiterentwicklung der Künstlichen Intelligenz zur Nachahmung menschlicher Stimmen wachsen auch die Bedenken hinsichtlich ihres Missbrauchspotenzials, das von der unrechtmäßigen Erlangung von Bankzugängen bis zur Verbreitung von Falschinformationen reicht.