Die fortschreitende Entwicklung von Künstlicher Intelligenz (KI) birgt neben Innovationen auch Risiken, vor allem bei der Erzeugung und Kennzeichnung von KI-generierten Inhalten. Eine von der Internet-Stiftung Mozilla veröffentlichte Studie legt offen, dass die aktuell genutzten Methoden zur Auszeichnung von Bildern, Videos und Audioaufnahmen Mängel aufweisen. Sichtbare Markierungen, die auf die KI-Herkunft der Inhalte deuten, sind oft nicht nur schwer erkennbar, sondern könnten auch irreführend sein und sich mit geringem Aufwand entfernen lassen.
Der Mozilla-Bericht hebt hervor, dass technische Wasserzeichen als Lösung zwar robuster sind, jedoch auch ihre Limitationen aufweisen, da sie erst von spezieller Software auf den Endgeräten der Nutzer verarbeitet werden müssen, um sichtbar zu sein. Angesichts dieser Defizite mahnt Ramak Molavi Vasse'i, Mozilla-Forscherin, zu Achtsamkeit. Insbesondere Deepfakes, die gezielt zur Irreführung entwickelt werden, stellen eine Herausforderung dar und könnten einer effektiven Selbstregulierung der Branche im Weg stehen.
Der Druck auf die Entwicklung von Sicherheitskonzepten gegen böswillige Nutzung von KI wächst, zumal bisher keine einheitlichen Standards existieren. Aktuell wird KI-Software zunehmend eingesetzt, um aus Textbeschreibungen realistische Visualisierungen zu erstellen. OpenAI, bekannt für den Chatbot ChatGPT, präsentierte jüngst mit Sora eine Software, die auch Videos erschafft. Die dabei eingesetzte sichtbare KI-Markierung, so kritisiert die Mozilla-Expertin, sei häufig unauffällig und schwer zu erkennen.
Die Bedenken sind vor dem Hintergrund der anstehenden US-Präsidentschaftswahl und der Europawahl besonders gravierend. Es besteht die Befürchtung, dass manipulierte Inhalte den Ausgang dieser wichtigen Wahlen beeinflussen könnten. Ein konkretes Beispiel aus den USA zeigt, wie authentisch anmutende Stimmen von Politikern in automatisierten Anrufen verwendet werden, um Bürger von der Wahlteilnahme abzuhalten.
Audiofälschungen sind besonders heimtückisch, da es schwieriger ist, sie zu enttarnen. Schon jetzt wurden Fälle dokumentiert, in denen überzeugende Stimmenimitationen im Rahmen des sogenannten Enkel-Tricks genutzt wurden, um Betrügereien zu begehen.