Das Digitalunternehmen Meta adressiert eine neue Herausforderung in der Welt der Sozialen Medien: die Zunahme täuschend echter KI-Inhalte. Aufmerksamkeit und Achtsamkeit sind gefordert, und das Unternehmen unter der Leitung von Nick Clegg hat entschieden, dass Nutzer künftig eine Vorwarnung aussprechen müssen, wenn sie mittels Künstlicher Intelligenz erstellte Videos oder Audiodateien teilen. Versäumnisse in dieser Hinsicht könnten zu unangenehmen Konsequenzen führen. Diese Maßnahme zielt darauf ab, eine Transparenz bei der Verwendung von KI-generierten Inhalten auf Plattformen wie Facebook, Instagram und WhatsApp zu gewährleisten.
Die Dringlichkeit für diese Maßnahme verdeutlicht Clegg anhand der noch nicht weit verbreiteten Praxis, unsichtbare Wasserzeichen in KI-generierten Videos und Tonaufnahmen zu integrieren – im Gegensatz zu Fotos. Diese sind zwar vorhanden, aber nicht immun gegen Manipulation. Meta strebt danach, Wasserzeichen unentfernbar zu machen, indem sie integraler Bestandteil des Erstellungsprozesses werden. Gleichzeitig wird an der Entwicklung von Technologien gefeilt, die automatisch KI-kreierte Medien identifizieren.
Die Notwendigkeit für solche Vorsichtsmaßnahmen zeigte sich jüngst in den USA, wo automatisierte Anrufe unter falscher Flagge dafür warben, nicht an einer Vorwahl teilzunehmen, und damit die Integrität demokratischer Prozesse potenziell bedrohten. Angesichts solcher Ereignisse könnte die Authentizität von Kommunikation rund um wichtige politische Ereignisse untergraben werden.
Metas Initiative ist Teil einer Branchenweiten Bestrebung, Standards für KI-generierte Medien zu etablieren. Mithilfe dieser Standards sollen auf den eigenen Apps, darunter Facebook, Instagram und Threads, KI-Bilder in allen unterstützten Sprachen gekennzeichnet werden. Meta betont, dass ihre eigenen KI-Software-Anwendungen, die aus Textbeschreibungen Bilder erzeugen, bereits sowohl mit sichtbaren als auch mit unsichtbaren Markierungen arbeiten, um Authentizität und Herkunft jederzeit nachverfolgbar zu halten.