28. November, 2024

Technologie

Zwischen Regulierung und Realität: Der Kampf gegen Deepfake-Missbrauch

Zwischen Regulierung und Realität: Der Kampf gegen Deepfake-Missbrauch

Omny Miranda Martone, Gründer:in der Sexual Violence Prevention Association in Washington, fand sich unweigerlich selbst im Zentrum jener Problematik wieder, gegen die ihre Organisation kämpft: nicht-einvernehmliche intime Deepfake-Inhalte. Trotz umfassenden Wissens und Verbindungen im Bereich der Abuse-Prävention konnte Martone nicht rechtlich gegen die teils alarmierend realistisch anmutenden synthetischen Bilder und Videos vorgehen. Dieses Gefühl der Machtlosigkeit spiegelt eine größere Gesetzeslücke wider, da es in den USA keine einheitlichen Bestimmungen gibt, die Webseiten zur Entfernung derartiger Inhalte verpflichten. Die gesetzliche Landschaft variiert weltweit. Während Länder wie das Vereinigte Königreich und Australien die Verbreitung, aber nicht die Herstellung solcher Deepfakes kriminalisiert haben, hat Südkorea umfassendere Regelungen eingeführt. In einem Fall forderte die italienische Premierministerin Giorgia Meloni Schadensersatz nach dem Auftauchen expliziter Bilder. In den USA zielt das geplante Gesetz "Defiance Act", unterstützt von politischen Schwergewichten wie Alexandria Ocasio-Cortez und Lindsey Graham, auf die Möglichkeit einer zivilrechtlichen Klage gegen Personen, die wissentlich nicht-einvernehmliche explizite Deepfakes teilen. Die rasante Entwicklung der generativen AI hat die Erstellung solcher Inhalte enorm vereinfacht. Plattformen wie "nudify" verdanken ihren Erfolg cleveren technologische Prozessen, mit Millionen von Besuchern monatlich. Diese Werkzeuge sind für alle Altersgruppen zugänglich, was das Risiko der Erstellung von Missbrauchsbildern von Minderjährigen erhöht. "Der Fortschritt generativer KI ermöglicht es jedem, missbräuchliche Inhalte von jedermann zu erstellen", warnt Sophie Compton von #MyImageMyChoice. Technologieunternehmen wie Google und Microsoft beginnen, auf den öffentlichen Druck zu reagieren. Microsoft hat Open-Source-Code, der für Deepfakes genutzt wird, von GitHub entfernt. Google hat seine Suchmaschine angepasst, um den Opfern die Entfernung von Inhalten zu erleichtern. Doch einige fordern klarere Richtlinien und Gesetze, die staatlich verankert sind. Organisationen wie die von Norma Buster in New York berichten, dass Frauen weiterhin unverhältnismäßig oft Ziel von Deepfakes sind – eine Realität, der durch neue Gesetzesentwürfe wie den "Shield Act" begegnet werden soll. Diese würden strafrechtliche Folgen für das Teilen privater, sexuell expliziter Bilder ohne Zustimmung einführen. Währenddessen führen Städte wie San Francisco juristische Schlachten gegen "Undressing"-Apps und versuchen, ein Zeichen für den notwendigen Wandel zu setzen. Es bleibt jedoch die Herausforderung, die fortwährende Entstehung solcher Technologien in den Griff zu bekommen und die Grenzen des Digitalen zu regulieren.