26. Dezember, 2024

US-Wahlen 2024

KI-Manipulation im Wahlkampf? Wie Fake-Bilder Trump und Co. in Szene setzen

Mit KI erstellte Fotos und Dokumente fluten den US-Wahlkampf. Die Grenze zwischen Wahrheit und Lüge verschwimmt, und selbst offensichtliche Fälschungen verfangen sich in den sozialen Netzwerken.

KI-Manipulation im Wahlkampf? Wie Fake-Bilder Trump und Co. in Szene setzen
Donald Trump teilte gefälschte Bilder von Taylor-Swift-Fans, die angeblich seine Anhänger sind – obwohl die Sängerin öffentlich Kamala Harris unterstützt.

Manipulierte Realität auf Knopfdruck

Der US-Wahlkampf hat eine neue, gefährliche Dimension erreicht: Künstlich generierte Bilder und gefälschte Dokumente, erschaffen von Künstlicher Intelligenz (KI), beeinflussen die öffentliche Meinung in nie dagewesenem Ausmaß. Ein besonders krasses Beispiel macht derzeit die Runde: Donald Trump, umringt von strahlenden Partygästen, die ihn begeistert umarmen.

Doch das Bild hat einen Haken – es ist komplett gefälscht. Der ultrakonservative Radiomoderator Mark Kaye, der das Bild auf X (ehemals Twitter) verbreitete, gibt das auch offen zu.

„Ich erzähle Geschichten, keine Wahrheiten“, sagte er lächelnd in einem Interview.

Die Botschaft kommt dennoch an. Tausende Male wurde das Foto geteilt, obwohl es bereits auf den ersten Blick fragwürdig wirkt: Trumps Hände sind verformt, die Gesichter der Umstehenden sehen sich verdächtig ähnlich. Fehler der KI – aber für viele ist das zweitrangig.

Unterstützer von Trump nutzten KI, um offiziell aussehende Schreiben zu erstellen, die demokratische Wähler von der Wahl abhalten sollten. Elon Musk musste eingreifen und die KI auf seinem Netzwerk X umprogrammieren.

Taylor Swift als Trump-Unterstützerin?

Doch es geht noch weiter: Gefälschte Bilder von Taylor Swift-Fans, die angeblich Donald Trump unterstützen, tauchten ebenfalls im Netz auf. Trump selbst verbreitete die Bilder auf seiner Plattform „Truth Social“, obwohl Swift in der Realität öffentlich Kamala Harris unterstützt.

Diese KI-generierten „Fake-Fans“ waren eine klare Desinformationskampagne – und sie verbreiteten sich rasant.

Mit jedem Tag, den der Wahlkampf heißer wird, wächst auch der Einsatz von KI zur Manipulation der Wähler. Das Problem dabei: Die Fälschungen sind nicht immer leicht zu erkennen, und selbst, wenn sie es sind, wirken sie. Emotionen stechen die Fakten.

Studien zeigen, dass selbst wenn Menschen erkennen, dass KI-generierte Bilder gefälscht sind, sie trotzdem emotional darauf reagieren – ein gefährliches Werkzeug für Wahlmanipulation.

Falsche Briefe mit realen Folgen

Aber es bleibt nicht bei Bildern. Auch gefälschte offizielle Schreiben, die von der KI „Grok“ des Musk-Netzwerks X erstellt wurden, kursierten im Wahlkampf. Eines dieser Schreiben behauptete, Joe Biden könne aufgrund verpasster Fristen gar nicht aus dem Wahlkampf ausscheiden, und demokratische Wähler bräuchten deshalb gar nicht zur Vorwahl zu gehen.

Erst auf Druck der Behörden in mehreren US-Bundesstaaten musste Elon Musk persönlich eingreifen und Grok so einstellen, dass die KI bei Wahlen auf offizielle Informationen verweist.

Das Problem jedoch bleibt: Die Fähigkeit von KI, im Handumdrehen realistisch wirkende Dokumente und Bilder zu erstellen, macht sie zu einem perfekten Werkzeug für politische Manipulation.

Deutschland bleibt nicht verschont

Auch in Deutschland findet KI ihren Weg in die Propaganda – besonders im Wahlkampf. Vor den Landtagswahlen in Sachsen und Thüringen wurden KI-generierte Bilder im Netzwerk TikTok massenhaft verbreitet.

Sie zeigen düstere Szenarien, in denen blonde, heroisch wirkende Figuren gegen eine Flut von Flüchtlingen kämpfen. „Memes für Deutschland“ nannte es der AfD-nahe TikTok-Account. Die Bilder – eindeutig aus einem KI-Bildgenerator – waren dennoch erfolgreich: Zehntausende sahen sie, viele verbreiteten sie weiter.

Trump teilte gefälschte Fotos, die Taylor-Swift-Fans als seine Unterstützer zeigten – obwohl die Sängerin öffentlich Kamala Harris unterstützt. KI machte es möglich, Realität zu verfälschen.

Selbst einfache Fälschungen funktionieren

„Selbst, wenn Menschen wissen, dass sie es mit KI-generierten Inhalten zu tun haben, bleiben die emotionalen Reaktionen bestehen“, erklärt Catrin Misselhorn, Professorin an der Universität Göttingen. Sie erforscht, wie Empathie im digitalen Raum funktioniert.

„Die Algorithmen der sozialen Netzwerke spielen eine wichtige Rolle. Sie sind so programmiert, dass sie besonders polarisierende Inhalte bevorzugt verbreiten.“

Und genau das ist die Gefahr: Auch wenn die Bilder offensichtlich unecht sind, sie bewegen die Menschen, wecken Emotionen und verstärken extreme Positionen. Und genau das ist im Wahlkampf Gold wert.

Lesen Sie auch:

Volle Kehrt: Nancy Faeser und das große Umdenken bei den Grenzkontrollen
Ein abrupter Wandel im Wind der Migrationspolitik: Innenministerin Faeser kündigt flächendeckende Grenzkontrollen an – was steckt wirklich dahinter?