Manipulierte Realität auf Knopfdruck
Der US-Wahlkampf hat eine neue, gefährliche Dimension erreicht: Künstlich generierte Bilder und gefälschte Dokumente, erschaffen von Künstlicher Intelligenz (KI), beeinflussen die öffentliche Meinung in nie dagewesenem Ausmaß. Ein besonders krasses Beispiel macht derzeit die Runde: Donald Trump, umringt von strahlenden Partygästen, die ihn begeistert umarmen.
Doch das Bild hat einen Haken – es ist komplett gefälscht. Der ultrakonservative Radiomoderator Mark Kaye, der das Bild auf X (ehemals Twitter) verbreitete, gibt das auch offen zu.
„Ich erzähle Geschichten, keine Wahrheiten“, sagte er lächelnd in einem Interview.
Die Botschaft kommt dennoch an. Tausende Male wurde das Foto geteilt, obwohl es bereits auf den ersten Blick fragwürdig wirkt: Trumps Hände sind verformt, die Gesichter der Umstehenden sehen sich verdächtig ähnlich. Fehler der KI – aber für viele ist das zweitrangig.
Taylor Swift als Trump-Unterstützerin?
Doch es geht noch weiter: Gefälschte Bilder von Taylor Swift-Fans, die angeblich Donald Trump unterstützen, tauchten ebenfalls im Netz auf. Trump selbst verbreitete die Bilder auf seiner Plattform „Truth Social“, obwohl Swift in der Realität öffentlich Kamala Harris unterstützt.
Diese KI-generierten „Fake-Fans“ waren eine klare Desinformationskampagne – und sie verbreiteten sich rasant.
Mit jedem Tag, den der Wahlkampf heißer wird, wächst auch der Einsatz von KI zur Manipulation der Wähler. Das Problem dabei: Die Fälschungen sind nicht immer leicht zu erkennen, und selbst, wenn sie es sind, wirken sie. Emotionen stechen die Fakten.
Falsche Briefe mit realen Folgen
Aber es bleibt nicht bei Bildern. Auch gefälschte offizielle Schreiben, die von der KI „Grok“ des Musk-Netzwerks X erstellt wurden, kursierten im Wahlkampf. Eines dieser Schreiben behauptete, Joe Biden könne aufgrund verpasster Fristen gar nicht aus dem Wahlkampf ausscheiden, und demokratische Wähler bräuchten deshalb gar nicht zur Vorwahl zu gehen.
Erst auf Druck der Behörden in mehreren US-Bundesstaaten musste Elon Musk persönlich eingreifen und Grok so einstellen, dass die KI bei Wahlen auf offizielle Informationen verweist.
Das Problem jedoch bleibt: Die Fähigkeit von KI, im Handumdrehen realistisch wirkende Dokumente und Bilder zu erstellen, macht sie zu einem perfekten Werkzeug für politische Manipulation.
Deutschland bleibt nicht verschont
Auch in Deutschland findet KI ihren Weg in die Propaganda – besonders im Wahlkampf. Vor den Landtagswahlen in Sachsen und Thüringen wurden KI-generierte Bilder im Netzwerk TikTok massenhaft verbreitet.
Sie zeigen düstere Szenarien, in denen blonde, heroisch wirkende Figuren gegen eine Flut von Flüchtlingen kämpfen. „Memes für Deutschland“ nannte es der AfD-nahe TikTok-Account. Die Bilder – eindeutig aus einem KI-Bildgenerator – waren dennoch erfolgreich: Zehntausende sahen sie, viele verbreiteten sie weiter.
Selbst einfache Fälschungen funktionieren
„Selbst, wenn Menschen wissen, dass sie es mit KI-generierten Inhalten zu tun haben, bleiben die emotionalen Reaktionen bestehen“, erklärt Catrin Misselhorn, Professorin an der Universität Göttingen. Sie erforscht, wie Empathie im digitalen Raum funktioniert.
„Die Algorithmen der sozialen Netzwerke spielen eine wichtige Rolle. Sie sind so programmiert, dass sie besonders polarisierende Inhalte bevorzugt verbreiten.“
Und genau das ist die Gefahr: Auch wenn die Bilder offensichtlich unecht sind, sie bewegen die Menschen, wecken Emotionen und verstärken extreme Positionen. Und genau das ist im Wahlkampf Gold wert.
Lesen Sie auch: