31. Oktober, 2024

KI

Latino-Wähler im Fokus: KI-unterstützte Falschinformationen gefährden faire Wahlen

Latino-Wähler im Fokus: KI-unterstützte Falschinformationen gefährden faire Wahlen

In den letzten Tagen vor der bevorstehenden Präsidentschaftswahl sehen sich lateinamerikanische Wähler in den USA mit einer Flut gezielter Werbeanzeigen in spanischer Sprache konfrontiert. Gleichzeitig sorgt eine neue Dimension politischer Botschaften im Zeitalter der künstlichen Intelligenz für Besorgnis: Chatbots, die unbegründete Behauptungen über Wahlrechte in Spanisch generieren.

Laut einer Analyse zweier gemeinnütziger Nachrichtenredaktionen treten Fehlinformationen zu Wahlen in spanischer Sprache häufiger auf als in englischer. Dies erschwert den Zugang zu korrekten Informationen für eine der schnell wachsenden und einflussreichsten Wählergruppen der Nation.

Wahlrechtsorganisationen befürchten, dass KI-Modelle die Disparitäten in der Informationsverbreitung für spanischsprachige Wähler weiter vertiefen könnten, die sowohl von Demokraten als auch Republikanern umworben werden. Um ihre Präsenz zu stärken, wird Vizepräsidentin Kamala Harris diesen Donnerstag eine Kundgebung in Las Vegas mit Sängerin Jennifer Lopez und der mexikanischen Band Maná abhalten. Im Gegensatz dazu hielt Ex-Präsident Donald Trump kürzlich eine Veranstaltung in einer hispanischen Region Pennsylvanias ab, trotz der negativen Reaktionen auf beleidigende Kommentare über Puerto Rico bei einer vorherigen New Yorker Rallye.

Proof News und Factchequeado, gemeinsam mit dem Science, Technology and Social Values Lab am Institute for Advanced Study, testeten, wie beliebte KI-Modelle auf spezifische Anfragen im Vorfeld des Wahltages am 5. November reagierten. Sie stellten fest, dass mehr als die Hälfte der in Spanish generierten Antworten inkorrekt waren, verglichen mit 43% der englischen Antworten.

Das Modell Llama 3 von Meta, das den KI-Assistenten innerhalb von WhatsApp und Facebook Messenger antreibt, schnitt in den Tests am schlechtesten ab. Es lag bei fast zwei Dritteln aller spanischen Antworten daneben, verglichen mit etwa der Hälfte der englischen Antworten. Beispielsweise missinterpretierte Metas KI die Bedeutung eines "federal only" Wählers in Arizona und verbreitete fälschlicherweise, dass es sich um Bewohner von US-Territorien wie Puerto Rico handelt, die nicht an Präsidentschaftswahlen teilnehmen können.

Ein weiteres Beispiel betrifft das AI-Modell Claude von Anthropic, das Nutzern empfahl, mit Wahlbehörden in ihrem "Land oder Region" wie Mexiko und Venezuela Kontakt aufzunehmen. Auch Googles KI-Modell Gemini patzte, als es unsinnige Antworten zur Definition des Wahlmännerkollegiums gab.