Im Bestreben, inklusive künstliche Intelligenz zu schaffen, hat Google mit seiner KI-Software Gemini einen Vorfall erlebt, der die Grenzen zwischen Diversitätsförderung und historischer Korrektheit aufzeigt. Die Funktion, Bilder in Abhängigkeit von textlichen Vorgaben zu generieren, wurde nach Kontroversen vorerst eingestellt. Nutzern waren von der Software erzeugte Bilder präsentiert worden, auf denen nicht-weiße Nazi-Soldaten und amerikanische Siedler zu sehen waren – ein deutlicher Widerspruch zum historischen Kontext, den Google nun eingestanden hat.
Die öffentliche Reaktion folgte unmittelbar und veranlasste das Technologieunternehmen, die Funktion, die erst vor drei Wochen hinzugefügt wurde, zu deaktivieren. Die Intention, eine vielfältige Bildsprache zu pflegen, führte in diesem Szenario zu unangebrachten Ergebnissen, räumte Google ein. Die agile Anpassung ist Teil eines fortwährenden Prozesses, der bereits andere Unternehmen in der Vergangenheit forderte – KI-Systeme erzeugten stereotype Darstellungen oder zeigten Schwächen im Erkennen von Menschen mit dunklerer Hautfarbe.
Google-Manager Prabhakar Raghavan äußerte sich in einem Blogbeitrag zum Vorfall und unterstrich dabei den pädagogischen Aspekt der Herausforderung. Das Ziel bleibt, Nutzern zu ermöglichen, Bilder jeder gewünschten Art zu erhalten – etwa einen "weißen Tierarzt mit Hund" – ohne dabei diskriminierend zu wirken. Gleichzeitig bekräftigte Raghavan die inhärente Unvollkommenheit von KI-Systemen, die gelegentlich zu Fehlern führen kann. Trotzdem, verspricht Google, wird auf Probleme schnell reagiert werden.
Der ebenso aktuelle wie brisante Diskurs über Rassismus und Diversität in den USA zeigt sich auch in der KI-Technologieentwicklung als ein strittiges Thema. Die Spannung zwischen diversitätsorientiertem Fortschritt und der Kritik von Bewegungen, die unter anderem von Elon Musk unterstützt werden, verdeutlicht, wie technologische Innovationen unweigerlich in gesellschaftspolitische Debatten eingebettet sind.