Eine unerwartete Entdeckung sorgte am vergangenen Wochenende in der Nutzercommunity der KI-Plattform ChatGPT für Aufregung: Der Chatbot verweigert strikt die Antwort auf Anfragen, die den Namen „David Mayer“ beinhalten. Diese kuriose Eigenart führt dazu, dass die KI unmittelbar erstarrt. Was zunächst verwunderte, entfachte schnell die wildesten Verschwörungstheorien. Doch möglicherweise ist die Erklärung weitaus banaler und keineswegs sensationell.
Rasch verbreitete sich die Kunde, dass der Name „giftig“ für den Chatbot sei. Immer mehr Nutzer versuchten auf unterschiedliche Weise, ChatGPT dazu zu bringen, diesen bestimmten Namen auch nur zu erwähnen – ohne Erfolg. Jeglicher Versuch, den Namen auszusprechen, führt dazu, dass die KI versagt oder gar mitten im Wort abbricht.
„Ich bin nicht in der Lage, eine Antwort zu geben“, lautet die lapidare Rückmeldung, falls überhaupt eine Rückmeldung erfolgt. Diese Merkwürdigkeit betrifft jedoch nicht nur David Mayer. Auch die Namen Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber und Guido Scorza führen zu ähnlichen Störungen bei ChatGPT. Die genauen Gründe für diese Selektivität bleiben unklar, da das Unternehmen OpenAI dazu bislang keine Stellungnahme abgegeben hat.
Einige Beobachter vermuten, dass dieser Umstand mit dem „Recht auf Vergessenwerden“ zusammenhängen könnte. So habe etwa Brian Hood, ein ehemaliger australischer Bürgermeister, erfolgreich erwirkt, dass ihn fälschlich belastendes Material aus den Antworten von ChatGPT entfernt wurde. Auch David Faber, ein erfahrener Reporter bei CNBC, und die anderen betroffenen Personen könnten öffentlich oder halböffentlich agierende Persönlichkeiten sein, die ähnliche Schutzmaßnahmen ergriffen haben.
Somit bleibt die Frage bestehen, ob das sich hartnäckig haltende Verhalten von ChatGPT ein gezieltes Ignorieren bestimmter Namen darstellt – und wenn ja, mit welchem Ziel.