01. April, 2025

KI

Ghibli-Gate bei OpenAI

Die kostenpflichtige Version von ChatGPT erlaubt Ghibli-ähnliche Bilder, die kostenlose blockiert sie – mit Verweis auf Urheberrechte. Was steckt hinter der widersprüchlichen Praxis von OpenAI, und was bedeutet das für die Debatte um KI und geistiges Eigentum?

Ghibli-Gate bei OpenAI
Nutzer der kostenlosen ChatGPT-Version bekommen eine Absage mit Verweis auf Urheberrechte – zahlende Kunden erhalten Ghibli-ähnliche Bilder trotzdem. OpenAI begründet den Unterschied mit „Policy-Kriterien“.

Zwei Tools, zwei Antworten – ein Unternehmen

Ein Bild im Ghibli-Stil: Für viele Nutzer ist das der heilige Gral der KI-generierten Kunst. Weich gezeichnete Landschaften, große Augen, nostalgische Farbwelten.

Wer die neue Bildfunktion von OpenAI ausprobiert, bekommt mit der Premiumversion genau das – auch auf Nachfrage. Wer es hingegen mit der kostenlosen Version versucht, bekommt einen klaren Korb: Verstoß gegen die Urheberrechte von Studio Ghibli. Punkt.

Dass ein und dieselbe Firma zwei ihrer eigenen KI-Werkzeuge zu völlig unterschiedlichen Einschätzungen kommen lässt, wirft Fragen auf – rechtlich, technisch, aber auch strategisch. Ist das ein misslungener A/B-Test, eine unausgereifte Policy oder schlicht die neue Normalität in der KI-Industrie?

Lizenzfragen? Vielleicht. Monetarisierung? Ganz sicher.

OpenAI erklärte auf Nachfrage, dass man keine Bilder „im Stil lebender Künstler“ generieren lasse – so sehe es die aktuelle Content Policy vor. Hayao Miyazaki, Mitgründer von Studio Ghibli, lebt.

Doch offenbar differenziert OpenAI inzwischen zwischen einem individuellen Künstlerstil und einem „Studio-Stil“. Ob das rechtlich belastbar ist, bleibt offen.

Rechtlich verwässert, wirtschaftlich eindeutig: Die Ghibli-Bilder gibt es nur gegen Geld. Wer bezahlt, bekommt mehr – auch beim Zugriff auf kreative Inhalte mit rechtlichen Grauzonen. Die Stilkopie wird so zur Premiumfunktion.

Ein Problem der Konsistenz – nicht der Technik

Technisch ist der Unterschied marginal. Sowohl das kostenfreie DALL-E 3 als auch das neue „4o“-Tool basieren auf ähnlichen Trainingsdaten – und wahrscheinlich auch auf identischer Stilkompetenz.

Dass das eine Tool verweigert, was das andere bereitwillig liefert, liegt also nicht an der KI selbst, sondern an menschlichen Entscheidungen über deren Verhalten.

Diese Intransparenz ist kein Einzelfall – sondern ein strukturelles Problem bei vielen KI-Anbietern. Offen bleibt, nach welchen Kriterien Inhalte blockiert oder freigegeben werden. Transparente Modelle für Rechteabgleich oder Stilidentifikation? Fehlanzeige.

Wo hört Inspiration auf, wo beginnt Verletzung?

Ghibli ist nicht irgendwer. Das japanische Studio gilt als stilbildend, ikonisch, künstlerisch einzigartig.

Es steht – nicht zuletzt durch den Kultstatus von Filmen wie „Prinzessin Mononoke“ oder „Chihiros Reise ins Zauberland“ – für ein eigenes visuelles Universum. Doch lässt sich ein Stil überhaupt rechtlich schützen?

In vielen Ländern gelten visuelle Stilmerkmale nicht als urheberrechtlich geschützt, solange keine konkrete Arbeit kopiert wird. In anderen – wie Japan – sieht das etwas anders aus.

Keine einheitliche Linie: Während DALL·E 3 Ghibli-Stile blockiert, liefert das neue 4o-Modell entsprechende Bilder – eine Grauzonen-Strategie mit wirtschaftlichem Kalkül?

Doch gerade bei KI, die aus Millionen Bildern gelernt hat und nie eins zu eins kopiert, ist die rechtliche Lage diffus. Viele Experten sprechen hier von einer „Grauzone mit Ansage“.

Das größere Thema: Kontrolle über kreative Referenzen

Was bei Ghibli auffällt, ist längst Praxis in größerem Maßstab. Künstler wie Greg Rutkowski, H.R. Giger oder Katsuhiro Otomo mussten bereits erleben, wie ihre Handschrift in zahllosen KI-Bildern auftaucht – oft ohne Erwähnung, Lizenz oder Zustimmung. Einige haben dagegen protestiert, andere klagen. Der rechtliche Schutz kreativer Leistung im Zeitalter generativer KI ist eines der größten offenen Probleme unserer Zeit.

OpenAI versucht nun offenbar, eine Grenze zu ziehen: keine lebenden Künstler, aber Studios vielleicht. Doch die Unschärfe bleibt – und wirkt inkonsequent. Zumal OpenAI selbst bislang keine inhaltliche Vereinbarung mit Studio Ghibli bestätigt hat. Ob also eine juristische Absicherung existiert, ist fraglich.

Was Nutzer (und Künstler) daraus lernen

Für Nutzer ist der Fall eindeutig: Wer Ghibli will, muss zahlen. Wer das kostenlose Modell nutzt, bekommt nur allgemeine Landschaften. Für Künstler ist der Fall komplizierter. Es zeigt, wie schwer es ist, Einfluss auf die Nutzung der eigenen Stile zu nehmen – insbesondere wenn KI-Modelle bereits mit Millionen Bildern trainiert wurden, oft ohne explizite Zustimmung der Urheber.

Und es zeigt, wie abhängig kreative Berufe von der Auslegung privater Plattformbetreiber werden. OpenAI entscheidet, was „zu nah“ an einem geschützten Stil ist – und was als erlaubt durchgeht. Diese Deutungshoheit verlagert die Frage von öffentlichen Gerichten in die Policies privater Unternehmen.

Ein Stil, zwei Welten – und keine klare Linie

Der Fall Ghibli ist symptomatisch für die aktuelle Übergangszeit: zwischen technischer Machbarkeit, rechtlicher Unschärfe und wirtschaftlicher Interessenlage. OpenAI setzt offenbar auf das Prinzip: Was Geld bringt, wird möglich gemacht – solange keine juristische Eskalation droht.

Das Problem ist nicht die KI selbst. Sondern, wie sie konfiguriert wird. Und wer darüber entscheidet. Wer eine Technologie anbietet, die urheberrechtlich relevante Werke imitieren kann, trägt Verantwortung – nicht nur technisch, sondern auch ethisch und rechtlich. OpenAI bleibt in dieser Frage vieles schuldig. Und solange das so bleibt, ist jede Ghibli-Anfrage auch eine Anfrage an die Glaubwürdigkeit der Plattform.

Das könnte Sie auch interessieren:

Wie Deutschlands Autoindustrie in den Rüstungsmodus schaltet
Mercedes liefert bis zu 5800 G-Klassen an die Bundeswehr, MAN bekommt Milliardenverträge für Lkw – doch der Einstieg ins Rüstungsgeschäft ist für Autobauer ein Balanceakt zwischen Wachstumschance und Imageproblem.