Die Aufstiegsgeschichte der generativen Künstlichen Intelligenz schreibt ein neues Kapitel in der Medienbranche, in der die Marktakteure offenbar aus ihren Erfahrungen mit Online-Gatekeepern wie Google und Facebook gelernt haben. Diesmal agiert die Branche früher, um die Kontrolle über ihre Inhalte zu behalten. Doch ob sie mit der Faszination für Chatbots wie ChatGPT den Verlust ihrer Zielgruppen und Online-Umsätze verhindern können, bleibt offen.
Bemerkenswert ist die kürzliche Welle an Abkommen und Klagen, die zeigt, dass die Medienunternehmen proaktiv handeln. Jüngst hat das Suchmaschinen-Start-up Perplexity, das generative KI für verbesserte Suchergebnisse nutzt, Umsatzbeteiligungs-Vereinbarungen mit einer vielfältigen Gruppe von Verlegern wie Automattic (Eigentümer von Medium), Der Spiegel und Time bekannt gegeben. Dies folgte auf den Vorwurf, dass das Unternehmen unautorisiert Medien-Websites für seine Suchdienste durchsucht hatte – eine Praxis, die zwar nicht illegal, jedoch ein Verstoß gegen die Netiquette ist.
Auch OpenAI hat diverse Abkommen mit Medienunternehmen, darunter die Financial Times, geschlossen. Doch trotz dieser Partnerschaften stehen OpenAI und Microsoft vor einer großen rechtlichen Herausforderung: einem Urheberrechtsstreit mit der New York Times.
Die wirtschaftlichen und rechtlichen Probleme, die durch generative KI aufgeworfen werden, erinnern stark an die Anfangszeiten des Internets. Viele Verleger beklagen seit Langem, dass Dienste wie Google News ihre Zielgruppen stehlen, während sie gleichzeitig stark auf sie angewiesen sind, um Traffic zu generieren. Gerichte haben Suchmaschinen zumeist rechtlich freie Hand gegeben, und der finanzielle Nutzen für Medienunternehmen kam bislang hauptsächlich über gesetzliche Regelungen in Ländern wie Australien und Kanada zustande.
Mittlerweile scheint, nach einem anfänglichen Wildwuchs, etwas Ordnung hergestellt worden zu sein. OpenAI hat beispielsweise zugesagt, die Anfragen von Verlegern zu respektieren und ihre Websites nicht mehr zu crawlen. Ende des letzten Jahres blockierten laut dem Reuters Institute for the Study of Journalism bereits die meisten großen Verleger die KI-Crawler.
Dennoch erscheint es wenig nachhaltig für Medienunternehmen, sich der nächsten großen technologischen Revolution einfach zu verweigern. Perplexitys Vereinbarung mit den Verlegern signalisiert, dass sich KI-Unternehmen möglicherweise schwer tun werden, sich gegen Urheberrechtsansprüche zu verteidigen.
Aktuell bleibt ein Großteil dieser Diskussion jedoch theoretisch. Obgleich ChatGPT die Technikwelt erstaunte, hat es noch nicht bewiesen, dass Chatbots anderen massenmarktorientierten Informationsplattformen das Wasser reichen können. Die „Produktifizierung“ großer Sprachmodelle steckt noch in den Kinderschuhen. Welche Formen diese neuen Dienste annehmen und wie die um sie herum gebauten Wirtschaftsmodelle funktionieren werden, ist noch unklar. Dies bietet der Medienbranche eine wichtige Gelegenheit.
Perplexity hat sich beispielsweise bereit erklärt, den Verlegern einen Anteil an Werbeeinnahmen zu geben, die direkt mit auf ihren Inhalten basierenden Ergebnissen verbunden sind. Kurzfristig wird dies jedoch kaum journalistische Gehälter finanzieren: Perplexity hat noch nicht einmal neue Werbeformate entwickelt. Und wie viele Suchmaschinen-Start-ups vor ihm, steht es vor einer steilen Herausforderung in einem von Google dominierten Markt. Für die Verleger bedeutet dies jedoch zumindest die Etablierung eines wirtschaftlichen Modells, das breiter gefördert werden könnte.
Wie viel Verhandlungsmacht die Verleger haben, ist eine Schlüsselfrage. Wie schon das Internet zuvor, entlarvt KI den Rohstoffcharakter vieler Online-Inhalte. Es wird auch schwierig sein, großen Nutzen aus der Verwendung ihrer Materialien im allgemeinen Training von Sprachmodellen zu ziehen. Laut OpenAI macht das Nachrichtengeschäft nur einen „winzigen Bruchteil“ der Daten aus, auf denen diese Modelle trainieren. Die ungesagte Drohung an die Verleger lautet: Wenn ihr nicht nach unseren Bedingungen spielt, schneiden wir euch gerne aus.
Andererseits sind einmal trainierte Sprachmodelle statisch und können schnell veraltet wirken. Techniken, die frische und relevante Daten mit den Ausgaben der Sprachmodelle kombinieren, um maßgeschneiderte Ergebnisse zu liefern, könnten die Lücke schließen. Dafür wird der Zugang zu aktuellen Informationsquellen entscheidend.
Wie solche Dienste letztlich funktionieren werden, ist noch unklar. Werden sie nur Schnipsel produzieren, ähnlich wie Google News? Wie prominent werden sie die Quellen hervorheben und wie viel Traffic werden sie zurück auf die Websites der Verleger treiben? Und vor allem: Welche zusätzlichen Umsätze werden sie generieren und wie werden diese verteilt? Für die Verleger scheint es allemal lohnenswert, Einfluss auf die Beantwortung solcher Fragen zu nehmen.