Die Künstliche Intelligenz (KI) gilt als die bahnbrechendste technologische Innovation der letzten Dekaden. Mit ihrer Fähigkeit, Texte, Bilder, Videos und sogar Computercode in kürzester Zeit zu generieren, wird sie voraussichtlich einen globalen Produktivitätsschub auslösen. Prognosen von Wall-Street-Analysten deuten darauf hin, dass dieser technologischen Fortschritt im kommenden Jahrzehnt einen ökonomischen Mehrwert zwischen 7 und 200 Billionen US-Dollar generieren könnte.
Die Technik steckt zwar noch in den Kinderschuhen, dennoch kämpfen Technologiegiganten bereits um die Vormachtstellung im Bereich KI. Infolgedessen fliesen beträchtliche Summen in Datencenter und Chip-Infrastrukturen. Die Investmentbank Morgan Stanley prognostiziert, dass allein vier große Technologieunternehmen im Jahr 2025 zusammen 300 Milliarden Dollar in Kapitalaufwendungen investieren werden, um im KI-Rennen die Nase vorn zu behalten.
Ein zentraler Akteur in diesem Szenario ist Nvidia, der führende Anbieter fortschrittlicher Chips für die KI-Entwicklung. Ihre H100-Grafikprozessoren dominierten bereits 2023 den Markt mit einem beeindruckenden Marktanteil von 98% und die Nachfrage nach diesen bleibt ungebrochen. Nvidia hat zudem jüngst mit der Auslieferung der leistungsstärkeren Blackwell-GPUs begonnen, die einen signifikanten Leistungszuwachs versprechen.
Größere und effizientere Sprachtechnologiemodelle sind im Zentrum der Entwicklung von „intelligenteren“ KI-Lösungen. Diese benötigen nicht nur mehr Daten, sondern auch vermehrte Rechenkapazität – letztere ist besonders kostspielig. Während Start-ups wie OpenAI und Anthropic über die nötigen finanziellen Mittel zur Errichtung eigener Infrastrukturen verfügen, sind die meisten Unternehmen auf die Mietkapazitäten der großen Technologiefirmen angewiesen, die in zentralisierte Infrastrukturen investieren.