Die Nachfrage nach hochleistungsfähigen KI-Chips, insbesondere Nvidias Grafikprozessoren (GPUs), ist schier unersättlich. Im dritten Quartal allein erzielte Nvidias Datencenter-Sparte über 30 Milliarden Dollar Umsatz – eine Verzehnfachung im Vergleich zu vor zwei Jahren. Technologieriesen investieren Milliarden in den Aufbau von KI-Rechenzentren, bestückt mit Nvidias GPUs. Bislang hat jedes neue KI-Modell, sei es von OpenAI oder anderen Technologiefirmen, seine Vorgänger deutlich übertroffen. OpenAIs GPT-4 erweist sich als erheblich leistungsfähiger als GPT-3, während Alphabets Gemini-Modelle frühere Versionen in den Schatten stellen. Doch diese Fortschritte sind kostspielig. Die Trainingskosten für GPT-4 werden auf rund 100 Millionen Dollar geschätzt, während es bei GPT-3 noch einige Millionen waren. Zukunftsprognosen wie die von Anthropic-CEO Dario Amodei deuten auf Produktionskosten von bis zu einer Milliarde Dollar für kommende Generationen hin. Der Erwerb und Betrieb zehntausender leistungsstarker GPUs sowie die Erfassung massiver Trainingsdatenmengen sind teure Unterfangen. Trotz zunehmendem Daten- und Rechenleistungseinsatz scheinen die Verbesserungsraten der KI-Modelle zu stagnieren. Marc Andreessen, Mitbegründer der Risikokapitalgesellschaft a16z, bemerkte kürzlich, dass KI-Modelle eine Leistungsgrenze erreicht haben könnten. Ein Durchbruch könnte erforderlich sein, um diese Barriere zu überwinden – oder es zeigt sich, dass Sprachmodelle nicht zu weit mehr fähig sind. Die rasante Nachfrage nach KI-Chips basiert auf der Annahme, dass sich hohe Investitionen in KI-Modelle finanziell auszahlen. Sollte sich jedoch erweisen, dass die Modelle ihre Leistungsgrenzen erreicht haben, könnten die Milliardeninvestitionen der Technologieriesen letztlich nicht die erwarteten Renditen bringen. Die Folge einer möglichen Überinvestition könnte für Unternehmen wie Nvidia mit einem Rückgang der Nachfrage nach KI-Chips hart ausfallen.