In der aktuellen Diskussion rund um die Expansion von KI-Technologien geraten potenzielle Wachstumsgrenzen zunehmend in den Fokus der Technologiebranche. Ein kontroverses Thema ist, ob die Leistung von KI-Modellen stagniert, da qualitativ hochwertige Daten fehlen und dies zu Skalierungsproblemen führt.
In einem CNBC-Programm erklärte die prominente Moderatorin Deirdre Bosa, dass dieses Thema derzeit in der Technologiebranche omnipräsent sei, insbesondere im Silicon Valley. Die Debatte dreht sich um die Annahme, dass mehr Daten und größere Modelle automatisch zu besseren KI-Ergebnissen führen. Einige Experten meinen jedoch, dass dieser Fortschritt seinen Höhepunkt erreicht hat. Diese Diskussion zu den sogenannten Skalierungsgesetzen könnte enorme Auswirkungen auf den Sektor haben, von Unternehmensbewertungen bis hin zu den Grafikprozessoren, die diese Technologien antreiben. Vor kurzem trafen sich führende KI-Persönlichkeiten, darunter Alexander Wang von Scale AI, Dario Amodei von Anthropic und Ali Ghodsi von Databricks, um sich auf einer Konferenz in San Francisco mit diesem Thema auseinanderzusetzen.
Jensen Huang äußerte sich ebenfalls auf einer aktuellen Telefonkonferenz zu möglichen Beschränkungen durch eine "Datenmauer". Dabei erklärte er, dass die Skalierung von Ausgangsmodellen weiterhin robust sei und fortbestehe. Während herkömmliche Methoden wie das Verstärkungslernen durch menschliches Feedback weiterhin eine Rolle spielen, kommen nun innovative Ansätze ins Spiel. Verstärkungslernen durch KI-Feedback und synthetisch generierte Daten tragen zur Skalierung nach dem Training bei.
Diese Diskussionen verdeutlichen, dass der technologische Fortschritt im Bereich der Künstlichen Intelligenz möglicherweise neue Wege und Ansätze erfordert, um weiterhin signifikante Fortschritte zu erzielen.