30. September, 2024

KI

Kostensenkung bei AI: Ein Schritt näher zur Demokratisierung

Kostensenkung bei AI: Ein Schritt näher zur Demokratisierung

Die Kosten für AI-Inferenzen sinken täglich, was die Hoffnung nährt, dass AI-Technologien wesentlich zugänglicher werden. Dennoch sind die Ausgaben für AI-Berechnungen nur ein Teil der Gleichung. Die Industrie steht vor der Herausforderung, auch die finanziellen Lasten im Bereich des Datenzugriffs zu reduzieren.

Generative Künstliche Intelligenz (KI) hat in kürzester Zeit gewaltige Fortschritte gemacht. Heute kann beinahe jeder auf AI-Modelle zugreifen, die Gespräche führen, Forschungsarbeiten entwickeln oder Softwarecode schreiben können. Dabei zeigt sich, dass dies erst der Anfang dessen ist, was generative KI in den kommenden Jahrzehnten erreichen wird.

Den Fortschritt in der generativen KI treibt die rasante Innovationskraft großer Sprachmodelle (LLMs) voran. Diese Algorithmen sind das Herzstück von Diensten wie ChatGPT. Neuere, leistungsfähigere Modelle wie GPT-4o von OpenAI und Gemini Pro von Google bieten Unternehmen, die sie optimal nutzen, revolutionäre Fähigkeiten. Allerdings gibt es Bedenken über die hohen Kosten der Skalierung dieser Modelle, wodurch der Eindruck entsteht, nur wohlhabende Firmen könnten die wahre Macht der AI erschließen.

Dieser technologische Fortschritt ist zwar beeindruckend, kommt aber zu einem hohen Preis. Die damit verbundenen Kosten, insbesondere für die Rechenleistung und den Energieverbrauch, können bei der Massenproduktion von generativen KI-Anwendungen schnell in die Zehntausende Dollar gehen. Tirias Research prognostiziert, dass die Infrastruktur- und Betriebskosten für generative KI-Rechenzentren bis 2028 über 76 Milliarden Dollar steigen werden. Diese Ausgaben könnten neue Geschäftsmodelle und die Rentabilität von Dienstleistungen wie Suchmaschinen, Content-Erstellung und Geschäftsanwendungen erheblich behindern.

Es gibt aber auch Anzeichen, dass die Kosten für AI-Inferenzen dank des Konzepts des "Moore's Law" nicht immer so belastend bleiben werden. LLMs laufen heute hauptsächlich auf Servern, die von GPUs und TPUs beschleunigt werden. Diese Chips, obwohl aktuell teuer, werden mit der Zeit günstiger, wenn sich die Technologie weiterentwickelt. Redpoint verdeutlicht in einer Analyse, wie sich die Kosten für AI-Inferenzen bereits verringern und dass dieser Trend direkt mit Moore’s Gesetz korreliert. Dieses Gesetz besagt, dass die Anzahl der Transistoren auf einem Mikrochip sich alle zwei Jahre verdoppelt und somit die Kosten für Berechnungen in diesem Zeitraum halbiert werden.

Ein weiterer vielversprechender Ansatz zur Kostensenkung ist die Dezentralisierung von Ressourcen. Ein interessantes Beispiel hierfür ist das Open-Source-Projekt Exo Labs auf GitHub. Es ermöglicht die Erstellung und Verwaltung von AI-Clustern auf persönlichen Geräten und zielt darauf ab, KI zugänglicher und demokratischer zu gestalten.

Die AI-Industrie steht jedoch vor einer noch größeren Herausforderung: den Kosten für den Datenzugriff. KI ist ein regelrechter Datenfresser, und Entwickler benötigen immer mehr Informationen zur Ausbildung immer leistungsfähigerer Modelle. Der Zugriff auf diese Daten ist kostspielig, da die Aufbereitung und Bereitstellung der Informationen arbeits- und zeitaufwendig sind.

Eine mögliche Lösung dieses Problems liegt in der Nutzung dezentraler Computernetze auf Basis von Blockchains. Durch die Nutzung dezentralisierter Ressourcen könnten die finanziellen Hürden gesenkt und der Datenzugang verbreitert werden. Solche Netzwerke könnten untereinander Aufgaben und Kosten teilen und somit effizienter arbeiten.

Die schnelle Innovationsgeschwindigkeit in der AI-Branche führt dazu, dass fast täglich neue LLMs veröffentlicht werden. Plattformen wie Hugging Face hosten Hunderte solcher Modelle, die immer leistungsfähiger und spezialisierter werden. Doch der zugrundeliegende Datenzugang bleibt eine offene Frage, die dringend gelöst werden muss, um das volle Potenzial generativer KI freizusetzen.