Unternehmen setzen verstärkt auf die Entwicklung von AI-Infrastrukturen, um den steigenden Anforderungen des maschinellen Lernens, der Datenverarbeitung und AI-gesteuerter Anwendungen gerecht zu werden. Ein substantieller Teil dieser Investitionen fließt in den Aufbau von Datenzentren, die Anschaffung spezialisierter Hardware und die Optimierung von Cloud-Infrastrukturen. Laut einem Bericht von McKinsey könnte das globale AI-Infrastrukturausgaben bis 2027 auf 500 Milliarden Dollar ansteigen, was die zentrale Bedeutung dieser Ausgaben für die Zukunft der AI-Entwicklung unterstreicht. Insbesondere AI-spezifische Hardware wie Grafikkarten (GPUs) und anwendungsspezifische integrierte Schaltkreise (ASICs) sind entscheidend für das Training und den Einsatz von AI-Modellen. NVIDIA, ein führender Anbieter von AI-Chips, hat eine steigende Nachfrage nach seinen GPUs verzeichnet, die aufgrund ihrer zentralen Rolle bei Deep-Learning-Aufgaben gefragt sind. Jensen Huang, CEO von NVIDIA, betont, dass der AI-Boom auf massiven Infrastrukturbedarfen beruht und wir uns erst am Anfang dieser Wachstumsphase befinden.
Datenzentren stehen im Fokus der AI-Infrastrukturausgaben. AI-Workloads sind äußerst anspruchsvoll und erfordern spezialisierte Einrichtungen, die hochdichte Rechnerumgebungen unterstützen können. Die 16-Milliarden-Dollar-Übernahme von AirTrunk durch Blackstone, einen führenden Anbieter von AI-gesteuerten Datenzentren, verdeutlicht die zunehmende Bedeutung solcher Infrastrukturen. Der Deal wird 800 MW Datenzentrumskapazität hinzufügen und soll Prognosen zufolge über 1 GW wachsen, was den steigenden Bedarf an Infrastrukturen zur Unterstützung AI-gesteuerter Anwendungen unterstreicht. Auch Cloud-Infrastrukturen gewinnen zunehmend an Bedeutung, da Unternehmen verstärkt in AI-optimierte Cloud-Dienste investieren, um den Bedürfnissen von Unternehmen zu entsprechen, die AI einführen. Gartner prognostiziert, dass bis 2026 die Ausgaben für Cloud-AI-Infrastrukturen 200 Milliarden Dollar übersteigen werden, da Unternehmen zunehmend von On-Premise-AI-Einsätzen auf skalierbare Cloud-basierte Lösungen umstellen.
Thomas Kurian, CEO von Google Cloud, betonte kürzlich, dass AI völlig neue Umsatzströme für Unternehmen erschließt und Cloud-Infrastrukturen das Rückgrat für diese Transformation bilden. Abgesehen von der Hardware investieren Organisationen auch in Datenmanagementplattformen und Speicherlösungen, um die riesigen Datenmengen, die AI-Systeme benötigen, zu bewältigen. Schätzungen zufolge wird der globale Markt für AI-Dateninfrastrukturen aufgrund gestiegener Datenvolumen und des Bedarfs an Echtzeit-Datenverarbeitungsmöglichkeiten mit einer jährlichen Wachstumsrate von 18 % wachsen. Unternehmen erhöhen erheblich ihre Investitionen in AI-Infrastruktur, mit einem Fokus auf Hardware, Datenzentren und Cloud-Computing. Angesichts der Prognosen für anhaltende Zunahmen bei AI-Workloads werden diese Ausgaben in den kommenden Jahren weiter zunehmen.
Fabrinet bietet optische Verpackungen sowie präzise optische, elektromechanische und elektronische Fertigungsdienstleistungen an. Das Unternehmen stellt Glasfaserkabel her, die Telekommunikations-, AI-Datenzentren und das globale Internet-Infrastruktur unterstützen. Der Datacom-Geschäftsbereich des Unternehmens, der sich auf die Bereitstellung von Kabeln für AI-Datenzentren konzentriert, ist in den letzten zwei Jahren rasant gewachsen. In der Ergebnispräsentation des dritten Quartals betonte Seamus Grady, CEO von Fabrinet, dass der Anstieg des Datacom-Umsatzes um 150 % durch den hohen Bedarf an 800-Gigabyte-Technologie für AI-Anwendungen begünstigt wurde. NVIDIA, einer der größten Gewinner des AI-Booms, ist ein Vorzeigekunde von Fabrinet. Letzteres unterstützt die Datenzentren von NVIDIA mit Glasfaserkabeln und elektromechanischen Fertigungsdienstleistungen.