Amazon Web Services (AWS) bringt mit der Einführung der Trn2-Instanzen und Trn2 UltraServers frischen Wind in die Welt der Künstlichen Intelligenz. Diese neuartigen Lösungen bieten um 30-40% besseren Preis-Leistungs-Kompromiss im Vergleich zu den bisherigen GPU-basierten EC2-Instanzen. Herzstück der Trn2 ist der leistungsstarke Trainium2-Chip, dessen ultraschnelle NeuronLink-Verbindungen bis zu 20,8 Petaflops an Rechenleistung ermöglichen – ideal für hochkomplexe Modelle.
Für besonders anspruchsvolle Anforderungen verknüpfen die Trn2 UltraServers vier Trn2-Server zu einem mächtigen Rechner, um das Training großvolumiger KI-Modelle zu beschleunigen und Echtzeit-Inferenz zu verbessern. Zusammen mit Anthropic, einem auf KI-Sicherheit spezialisierten Unternehmen, entsteht das Projekt Rainier, das die weltweit größte bekannte KI-Compute-Cluster-Installation realisiert.
Die Trainium2-Infrastruktur stößt auf Begeisterung in der KI-Community. Databricks wird sie nutzen, um die Effektivität seines Mosaic AI zu steigern, während Hugging Face sie für eine kosteneffiziente Modellentwicklung integriert. Das Start-up poolside plant, Trainium2 UltraServers zur Kostenoptimierung künftiger Modelle einzusetzen, während Google die Integration mit JAX vorantreibt, was der Verbreitung von Trn2-Instanzen im ML-Sektor einen Schub verleihen dürfte.
Mit dem Blick in die Zukunft präsentiert AWS Trainium3, das erste AWS-Training-Chip in 3-Nanometer-Technologie. Diese Neuentwicklung verspricht eine vierfache Leistungssteigerung gegenüber den aktuellen Trn2 UltraServers, womit das Potenzial von generativen KI-Anwendungen noch weitergestreckt wird. Die Verfügbarkeit der ersten Trainium3-basierten Instanzen ist für Ende 2025 avisiert.
AWS bleibt mit über 240 Dienstangeboten in 34 Regionen weltweit führend in der Cloud-Branche. Die Erweiterungen um Trainium2 und Trainium3 beweisen das kontinuierliche Engagement, Kunden mit innovativen Lösungen zu unterstützen.