Auf seiner re:Invent-Konferenz hat Amazon Web Services (AWS), die Cloud-Computing-Sparte von Amazon, voller Stolz eine neue Generation von multimodalen generativen KI-Modellen vorgestellt, die unter der Marke Nova läuft. Die angekündigte Familie umfasst vier textgenerierende Modelle, namentlich Micro, Lite, Pro und Premier. Während die ersten drei Modelle ab sofort für AWS-Kunden verfügbar sind, wird Premier erst Anfang 2025 auf den Markt kommen, so Amazon-CEO Andy Jassy auf der Bühne.
Ergänzt wird die Nova-Familie durch das Bildgenerierungsmodell Nova Canvas und das Videogenerierungsmodell Nova Reel, die ebenfalls ab sofort auf AWS verfügbar sind. Jassy betonte, dass die kontinuierliche Arbeit an ihren "Frontier"-Modellen in den letzten Monaten erhebliche Fortschritte gemacht habe. Er fügte hinzu: „Wenn wir daraus Nutzen ziehen können, können Sie das sicher auch.“
Die textgenerierenden Nova-Modelle wurden für 15 Sprachen optimiert, wobei der Fokus vor allem auf Englisch liegt. Sie unterscheiden sich stark in Größe und Leistungsvermögen: Micro, das allein Text einlesen und ausgeben kann, bietet die geringste Latenzzeit und verarbeitet Texte am schnellsten. Lite verarbeitet Bilder, Videos und Texte zügig, während Pro eine ausgewogene Mischung aus Genauigkeit, Geschwindigkeit und Kosteneffizienz für verschiedene Aufgaben bietet. Premier hingegen wurde für komplexere Workloads konzipiert und wird mehr als ein "Lehrermodell" zum Erstellen angepasster Modelle angesehen.
Micro kann bis zu 100.000 Wörter in einem Kontextfenster verarbeiten, während Lite und Pro Fenster von 300.000 Tokens bieten. AWS plant, dass einige Nova-Modelle bis Anfang 2025 über Kontextfenster von mehr als 2 Millionen Tokens verfügen werden. Jassy unterstreicht, dass die Nova-Modelle zu den schnellsten ihrer Klasse gehören und kosteneffizient im Betrieb sind. Sie sind in AWS Bedrock, Amazons Plattform für die KI-Entwicklung, verfügbar, wo sie auf Text, Bilder und Videos abgestimmt und für höhere Effizienz optimiert werden können.
Jassy fügte hinzu, dass diese Modelle für die Zusammenarbeit mit proprietären Systemen und APIs optimiert wurden, was orchestrierte automatische Schritte wesentlich erleichtere. „Ich denke, diese Modelle sind äußerst überzeugend,“ so Jassy.