Amazon Web Services (AWS), die Cloud-Sparte von Amazon, hat ein neues Werkzeug zur Bekämpfung sogenannter Halluzinationen vorgestellt. Diese treten auf, wenn Modelle der künstlichen Intelligenz unzuverlässige Ergebnisse liefern.
Auf der AWS re:Invent 2024 Konferenz in Las Vegas wurde der Dienst "Automated Reasoning Checks" präsentiert. Er überprüft die Antworten eines Modells, indem er sie mit vom Kunden bereitgestellten Informationen abgleicht, um deren Richtigkeit zu gewährleisten. AWS bewirbt den Dienst als erstes und einziges Schutzmittel gegen Halluzinationen.
Jedoch ähneln die Automated Reasoning Checks stark der von Microsoft im Sommer eingeführten Korrekturfunktion, die ebenfalls KI-generierte Texte auf mögliche sachliche Fehler hinweist. Google bietet in seiner Entwicklerplattform Vertex AI ein ähnliches Tool an, das Modelle durch externe Datenquellen, eigene Datensätze oder die Google-Suche validiert.
Automated Reasoning Checks wird über den Bedrock-Modell-Hosting-Service von AWS angeboten und soll herausfinden, wie ein Modell zu einer Antwort gelangt ist und ob diese korrekt ist. Dafür laden Kunden Informationen hoch, um eine Art Grundwahrheit zu etablieren. Diese Informationen werden dann genutzt, um Regeln zu definieren, die auf das Modell angewendet werden können.
Sollte eine sogenannte Halluzination auftreten, greift das Tool auf die Grundwahrheit zurück und präsentiert diese neben der potenziellen Fehlinformation, um die Abweichung sichtbar zu machen. AWS berichtet, dass PwC diesen Dienst bereits zur Entwicklung von KI-Assistenten für seine Kunden verwendet. Swami Sivasubramanian, Vizepräsident für KI und Daten bei AWS, betonte, dass solche Innovationen Kunden an Bedrock binden.
Er fügte hinzu, dass die Kundenbasis von Bedrock im vergangenen Jahr um das 4,7-fache auf mehrere zehntausend Kunden angewachsen ist. Ein Experte warnte jedoch, dass das vollständige Eliminieren von Halluzinationen aus generativer KI ähnlich schwierig sein könnte wie das Entfernen von Wasserstoff aus Wasser. KI-Modelle sind statistische Systeme, die Muster in Daten erkennen und Vorhersagen darüber treffen, welche Daten als nächstes erscheinen könnten. Daher gelten ihre Antworten eher als Vorhersagen innerhalb einer Fehlermarge.