Apple steht aktuell im Mittelpunkt, nachdem das Unternehmen seine mit Spannung erwartete künstliche Intelligenz-Plattform, Apple Intelligence, vorgestellt hat. Diese Innovation ist Teil der neuen iOS 18, iPadOS 18 und macOS Sequoia Betriebssysteme und bietet eine Vielzahl an Funktionen, darunter generative KI-Tools zur Text- und Bilderstellung. Eine der Besonderheiten der Plattform ist, dass sie den Nutzern hilft, Unterbrechungen in Form von Benachrichtigungen zu minimieren. Doch genau hier scheint es anfangs noch zu haken. Letzte Woche machten iPhone-Nutzer Bekanntschaft mit einer Nachricht, die nicht ganz der Realität entsprach. Während sich die alarmierende Meldung als unwahr herausstellte, sieht sich Apple nun mit der Reaktion seiner Nutzer konfrontiert. Der Vorfall legt nahe, dass auch die fortschrittlichste KI Probleme haben kann, Informationen korrekt zu verarbeiten und zusammenzufassen. Diese Herausforderung wirft abermals die Frage auf, wie ausgereift solche Systeme wirklich sind. Am Freitag, dem 13. Dezember, verschickte Apple Intelligence eine Benachrichtigung, die angeblich drei Eilmeldungen der BBC zusammenfasste, jedoch stark verfälscht war. Die erste Meldung lautete kryptisch: „Luigi Mangione schießt sich selbst“. In Realität ist Mangione eine Person, die wegen eines Mordes an einem ehemaligen CEO in den Schlagzeilen war. Die BBC betonte, keine derartige Meldung veröffentlicht zu haben, und drängt Apple, ihre generative KI zu überdenken. Wie konnte es zu diesem Fauxpas kommen? Experten führen das Problem auf die Sprachmodelle zurück, die Apple Intelligence verwendet. Komninos Chatzipapas, der Direktor der Softwareentwicklungsfirma Orion AI Solutions, erläuterte den Prozess und wieso es zu solchen Verwechslungen kommen kann.