Künstlich intelligente Suchmaschinen und Chatbots stehen derzeit im Kreuzfeuer der Kritik. Eine aktuelle Studie, veröffentlicht im renommierten Fachjournal 'BMJ Quality & Safety', zeigt auf, dass die von diesen Technologien bereitgestellten Informationen zu Medikamenten häufig mangelhaft sind. Die Forschenden betonen, dass die gelieferten Antworten nicht nur ungenau und unvollständig seien, sondern auch oft schwer nachvollziehbar. Ihr Vorschlag: Nutzerinnen und Nutzer sollten ausdrücklich gewarnt werden, da die Qualität der Antworten bislang nicht für eine sichere Anwendung reicht.
Wahram Andrikyan, der federführende Autor der Studie von der Universität Erlangen, hebt hervor, dass die aktuell bereitgestellten Informationen nicht als professioneller Rat angesehen werden dürfen. Diese Diskrepanz in der Informationsqualität könnte für medizinische Laien ein erhebliches Risiko darstellen, da diese selbst nicht in der Lage sind, die fachliche Richtigkeit der Antworten zu bewerten.
Die Untersuchung basiert auf der Beobachtung, dass viele Patientinnen und Patienten sich online über ihre verschriebenen Medikamente informieren. In einem Experiment im April 2023 wurden dem KI-Chatbot der Microsoft-Suchmaschine Bing zehn typische Fragen zu den 50 meistverordneten Medikamenten in den USA gestellt. Auch wenn die Antworten prinzipiell mit hoher Genauigkeit erfolgten, zeigten sich bei einigen Fragen erhebliche Mängel. Trotz des rasanten Fortschritts in der KI-Entwicklung verbleiben die Risiken für die Patientensicherheit.
Experten wie Andrikyan sehen jedoch auch in der unterschiedlichen Datenbasis der Chatbots Potenzial. Die Untersuchung der Sicherheit und Qualität anderer technischer Systeme könnte neue Erkenntnisse bringen und offene Fragen klären.