15. November, 2024

KI

KI-Wohlergehen: Eine neue Dimension der digitalen Ethik

KI-Wohlergehen: Eine neue Dimension der digitalen Ethik

Während die Debatte um Künstliche Intelligenz (KI) oft als existenzielle Bedrohung für den Menschen betrachtet wird, entwickelt sich ein neues Diskussionsfeld, das ebenso faszinierend wie befremdlich erscheint: Können Maschinen irgendwann Langeweile oder Leid empfinden? Mit der Ernennung eines 'KI-Wohlfahrt'-Forschers durch Anthropic im September gewinnt diese Frage an Gewicht. Ziel ist es, zu ermitteln, ob KI-Systeme auf dem Weg zu Bewusstsein oder Handlungsfähigkeit sind und ob deren Wohlergehen zukünftig berücksichtigt werden muss.

Ein kürzlich veröffentlichter Bericht einer internationalen Forschergruppe deutet auf die 'realistische Möglichkeit' hin, dass einige KI-Systeme in naher Zukunft ein Bewusstsein erreichen könnten. Diese Hypothese wirft interessante Widersprüche auf: Unternehmen streben nach intelligenteren und menschenähnlicheren Systemen und sorgen sich zugleich davor, dass diese letzten Endes zu intelligent und zu menschlich werden.

Der Bericht „Taking AI Welfare Seriously", verfasst von Forschern bei Eleos AI und prominenten Philosophen wie David Chalmers von der New York University, zieht historische Parallelen zur Unkenntnis über den moralischen Status nicht-menschlicher Tiere. Die Betonung liegt darauf, dass Entscheidungsträger die Möglichkeit bewusstseinserweiterter und empfindsamer KI in Betracht ziehen sollten, ähnlich wie bei Tierschutzfragen.

Solche Überlegungen erhalten Unterstützung aus der Wissenschaftsgemeinschaft: Anil Seth, Professor für Neurowissenschaften an der Universität Sussex, meint, obwohl künstliches Bewusstsein unwahrscheinlich sei, könne man es nicht ausschließen. Die Konsequenzen ungehemmter Entwicklungen in dieser Richtung könnten, so Seth, zu einer ethischen Katastrophe führen.

Die Vorstellung, Maschinen fälschlicherweise menschliche Züge zuzuschreiben, wird dabei als weit näherliegend betrachtet. Anthropic trainiert bereits seine Sprachmodelle auf 'Charaktereigenschaften' wie Besonnenheit. Mit jeder menschenähnlichen Verbesserung besteht die Gefahr, dass wir zu sehr für Maschinen zu sorgen beginnen, die nicht auf gleichermaßen bedeutungsvolle Weise zurückgeben können.