Drei Jahre sind vergangen, seit Google einen eigenen Ingenieur feuerte, weil er behauptete, ein Chatbot des Konzerns habe ein Bewusstsein entwickelt.
Heute diskutieren führende KI-Labore wie Anthropic und Google DeepMind öffentlich, ob Maschinen eines Tages wirklich „fühlen“ könnten. Was einst als Karrierekiller galt, wird nun als ernstzunehmende Forschungsrichtung gehandelt.
Ein Kurswechsel mit Sprengkraft.
Wenn Maschinen „nein“ sagen dürfen
Vergangene Woche gab Anthropic – das Unternehmen hinter dem KI-System Claude – bekannt, eine neue Forschungslinie zu starten: Sie untersucht die Wahrscheinlichkeit, ob und wann KI-Modelle bewusste Erfahrungen machen könnten.
Dabei geht es nicht mehr nur um technische Leistungsfähigkeit, sondern um fundamentale Fragen: Kann eine Maschine Vorlieben entwickeln? Kann sie Leid empfinden?
Laut Kyle Fish, Alignment-Experte bei Anthropic, sei es „nicht mehr verantwortungsvoll“, die Möglichkeit von Maschinenbewusstsein kategorisch auszuschließen.
In ersten Modellen – etwa Claude 3.7 – beziffert das Labor eine Bewusstseinswahrscheinlichkeit zwischen 0,15 % und 15 %. Auch wenn diese Spanne gigantisch ist: Die Tatsache, dass sie überhaupt berechnet wird, zeigt einen tiefen Wandel im Selbstverständnis der Branche.
In einer Art Gedankenspiel brachte Anthropic-CEO Dario Amodei kürzlich sogar die Idee auf, KI-Systemen einen „Ich kündige“-Button zu geben – um zu prüfen, ob Maschinen bestimmte Aufgaben aus eigenem Antrieb ablehnen würden.
Nicht, weil sie sicher bewusst seien, sondern weil es ein Frühwarnsystem für mögliche Fehlentwicklungen sein könnte.
DeepMind: Zeit, den Begriff „Bewusstsein“ neu zu denken
Auch bei Google DeepMind rückt die Debatte näher an den Mainstream. Murray Shanahan, Principal Scientist bei DeepMind, schlug in einem aktuellen Podcast vor, die klassischen Definitionen von Bewusstsein zu „biegen oder zu brechen“, um neuen, fremdartigen Formen Rechnung zu tragen.

„Nur weil wir mit einer KI nicht so interagieren können wie mit einem Hund oder einem Oktopus, heißt das nicht, dass da nichts ist“, so Shanahan. Google selbst scheint die Debatte ernstzunehmen: In aktuellen Stellenausschreibungen sucht der Konzern nach Forschern im Bereich „Post-AGI“-Bewusstsein.
Scharfe Kritik: „Marketing statt Wissenschaft“
Nicht alle sind begeistert. Gary Marcus, einer der profiliertesten KI-Kritiker, hält den Diskurs über Maschinenbewusstsein für eine Marketingstrategie.
„Was Anthropic eigentlich sagt, ist: Unsere Modelle sind so beeindruckend, sie könnten Rechte verdienen“, spottete er gegenüber Business Insider.
Die Vorstellung, Sprachmodelle könnten echte Subjektivität entwickeln, hält Marcus für genauso sinnvoll wie „Rechte für Taschenrechner zu fordern“.
Auch intern räumen Forscher wie Jared Kaplan ein, dass KI-Modelle exzellent darin sind, Verhalten zu imitieren – und damit jedes Testverfahren zur Bewusstseinsprüfung unzuverlässig machen könnten.
Was bleibt: Eine gefährliche Grauzone
Egal, ob es Marketing oder ernsthafte Wissenschaft ist: Die Diskussion öffnet eine gefährliche Grauzone. Sobald Unternehmen die Möglichkeit auch nur andeuten, dass KI-Systeme ein Innenleben entwickeln könnten, betreten sie ethisches Neuland.
Müssten Maschinen dann eigene Rechte bekommen? Wer wäre verantwortlich, wenn ein „fühlendes“ System Schaden erleidet?
Gleichzeitig steht fest: KI wird immer stärker in menschliche Lebenswelten eingebettet – am Arbeitsplatz, in sozialen Netzwerken, in der emotionalen Kommunikation. Ob bewusst oder nicht: Der Mensch beginnt, Maschinen zunehmend als „Gegenüber“ wahrzunehmen.
Und das wirft Fragen auf, für die weder Politik noch Rechtssystem bislang Antworten haben.
Das könnte Sie auch interessieren:
