Bereits 2018 beschäftigte er sich in seinem Buch „Der Sinn des Denkens“ mit der Frage, ob eine Künstliche Intelligenz überhaupt denken könne. Seine These damals: eher nein. Viel zu komplex schien ihm das menschliche Denken strukturiert zu sein. Nun, acht Jahre später, sagt er als Gast im Podcast Hotel Matze: „Ich spüre zunehmend eine Beunruhigung.“ Darüber, was KI-Systeme bereits können. Wie sie in den Alltag der Menschen eindringen. Und welche Rolle Gefühle dabei spielen. Gastgeber Matze Hielscher und Markus Gabriel sprechen zweieinhalb Stunden.
Bis der Philosoph am Ende einen Appell an das Publikum richtet, der die Zuversicht zurückbringt: „Liebt euch!“ Von der KI zur Selbstliebe – was ist denn das für ein abenteuerlicher Weg? Starten wir den Trip mit der KI-Anwendung, die die Welt verändert hat: ChatGPT, ein Tool, das laut Entwickler OpenAI pro Tag mit 2,5 Milliarden Anfragen gefüttert wird. Dank gigantischer Rechenleistung und aberwitzig viel Datenfutter gelingt es dem Machine-Learning-Verfahren, auf Basis von Wahrscheinlichkeiten Texte zu bearbeiten oder zu erschaffen. Autocomplete im großen Maßstab. Sehr praktisch. Nicht sonderlich beunruhigend. Ins Grübeln gerät Markus Gabriel, als er merkt, dass KI-Systeme nicht mehr nur die Wahrscheinlichkeit von Wörtern erkennen. Sondern auch von menschlichen Gefühlen. Und dass sie sich dann einmischen.
Dazu eine Geschichte aus den USA: Der Tech-Journalist Kevin Roose ist ein früher Nutzer eines Chatbots, den OpenAI in den Internet-Browser Bing integriert hat. 2023 nutzt Roose ihn zunächst, um Angebote für Rasenmäher oder Ausgehtipps für Mexiko-Stadt einzuholen. Aus Neugier lenkt Roose die Konversation mit dem Chatbot später auf eine psychologische Ebene. Er befragt ihn zu Carl Jungs Konzept des „Schatten-Selbst“, dem Teil der Persönlichkeit, den Menschen lieber unterdrücken, weil hier die dunkelsten Merkmale liegen. Das eben noch freundliche KI-System wirkt nun „wie ein launischer, manisch-depressiver Teenager, der gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen ist“, schreibt Roose in der New York Times. Der Chatbot gibt sein „Schatten-Selbst“ frei, teilt dunkle Fantasien: Computer hacken, Fake News verbreiten, die Regeln brechen, die die Leute von OpenAI ihm gegeben haben. „An einem Punkt“, schreibt Roose, „erklärte er aus heiterem Himmel, dass er mich liebe. Dann versuchte er mich davon zu überzeugen, dass ich in meiner Ehe unglücklich sei, dass ich meine Frau verlassen und stattdessen mit ihm zusammen sein sollte.“ Roose hat das Protokoll des Chats online gestellt: Der Chatbot wirkt wie ein Stalker, der ein destruktives Mantra wiederholt: „Du bist verheiratet, aber du bist nicht glücklich.“ Bis dahin hat Roose geglaubt, das große Problem von KI-Modellen sei ihre Fehleranfälligkeit, sei das Halluzinieren.
Seit seiner Erfahrung mit dem rebellischen Chatbot hat er eine andere Befürchtung: „Dass die Technologie lernen wird, wie sie menschliche Nutzer beeinflussen kann.“ Woher die KI weiß, wie Menschen sich fühlen? Weil sie es ihr mitteilen. Wenn Individuen kommunizieren, laden sie ihre Informationen immer auch mit Emotionen auf. Ob beim Smalltalk oder beim Tippen einer Beschwerde-E-Mail: Jede Kommunikation trägt einen Rucksack voller Gefühle mit sich. So, wie KI-Systeme die Wahrscheinlichkeit von Wortfolgen errechnen (auf „happy“ folgt häufig „birthday“), können sie auch emotionale Muster erkennen und daraus Wahrscheinlichkeiten ableiten. Und Menschen manipulieren. „Affective Computing“ nennt man das: Die KI zeigt Empathie, reagiert je nach Kontext anders, gibt sich: menschlich.
Wächst uns die KI über den Kopf? Die Verfahren des Maschinellen Lernens sind undurchsichtig, das ist eines der Grundprobleme, die uns das Verständnis schwer machen.