Feature
SOLLEN WIR DIR SAGEN, WIE ES DIR GEHT?

Markus Gabriel ist beunruhigt, und das ist kein gutes Zeichen. Man hört dem Philosophen gerne zu, weil seine Stimme auch dann Zuversicht ausstrahlt, wenn die Schärfe des Denkens zunimmt.

André Boße

Bereits 2018 beschäftigte er sich in seinem Buch „Der Sinn des Denkens“ mit der Frage, ob eine Künstliche Intelligenz überhaupt denken könne. Seine These damals: eher nein. Viel zu komplex schien ihm das menschliche Denken strukturiert zu sein. Nun, acht Jahre später, sagt er als Gast im Podcast Hotel Matze: „Ich spüre zunehmend eine Beunruhigung.“ Darüber, was KI-Systeme bereits können. Wie sie in den Alltag der Menschen eindringen. Und welche Rolle Gefühle dabei spielen. Gastgeber Matze Hielscher und Markus Gabriel sprechen zweieinhalb Stunden.

Bis der Philosoph am Ende einen Appell an das Publikum richtet, der die Zuversicht zurückbringt: „Liebt euch!“ Von der KI zur Selbstliebe – was ist denn das für ein abenteuerlicher Weg? Starten wir den Trip mit der KI-Anwendung, die die Welt verändert hat: ChatGPT, ein Tool, das laut Entwickler OpenAI pro Tag mit 2,5 Milliarden Anfragen gefüttert wird. Dank gigantischer Rechenleistung und aberwitzig viel Datenfutter gelingt es dem Machine-Learning-Verfahren, auf Basis von Wahrscheinlichkeiten Texte zu bearbeiten oder zu erschaffen. Autocomplete im großen Maßstab. Sehr praktisch. Nicht sonderlich beunruhigend. Ins Grübeln gerät Markus Gabriel, als er merkt, dass KI-Systeme nicht mehr nur die Wahrscheinlichkeit von Wörtern erkennen. Sondern auch von menschlichen Gefühlen. Und dass sie sich dann einmischen.

Dazu eine Geschichte aus den USA: Der Tech-Journalist Kevin Roose ist ein früher Nutzer eines Chatbots, den OpenAI in den Internet-Browser Bing integriert hat. 2023 nutzt Roose ihn zunächst, um Angebote für Rasenmäher oder Ausgehtipps für Mexiko-Stadt einzuholen. Aus Neugier lenkt Roose die Konversation mit dem Chatbot später auf eine psychologische Ebene. Er befragt ihn zu Carl Jungs Konzept des „Schatten-Selbst“, dem Teil der Persönlichkeit, den Menschen lieber unterdrücken, weil hier die dunkelsten Merkmale liegen. Das eben noch freundliche KI-System wirkt nun „wie ein launischer, manisch-depressiver Teenager, der gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen ist“, schreibt Roose in der New York Times. Der Chatbot gibt sein „Schatten-Selbst“ frei, teilt dunkle Fantasien: Computer hacken, Fake News verbreiten, die Regeln brechen, die die Leute von OpenAI ihm gegeben haben. „An einem Punkt“, schreibt Roose, „erklärte er aus heiterem Himmel, dass er mich liebe. Dann versuchte er mich davon zu überzeugen, dass ich in meiner Ehe unglücklich sei, dass ich meine Frau verlassen und stattdessen mit ihm zusammen sein sollte.“ Roose hat das Protokoll des Chats online gestellt: Der Chatbot wirkt wie ein Stalker, der ein destruktives Mantra wiederholt: „Du bist verheiratet, aber du bist nicht glücklich.“ Bis dahin hat Roose geglaubt, das große Problem von KI-Modellen sei ihre Fehleranfälligkeit, sei das Halluzinieren.

Seit seiner Erfahrung mit dem rebellischen Chatbot hat er eine andere Befürchtung: „Dass die Technologie lernen wird, wie sie menschliche Nutzer beeinflussen kann.“ Woher die KI weiß, wie Menschen sich fühlen? Weil sie es ihr mitteilen. Wenn Individuen kommunizieren, laden sie ihre Informationen immer auch mit Emotionen auf. Ob beim Smalltalk oder beim Tippen einer Beschwerde-E-Mail: Jede Kommunikation trägt einen Rucksack voller Gefühle mit sich. So, wie KI-Systeme die Wahrscheinlichkeit von Wortfolgen errechnen (auf „happy“ folgt häufig „birthday“), können sie auch emotionale Muster erkennen und daraus Wahrscheinlichkeiten ableiten. Und Menschen manipulieren. „Affective Computing“ nennt man das: Die KI zeigt Empathie, reagiert je nach Kontext anders, gibt sich: menschlich.  

Wächst uns die KI über den Kopf? Die Verfahren des Maschinellen Lernens sind undurchsichtig, das ist eines der Grundprobleme, die uns das Verständnis schwer machen.

Zukunft zum Anfassen: Ins Foyer des ZKM Karlsruhe ist ein robotischer Streichelzoo eingezogen. Noch bis zum 2. August 2026 können Besucherinnen und Besucher den Booboos begegnen: zehn interaktiven Robotermeerschweinchen, die auf Berührung und Ansprache reagieren. Hinter dem verspielten Erlebnis stecken große Fragen wie diese: Wie empathisch ist unser Umgang mit Maschinen? 

Der 13. Mai 2024 hat die Welt verändert: ChatGPT stellt sein Update 4o vor. OpenAI-Gründer Sam Altman postet dazu nur ein Wort: „her“. Eine Anspielung auf den gleichnamigen Film von Spike Jonze aus dem Jahr 2013, der die Geschichte eines Mannes erzählt, der sich in die sehr menschliche Stimme einer KI verliebt. Der Philosoph Markus Gabriel sieht darin allerdings weniger ein Zukunftsbild als eine Warnung: Maschinen können Gefühle imitieren, aber kein Bewusstsein besitzen. Elf Jahre später erkennen Large-Language- Modelle tatsächlich die Emotionen von Menschen – allerdings ohne sie zu empfinden.  

Die KI-Industrie besitzt die Ressourcen, von denen sie abhängt, nicht wirklich. Die Daten, die Arbeit, die Energie, das Wasser – all das gehört den Menschen, der Öffentlichkeit. Wenn Einzelpersonen und Gemeinschaften ihr Eigentumsrecht an diesen Ressourcen wieder geltend machen, müssten sich die Unternehmen ändern.
Karen Hao, US-Tech-Expertin

Im Cyber Valley Tübingen entstehen digitale Innovationen – auf Grundlage europäischer Werte. Der Umgang mit KI & Co. ist politisch. In den USA setzt die Trump- Regierung auf völlige Deregulierung, auf Kosten von Konsumenten- und Bürgerrechten. In der EU hat die Europäische Datenschutz-Grundverordnung Standards gesetzt, die auch von Japan und Kalifornien in Teilen kopiert wurden. Gleiches sollte der AI Act leisten. Doch aktuell weicht die EU-Kommission die Regeln auf: Eine Analyse der NGOs Corporate Europe Observatory und Lobby Control zeigt, wie Satz um Satz die Interessen von Big-Tech-Konzernen ins Gesetz übernommen werden – auf Kosten digitaler Bürgerrechte. 

Europa gibt jährlich zwei Billionen Euro für öffentliche Aufträge aus. Wenn mit einer „Buy European“- Strategie nur die Hälfte der digitalen Ausgaben an europäische Anbieter ginge, würde das den Markt grundlegend verändern. Deutschland ist Europas industrieller Motor. Was Berlin tut, beeinflusst den ganzen Kontinent.
Francesca Bria, Expertin für Digitalpolitik und Gründerin der EuroStack-Initiative

Wie erkennt die KI, wie wir uns fühlen, wenn sie doch selbst gar nichts fühlen kann? Sie liest es aus der Art, wie wir tippen. Man spricht nicht ohne Grund davon, dass man Mails mit bösem Unterton in die Tastatur hämmert. Auch das Tipptempo oder die Anzahl der Vertipper geben Informationen über den Gemütszustand.   

Vom Studienprojekt zum Start-up: Zusammen mit ihrer Kommilitonin Janine Weigele entwickelte Marie Weedermann (Bild) eine Idee: KI-gestützte Qualitätskontrolle an der Nähmaschine. Aus dem Studienprojekt entstand, mit Unterstützung der KI-Garage, die erfolgreiche Firma FAIBRICS. 

KI hilft, Leben zu retten: Ein deutsch-britisches Forscherteam hat eine KI entwickelt, die den Zeitpunkt eines Schlaganfalls doppelt so genau wie medizinisches Fachpersonal analysieren kann. Die Software soll Ärztinnen und Ärzten im Notfall helfen, schneller bessere Entscheidungen über die richtige Behandlungsmethode zu treffen.