- Dominik Rehse
Wie können wir KI regulieren?

Der Ökonom Dominik Rehse geht am ZEW-Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mannheim der Frage nach, wie man künstliche Intelligenz regulieren könnte. Ein Gespräch über Werkzeugkisten, Handlungsdruck und Zukunftsfragen.

Nina Himmer

Sie befassen sich mit künstlicher Intelligenz. Ich habe mir deshalb erlaubt, ChatGPT nach einem guten Einstieg in unser Gespräch zu fragen.

DOMINIK REHSE Da bin ich gespannt.

Die KI will wissen, was Sie persönlich bei Ihrer Arbeit antreibt…

D.R. Zusammen mit meinen Kolleginnen und Kollegen will ich mein ökonomisches Wissen und die entsprechenden Werkzeuge einsetzen, um tatsächliche Probleme in der Welt zu lösen. Dabei konzentriere ich mich auf den Bereich Digitales. Dort ist KI gerade ein großes Thema, genauso wie Datenökonomie, digitale Dienste und Plattformen. All das ist ein Spielfeld, auf dem ich mit meinen Fähigkeiten einen Mehrwert bieten kann.

Ein Feld allerdings, auf dem sich bereits viele Informatiker tummeln. Was haben Ökonomen beizutragen?

D.R. Eine ganze Menge. Wirtschaftswissenschaftler kümmern sich ja nicht nur um makroökonomische Probleme wie Arbeitslosigkeit oder Inflation. Es gibt auch Mikroökonomen, die sich mit spezifischen Märkten und deren konkreten Problemen beschäftigen. Das ist im Technikumfeld besonders wertvoll und wichtig. Große Big-Tech-Unter nehmen haben das bereits erkannt und beschäftigen Heerscharen von Ökonomen. Bei Google etwa optimieren sie den Werbemarkt, bei Amazon den Marktplatz. Im Bereich KI werden ökonomische Fähigkeiten aber noch unterschätzt. Dabei können sie einen wichtigen Beitrag zur Gestaltung dieser Technologie leisten – und so ihren Nutzen für die Gesellschaft steigern.

Wie sieht dieser Beitrag aus?

D.R. KI bewegt sich in einem Spannungsfeld. Es stecken enorme Chancen und Risiken, Innovations- und Missbrauchspotenzial darin. Das gilt auch ökonomisch: Wenn wir KI nicht sehr gut nutzen, entgehen uns Wohlstandsgewinne. Aber wenn wir sie nicht hinreichend kontrollieren, drohen Wohlstandsverluste. Wir müssen also Regeln für neu entstehende Märkte schaffen, damit wir das Gute nutzen und das Schädliche begrenzen können. In unserem Projekt befassen wir uns mit Letzterem. Konkret: mit der Prüfung von generativer KI.

Bevor wir das vertiefen, müssen wir einmal kurz klären, was generative KI genau ist.

D.R. Unter den Begriff werden verschiedene KI-Modelle zusammengefasst. Alle sind darauf ausgelegt, neue Inhalte in Form von Text, Audio, Bildern oder Videos zu erzeugen. Dazu gehören zum Beispiel OpenAIs ChatGPT, Googles Gemini oder Anthropics Claude Opus.

Aber niemand versteht zu 100 Prozent, wie diese Programme wirklich funktionieren…

D.R. Genau das ist das Problem. Natürlich kann man sich Quellcodes oder Trainingsdaten ansehen. Aber wie genau Algorithmen für generative KI arbeiten, bleibt undurchsichtig. Wir müssen die Algorithmen erforschen wie biologische Wesen, die sich rasend schnell entwickeln und verändern und über deren Verhalten man noch wenig weiß. Sie sind wie eine schwarze Box: Man sieht nicht hinein und man weiß nicht genau was rauskommt, wenn man etwas rein gibt. Trotzdem muss man ihr Verhalten irgendwie prüfen. Vieles wüsste man ja gerne, bevor man diese Algorithmen auf die Welt loslässt. Bisher aber gibt es keine schlüssige Antwort darauf, wie das gehen könnte. Deshalb lautet die Kernfrage unseres Projekts: Wie prüft man das Verhalten von KI effektiv und effizient?

Die Frage gebe ich zurück: Wie macht man das?

D.R. Wir haben uns vor allem mit Red Teaming befasst. So nennt man ein Prüfverfahren, bei dem eine Gruppe von Experten Sicherheitsmaßnahmen testet. Die Idee dahinter: Man versucht, KI-Algorithmen zu Fehlverhalten zu provozieren. Wir haben uns dabei auf grundrechtstangierende Fehlverhaltensweisen konzentriert, also etwa Fragen wie: Ruft eine KI zu Gewalt auf? Produziert sie Hassrede? Fordert sie Nutzer zu selbstschädigendem Verhalten auf? Unternehmen prüfen so etwas in gewissem Umfang bereits selbst, weil sie keine Lust auf Skandale haben. Es ist nicht in ihrem Interesse, dass sich KI-Chatbots diskriminierend, rassistisch oder sexistisch verhalten.

"Man muss generative künstliche Intelligenz erforschen wie ein biologisches Wesen."

Aber als Gesellschaft haben wir keinerlei Kontrolle darüber, wie oder wie gut diese Prüfung gemacht wird. Welches Maß wurde genutzt? Welche Fachleute gucken sich das an? Welche Qualifikationen haben sie? Wie leicht oder schwer lässt sich die KI provozieren? Wer urteilt über das Fehlverhalten? Solche Fragen haben wir uns systematisch angeschaut und nach Mustern gesucht. Unser Ziel ist eine verlässliche, einsatzbereite und kosteneffiziente Prüfung. Denn bisher gibt es in dem Bereich nur wenig Konkretes und Verlässliches, keine Standards. Aber da wollen wir als Gesellschaft hin, um beispielsweise die KI-Verordnung der EU wirkungsvoll umzusetzen.

Der Versuch der EU, das Thema anzugehen…

D.R. Genau. Die KI-Verordnung ist der erste Versuch der westlichen Welt, eine Regulierung von KI mit Gesetzescharakter zu schaffen. Die Verhandlungen darüber haben unsere Arbeit stark beeinflusst, zumal wir in Brüssel in Berlin dazu beratend tätig sind. Das ist ja das Ziel am ZEW: wirtschaftswissenschaftliche Forschung an wirtschaftspolitische Entscheidungsträger heranzutragen. Wir machen keine Forschung im Elfenbeinturm, sondern suchen nach Lösungen für real existierende Probleme. Eines davon ist, dass KI rasend schnell an Bedeutung gewinnt und wir dringend Wege finden müssen, solche Systeme sicher, transparent, umweltfreundlich und diskriminierungsfrei zu gestalten.

Wie bewerten Sie das bisherige Ergebnis aus Brüssel?

D.R. Die Vorstellungen der Verhandlungspartner gehen stark auseinander. Der große Wurf wird dieses Gesetz deshalb nicht, in den Details der Regulierung ist es noch ein sehr unausgegorenes Werk. Aber: Es ist das erste Mal, dass es einen europaweiten Regulierungsversuch gibt. Und wir sind die einzige westliche Demokratie, die da voran geht. Das ist ein sinnvolles und wichtiges Zeichen. Auch wenn es kompliziert ist, können wir die Dinge nicht einfach so laufen lassen. Und es braucht zwingend gemeinsame Lösungen, weil KI buchstäblich keine Grenzen kennt. Die Technik ist fluide, besteht aus Bits und Bytes. Also müssen wir sie supranational regeln. Es braucht gemeinsame Standards und Gesetze und behördliche Strukturen, die die Umsetzung überwachen. Ich halte das für unabdingbar, weil das Thema Grundrechte tangiert wird. Darum ging es übrigens auch bei unserem Projekt: in den Blick nehmen, was gegen Grundrechte verstößt.

Haben Sie dafür ein Beispiel?

D.R. Nehmen wir die Bereiche Bildung oder Medizin. Wer zum Beispiel heute eine Psychotherapie sucht, muss mit langen Wartezeiten rechnen. Die könnte man mit KI-basierten Lösungen überbrücken. Das wäre besser, als psychisch belastete Menschen ganz allein zu lassen. KI ist ja unter anderem überall dort interessant, wo es an menschlichen Ressourcen mangelt. So ein Angebot muss aber natürlich sicher sein, die im Therapiekontext relevanten Verhaltensweisen müssen passen. Je kritischer ein Bereich, desto verlässlicher muss das Verhalten sein. Das muss man prüfen. Damit das effizient gelingt, braucht es auch ökonomische Werkzeuge.

Dominik Rehse

Jahrgang 1983

 

Dr. Dominik Rehse ist Leiter der Nachwuchsforschungsgruppe „Design digitaler Märkte“ und stellvertretender Leiter „Digitale Ökonomie“ am ZEW-Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mann heim. Das gemeinnützige Forschungsinstitut wurde 1990 mit dem Ziel gegründet, politikrelevante Wirtschaftsforschung zu betreiben. Der akademische Fokus liegt deshalb auf Themen wie Digitalisierung und Innovation, Steuern, Altersvorsorge, Chancengleichheit und Klimaschutz. Es geht um Wissenschaft zum Nutzen der Gesellschaft, die konkrete Ideen zur Gestaltung von Märkten und Institutionen liefern soll.

 

 

Verantwortliche Künstliche Intelligenz

Das Projekt Turing Markets von Dr. Dominik Rehse ist eines von zehn Projekten aus dem Programm Verantwortliche KI, die die Baden- Württemberg Stiftung finanziert. Die finanzierte Forschung behandelt Fragen der politischen Steuerung von KI.

Mehr zum Programm
Verantwortliche KI