Sie befassen sich mit künstlicher Intelligenz. Ich habe mir deshalb erlaubt, ChatGPT nach einem guten Einstieg in unser Gespräch zu fragen.
DOMINIK REHSE Da bin ich gespannt.
Die KI will wissen, was Sie persönlich bei Ihrer Arbeit antreibt…
D.R. Zusammen mit meinen Kolleginnen und Kollegen will ich mein ökonomisches Wissen und die entsprechenden Werkzeuge einsetzen, um tatsächliche Probleme in der Welt zu lösen. Dabei konzentriere ich mich auf den Bereich Digitales. Dort ist KI gerade ein großes Thema, genauso wie Datenökonomie, digitale Dienste und Plattformen. All das ist ein Spielfeld, auf dem ich mit meinen Fähigkeiten einen Mehrwert bieten kann.
Ein Feld allerdings, auf dem sich bereits viele Informatiker tummeln. Was haben Ökonomen beizutragen?
D.R. Eine ganze Menge. Wirtschaftswissenschaftler kümmern sich ja nicht nur um makroökonomische Probleme wie Arbeitslosigkeit oder Inflation. Es gibt auch Mikroökonomen, die sich mit spezifischen Märkten und deren konkreten Problemen beschäftigen. Das ist im Technikumfeld besonders wertvoll und wichtig. Große Big-Tech-Unter nehmen haben das bereits erkannt und beschäftigen Heerscharen von Ökonomen. Bei Google etwa optimieren sie den Werbemarkt, bei Amazon den Marktplatz. Im Bereich KI werden ökonomische Fähigkeiten aber noch unterschätzt. Dabei können sie einen wichtigen Beitrag zur Gestaltung dieser Technologie leisten – und so ihren Nutzen für die Gesellschaft steigern.
Wie sieht dieser Beitrag aus?
D.R. KI bewegt sich in einem Spannungsfeld. Es stecken enorme Chancen und Risiken, Innovations- und Missbrauchspotenzial darin. Das gilt auch ökonomisch: Wenn wir KI nicht sehr gut nutzen, entgehen uns Wohlstandsgewinne. Aber wenn wir sie nicht hinreichend kontrollieren, drohen Wohlstandsverluste. Wir müssen also Regeln für neu entstehende Märkte schaffen, damit wir das Gute nutzen und das Schädliche begrenzen können. In unserem Projekt befassen wir uns mit Letzterem. Konkret: mit der Prüfung von generativer KI.
Bevor wir das vertiefen, müssen wir einmal kurz klären, was generative KI genau ist.
D.R. Unter den Begriff werden verschiedene KI-Modelle zusammengefasst. Alle sind darauf ausgelegt, neue Inhalte in Form von Text, Audio, Bildern oder Videos zu erzeugen. Dazu gehören zum Beispiel OpenAIs ChatGPT, Googles Gemini oder Anthropics Claude Opus.
Aber niemand versteht zu 100 Prozent, wie diese Programme wirklich funktionieren…
D.R. Genau das ist das Problem. Natürlich kann man sich Quellcodes oder Trainingsdaten ansehen. Aber wie genau Algorithmen für generative KI arbeiten, bleibt undurchsichtig. Wir müssen die Algorithmen erforschen wie biologische Wesen, die sich rasend schnell entwickeln und verändern und über deren Verhalten man noch wenig weiß. Sie sind wie eine schwarze Box: Man sieht nicht hinein und man weiß nicht genau was rauskommt, wenn man etwas rein gibt. Trotzdem muss man ihr Verhalten irgendwie prüfen. Vieles wüsste man ja gerne, bevor man diese Algorithmen auf die Welt loslässt. Bisher aber gibt es keine schlüssige Antwort darauf, wie das gehen könnte. Deshalb lautet die Kernfrage unseres Projekts: Wie prüft man das Verhalten von KI effektiv und effizient?
Die Frage gebe ich zurück: Wie macht man das?
D.R. Wir haben uns vor allem mit Red Teaming befasst. So nennt man ein Prüfverfahren, bei dem eine Gruppe von Experten Sicherheitsmaßnahmen testet. Die Idee dahinter: Man versucht, KI-Algorithmen zu Fehlverhalten zu provozieren. Wir haben uns dabei auf grundrechtstangierende Fehlverhaltensweisen konzentriert, also etwa Fragen wie: Ruft eine KI zu Gewalt auf? Produziert sie Hassrede? Fordert sie Nutzer zu selbstschädigendem Verhalten auf? Unternehmen prüfen so etwas in gewissem Umfang bereits selbst, weil sie keine Lust auf Skandale haben. Es ist nicht in ihrem Interesse, dass sich KI-Chatbots diskriminierend, rassistisch oder sexistisch verhalten.