Risiken suchen – oder Chancen sehen?

Frauke Kreuter, Prof. für Data Science, erklärt, wann Algorithmen problematisch werden und warum KI die Gesellschaft positiv verändern kann.

Julia Decker
Lesedauer: 10 Minuten

Künstliche Intelligenz durchdringt inzwischen alle unsere Lebensbereiche. Was ist der Vorteil, wenn KI den Menschen bei Entscheidungen unterstützt?

Frauke Kreuter Durch die Verwendung von Algorithmen, denn nichts anderes ist KI, erhofft man sich etwa mehr Gerechtigkeit. In den USA zum Beispiel ist es in einigen Bundesstaaten üblich, dass an Gerichten vor der Entscheidung über ein Strafmaß alle Informationen über den Fall, über den zu Verurteilenden oder die zu Verurteilende in den Computer eingeben werden. Aufgrund der Kombination an Variablen und Hintergrundinformationen wie Tatvorwurf, Wohnsituation oder Vorstrafen schlägt ein Algorithmus auf der Basis vergleichbarer Fälle ein Strafmaß vor. So soll vermieden werden, dass ein Richter oder eine Richterin anders entscheidet, weil er oder sie heute einen guten Tag hat und morgen einen schlechten. Mithilfe von KI kann das beste Urteil gesprochen werden. Das ist die Hoffnung. 

Und die bestätigt sich? Oder werden dadurch bestimmte Gruppen in der Bevölkerung erst recht benachteiligt?

FK Das kommt stark darauf an, mit welchen Daten die KI trainiert wurde. Ein Algorithmus ist nicht per se rassistisch. Doch wenn er mit Daten trainiert worden ist, die versteckten Rassismus enthalten, dann wendet er die Diskriminierung auch an – und trifft so rassistische und unfaire Entscheidungen. Bei einem Fall in den USA konnte für einen Algorithmus gezeigt werden, dass schwarzen Angeklagten deutlich häufiger fälschlicherweise ein hohes Rückfallrisiko zugesprochen wurde. 

Wissen wir denn immer, in welchen Zusammenhängen Entscheidungen nicht mehr von Menschen getroffen werden?

FK Automatisierte Entscheidungen von Algorithmen sind viel verbreiteter als die meisten wahrnehmen. Aber dass gar kein Mensch mehr eine Entscheidung überprüft, ist sehr selten. Dennoch gibt der Algorithmus eine maßgebliche Hilfestellung. Ein bekanntes Beispiel ist die Einschätzung der Kreditwürdigkeit. Solche „Credit Scores“ gibt es in vielen Ländern, in Deutschland ist das die Schufa-Auskunft. Geschäftspartnerinnen und Geschäftspartner können zum Beispiel einsehen, wie regelmäßig Rechnungen bezahlt wurden. 

Frauke Kreuter ist Professorin für Statistik und Data Science in den Sozial- und Humanwissenschaften an der Ludwig-Maximilians-Universität München. Sie ist Co-Direktorin des Social Data Science Center an der University of Maryland und des Mannheim Data Science Center, das sie an der Universität Mannheim gemeinsam mit Kolleginnen und Kollegen der Informatik und BWL aufgebaut hat. Sie forscht zu Datenqualität und zu Gerechtigkeit bei automatisierten Entscheidungsfindungen. 

Kaum jemand hinterfragt die Schufa. Warum kann man „Credit Scores“ in Bezug auf Gerechtigkeit kritisch sehen?

FK Weil jedes persönliche Merkmal, soweit es messbar ist – sei es die Anzahl der Kinder, der Bildungsgrad oder der Wohnort –, in die Berechnung zur Kreditwürdigkeit einfließen kann. Es wird unterstellt, dass ein Merkmal Ursache für ein bestimmtes Verhalten ist. Die Postleitzahl bestimmt dann also, ob man einen Kredit erhält. 

 

Die Finanzwelt und KI bringt man leicht miteinander in Zusammenhang. Welcher Einsatzbereich ist überraschend?

FK In Österreich wurden eine Weile lang die Arbeitsmarktchancen von Jobsuchenden mithilfe lernender Algorithmen bewertet. Es ging um Fragen wie: Ist das jemand, der auch ohne Unterstützung wieder einen neuen Job findet, oder jemand, der Unterstützung vom Jobcenter benötigt? Es flossen Merkmale wie Geschlecht, Alter oder Familienstand in die algorithmische Entscheidungsfindung mit ein. Da kann es sein, dass zum Beispiel ältere Bewerberinnen und Bewerber unbeabsichtigt diskriminiert werden. Konkret wurde ihnen eine niedrigere Chance zugeschrieben, in den Folgemonaten wieder eine Beschäftigung zu finden, was ihren Zugang zu Unterstützungsangeboten beeinträchtigen konnte. 

Diese Fehler wirken – im Nachhinein – so offensichtlich. Könnte man diskriminierende Aspekte in Algorithmen nicht schon zu einem frühen Zeitpunkt vermeiden?

FK Das ist nicht immer einfach. Manchmal verändert sich die Welt schneller als die KI-Trainingsdaten. Ein Beispiel ist die Bewerberflut bei offenen Stellen: Ein Unternehmen kann hier einen Algorithmus einsetzen, der eine erfolgversprechende Vorauswahl trifft. Um die Vielfalt aller Menschen – männlich, weiblich, divers – abzubilden, die sich möglicherweise bewerben, braucht die KI aber entsprechende Daten. Sind darin nicht alle Geschlechter ausreichend repräsentiert, droht eine Ungleichbehandlung. Die Aktualität von verwendeten Daten bei der Entwicklung von KI ist ein Aspekt, um den wir uns kümmern. 

Es geht also mehr um die Qualität der Daten als um die Frage: KI – ja oder nein?

FK Genau. Es geht zunächst um ein Bewusstsein für die Qualität der Daten und eine achtsame Datennutzung. Dazu brauchen wir einen besseren Austausch zwischen Programmierern und jenen Expertinnen, die Kontext und Auswirkungen im Einsatzgebiet der KI bewerten können. Im zweiten Schritt geht es darum, in welchen Kontexten wir eigentlich welche Entscheidungen treffen wollen. Verwenden wir KI für die Arbeitsmarktchancen von Jobsuchenden oder auch, um die Vergabe von Intensivbetten zu regeln? Da wäre ein gesellschaftlicher Diskurs sehr wichtig. 

Warum gibt es diese Debatte nicht?

FK Weil die meisten Menschen nicht wissen, an welchen Stellen und mit welchen Daten KI schon jetzt gefüttert wird – in welcher Form und mit welcher Qualität. Noch führt Unwissen im Zusammenhang mit KI zu einer Polarisierung, die nicht hilfreich ist: KI als Schreckgespenst ignoriert die Chancen und verhindert eine konstruktive Betrachtung. 

Wie nimmt man der KI den Schrecken?

FK KI ist auch nur Mathe und Statistik. Viele denken dabei aber an etwas Übermenschliches, fast Mystisches. Die Angst verliert man, indem man beginnt, sich mit den Grenzen der KI zu beschäftigen, die wir selber ziehen können, und das fängt mit den Daten an. Die Scheu vor Mathe und Statistik abzulegen, kann sehr befreiend sein! 

Was passiert, wenn wir unsere Welt zunehmend digitalisieren und mechanisieren? Diese Frage stellt sich nicht nur die Wissenschaft. Der britische Kunsthändler und Galerist Aidan Meller und die Kuratorin Lucy Seal erschufen gemeinsam mit der Universität Oxford den ersten Zeichenroboter der Welt: Ai-Da, benannt nach der britischen Mathematikerin und Programmierpionierin Ada Lovelace. Mit ihren Kamera-Augen scannt Ai-Da den Raum, ihr KI-Algorithmus steuert den Bleistift, der am Roboterarm befestigt ist. Die krakeligen Zeichnungen – im Bild ein Selbstporträt – sollen absichtlich zerbrochen und zusammenhanglos wirken, um Ai-Das sorgenvollen Blick auf die Welt zu verdeutlichen. Mehr Infos unter: www.ai-darobot.com 

Ist das nicht leichter gesagt als getan?

FK Nehmen wir das Beispiel Mobilität: Um Auto zu fahren, muss ich nicht unbedingt ein Auto bauen können. Das haben ja zum Glück andere getan. Aber man kann lernen, wie es funktioniert. Und zum Beispiel wissen, dass man das Gaspedal vorsichtig drückt und nicht sofort voll aufs Gas geht. Auch den Umgang mit KI kann ich üben. 

Geben wir unsere Eigenverantwortung ab, wenn wir mehr und mehr Entscheidungen an KI auslagern?

FK Die typische Wissenschaftlerantwort lautet: Das ist alles viel komplexer. Für mich stellt sich eher die Frage: Was ist die Alternative? Entscheidungen müssen getroffen werden. Wir dürfen nicht vergessen: Auch Menschen treffen schlechte Entscheidungen. Wenn Algorithmen zur Entscheidungsfindung verantwortungsvoll und mit den richtigen Daten entwickelt werden, erhöhen wir unsere Freiheit. 

Inwiefern?

FK Viele Daten zu Verfügung zu haben, ist zunächst mal großartig, weil zum Beispiel bessere politische Entscheidungen getroffen werden können, Stichwort: evidenzbasierte Politik. Es ist hilfreich zu wissen, was im eigenen Land los ist, wenn die Regierung Entscheidungen trifft. Wir sehen das in der Coronakrise, wenn wir etwa herausfinden wollen, ob die Leute daheimbleiben. Anhand anonymisierter Daten kann man sehen, wie viele Menschen derzeit auf den Straßen  unterwegs sind. Diese Daten zu verwenden, ist ja zunächst mal gut und unverfänglich.

Hilft KI also dabei, die Gesellschaft zum Positiven zu verändern?

FK Davon bin ich absolut überzeugt. Wie bei jeder neuen Technik gibt es Gefahren und Risiken, um die man sich ohne Angst kümmern muss. Um es nochmal am Beispiel Auto zu verdeutlichen: Es hat uns individuelle Mobilität verschafft. Doch damit haben wir die Umwelt geschädigt. Hätten wir es vielleicht besser nie entwickelt? Wahrscheinlich nicht, aber wir hätten schon früher Wert auf Umweltfragen legen sollen. Nun erhält man die individuelle Mobilität und versucht, die negativen Folgen zu reduzieren, man setzt auf E-Autos oder auf Wasserstoffmotoren. Auch KI muss man entsprechend wissenschaftlich begleiten und permanent weiterentwickeln. 

Solche Vorgänge empfinden viele als bedrohlich. Wie können wir bei der Entwicklung von KI klare Grenzen setzen?

FK In manchen Bereichen der Gentechnik hat man gesagt: Hier stoppen wir. So eine Beschränkung könnte man sich auch bei KI vorstellen. An vielen Stellen, zum Beispiel in der öffentlichen Verwaltung und bei privaten Firmen, hat lange Zeit einfach der Mut gefehlt, KI eine Chance zu geben. Im Jahr 2020 haben wir erlebt, dass viele, denen die Digitalisierung ein unangenehmer Gruß aus der Zukunft war, schließlich doch gesagt haben: Jetzt machen wir das einfach mal! Wir hatten neulich in unserem Podcast zur Digitalisierung einen Vertreter aus dem Baugewerbe. Dort werden Algorithmen genutzt, um den Bedarf von Beton vorherzusagen und Ressourceneinsätze zu steuern. Selbst wenn etwas nicht sofort klappt, können wir daraus lernen. Den Mut aufzubringen, um etwas auszuprobieren, lohnt sich. Auch bei KI. 

Um den Preis, dass durch eventuell fehlerhafte Algorithmen diskriminierende Entscheidungen getroffen werden?

FK Zwischen „ausprobieren“ und „im großen Stil nutzen“ liegen sehr viele Schritte. Der erste Schritt wäre: Wir investieren jetzt Zeit und Ressourcen, um überhaupt automatisierte Entscheidungen treffen zu können. Und dann müssen wir von Anfang an kritisch diese Prototypen Schritt für Schritt weiterentwickeln. 

Kann es sein, dass in Bezug auf KI vielen Menschen nicht nur der Mut, sondern auch das Vertrauen fehlt?

FK Wenn mein Großvater noch am Leben wäre und man würde ihn fragen, wie es ihm erging, als er sich das erste Mal in ein Auto setzte, würde er von ähnlichen Gefühlen berichten, wie wir sie heute in Bezug auf KI haben. Wir haben über die Jahre die Ingenieurswissenschaften extrem weiterentwickelt und DIN-Normen geschaffen. Viele Zertifizierungen – ein unglaublich ausgefeiltes System, um Vertrauen zu schaffen. Wir wissen ganz sicher, wenn sie nicht diesem oder jenem Sicherheitsstandard entsprechen, würden bestimmte Konstruktionen gar nicht zugelassen. An diesen Punkt müssen wir auch bei der KI kommen. 

Was sehen Sie hier? Krakelige Zeichnungen oder das Gesicht einer Revolution? Dieses Selbstporträt stammt von Ai-Da, der ersten KI-Roboter-Künstlerin der Welt. Künstliche Intelligenz wird unser Leben verändern – und verbessern, da ist sich Data-Science-Professorin Frauke Kreuter sicher. Wir brauchen nur Mut, Neues zu wagen.

Gibt es schon funktionierende Sicherheitsstandards bei KI?

FK Davon sind wir noch sehr weit entfernt. Professor Bernd Bischl von der LMU und seine Kollegen im Münchner Center for Machine Learning arbeiten fieberhaft daran. Wir wissen vor allem bei Trainingsdaten noch nicht, wie sie zertifiziert werden müssten. Genau hier versucht unser Projekt, einen Beitrag zu leisten.

 

Vielleicht brauchen wir einfach mehr Aufklärung im Zusammenhang mit Daten und ihrer Verwendung?

FK Unbedingt. Genau deshalb werde ich nicht müde, darüber zu sprechen. Sogar Zeitungen oder Ministerien ignorieren oft die grundlegenden Vorgehensweisen: Häufig werden Zahlen und Prozentwerte aus Studien veröffentlicht, ohne anzugeben: Was war die Datenquelle? Wie wurden die Daten erhoben? Ist das überhaupt eine repräsentative Zufallsstichprobe oder hat man einfach nur die ersten hundert Menschen genommen, die man in der Fußgängerzone getroffen hat? Die Verlässlichkeit und Aussagekraft solcher Quellen sollte immer skeptisch hinterfragt werden, unabhängig von der Nutzung von KI-Algorithmen.