Von autonom bis zertifiziert

Viele Menschen reagieren auf die Themen rund um KI mit einer Mischung aus Faszination und Unbehagen. Gleichzeitig nehmen die Schnittstellen zu intelligenten Maschinen immer weiter zu – sei es durch Chatbots, humanoide Pflegeroboter oder KI-generierte Musik und Kunst.

Sabine Fischer

In den vergangenen Jahren hat sich die Forschungs- und Entwicklungsarbeit zu KI-Technologien stark in den privaten Sektor verlagert. KI ist nun in eine Industrie eingebettet, die den Interessen und Strategien einiger großer Technologiefirmen folgt. Während Nationen wie China oder die USA bei der Entwicklung von KI auf Tempo setzen, Regulierungen vermeiden und Risiken ignorieren, wollen europäische und deutsche Unternehmen mit einem durchdachten und verantwortungsbewussten Ansatz mittelfristig punkten. In unserem Glossar erklären wir einige der grundlegenden Begriffe. Dabei betont die Auswahl die Chancen spezifisch europäischer Entwicklungen. Während KI in Produkten wie ChatGPT als ominöser Alleskönner daherkommt, kann man sie auch für Lösungen hochkomplexer Probleme einsetzen und das Konzept der Co-Creativity in den Vordergrund stellen: einer kollaborativen Praxis zwischen menschlichen und maschinellen Akteurinnen und Akteuren.

Ein Beispiel für eine KI-Anwendung, die für viele noch wie Zukunftsmusik klingt. Dabei ist die vollautomatisierte Steuerung von Fahrzeugen bereits technisch umsetzbar und wird in verschiedenen Pilotprojekten örtlich begrenzt und unter strengen Auflagen praktiziert. So werden etwa im Testfeld des Karlsruher Verkehrsverbunds seit 2018 in großem Stil neue Mobilitätskonzepte und autonome Minibusse erprobt. Das Testfeld wird wissenschaftlich überwacht und begleitet und bindet Unternehmen und Bürger ein. Der Einsatz autonomer Shuttles eröffnet Möglichkeiten, die Mobilität zu flexibilisieren und damit deutlich zu verbessern – und das zu verhältnismäßig geringen Gesamtkosten.

 

Auch wenn es so scheint, als wäre eine KI eine neutrale Instanz, operiert sie mit Datensätzen, die stets nur einen bewusst gewählten Ausschnitt der Welt zeigen. Sprich, sie gibt einen oder mehrere Blickwinkel wieder, die begrenzt und oft auch interessengeleitet sind, und arbeitet fast zwangsläufig auch mit fehlerhaften oder manipulierten Quellen.

heißt ein erst 2024 gegründetes und laut Branchenkennern bereits mit mehreren Milliarden bewertetes Freiburger Unternehmen, das sich auf KI zur Bilderzeugung spezialisiert hat. Technologien von Black Forest werden bereits von Plattformen wie Meta, Microsoft und Adobe eingesetzt. Laut KI-Bundesverband leistet die Spitzentechnologie des Unternehmens einen wichtigen Beitrag „zu einem starken und souveränen europäischen KI-Ökosystem“.

Der Cyber Valley Innovation Campus, vor zehn Jahren im Neckartal gegründet, ist Europas größter Forschungsverbund im Bereich KI und Robotik. Es wird dort sowohl Grundlagenforschung betrieben als auch zu konkreten Anwendungsmöglichkeiten geforscht. Das Cyber Valley soll eine Talentschmiede für Spitzenkräfte sein, Gründerinnen und Kapitalgeber zusammenbringen, aber auch den gesellschaftlichen Dialog fördern. Mit im Boot sitzen etliche Großunternehmen, aber auch der Mittelstand, Start-ups sowie die Universitäten Stuttgart und Tübingen, das Karlsruher Institut für Technologie (KIT), die Fraunhofer-Gesellschaft, die Carl-Zeiss-Stiftung und das Max-Planck-Institut für Intelligente Systeme.

Erst seit kurzer Zeit ist die Technologie so weit vorangeschritten, dass Medieninhalte, meist bewegte Bilder und Stimmen von Menschen, exakt nachgebildet werden können, sodass man sie kaum noch oder gar nicht mehr vom Original unterscheiden kann. Deepfakes können der Unterhaltung dienen, kommen in der politischen Propaganda vor und werden von kriminellen Betrügern eingesetzt. Oft werden die Fälschungen zur Herstellung pornografischer Inhalte genutzt.

Anders als bei herkömmlichen algorithmischen Systemen kann eine KI durch Deep Learning eigenständige Regeln für ihre Berechnungen aufstellen. Aufgrund der eingespeisten Daten bilden sich die Algorithmen aus, sie passen sich an und lernen permanent dazu. Vorgegeben werden nicht mehr die Abläufe, sondern die Ausgangsparameter und das Ziel, auf das hin der Lernprozess optimiert wird. So können KI-basierte Systeme selbstständig Entscheidungen treffen und rechnerische Leistungen in einer Größenordnung erbringen, die für das menschliche Gehirn undenkbar ist. Tiefe neuronale Netze können eine Komplexität von bis zu hundert Millionen einzelnen Parametern und Milliarden von Rechenoperationen pro Aufgabe aufweisen. Die Abläufe in den neuronalen Netzen der KI sind selbst für Experten kaum nachvollziehbar.

Im Gegensatz zu generativen sind dezentrale KI-Modelle nicht konstant mit großen Rechenzentren verbunden. Sie funktionieren lokal und autonom in einem Gerät oder einer Maschine (Herd, Fahrzeug). Das System trifft – ähnlich wie eine Nervenzelle in Auge oder Rückenmark – lokale Entscheidungen und gibt nur ausgewählte Informationen weiter. Solche KI-Lösungen bieten große Vorteile bei Datenschutz und Energieeffizienz. Besonders wertvoll sind sie für Qualitätskontrollen oder Medizintechnik. Die Stärke vieler europäischer KI-Entwickler liegt gerade in solchen punktgenauen Anwendungen.

Wer einen KI-Chatbot bemüht, verbraucht deutlich mehr Energie, als bei einer normalen Google-Suche anfällt. Generative KI-Systeme sind extreme Energiefresser. Riesige Rechenzentren sind nötig, um sie am Laufen zu halten, Unmengen an Kühlwasser werden zur Kühlung der Anlagen benötigt. Bereits jetzt wird in einem Land wie Irland mehr als ein Viertel des gesamten Stroms von Rechenzentren verbraucht.

Das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz überhaupt. Es soll sicherstellen, dass KI-Systeme in der EU sicher, transparent und nicht diskriminierend sind. Das Gesetz teilt KI-Anwendungen in vier Risikokategorien ein – von minimal bis inakzeptabel – und legt je nach Stufe unterschiedliche regulatorische Anforderungen fest. Ziel ist, dass auch bei der rasanten Entwicklung neuer Technologien Grundrechte und ethische Standards gewahrt bleiben.

heißt die vom Innovationslabor BaWü (InnoLab_bw) entwickelte Verwaltungs-KI-Assistenz des Landes Baden- Württemberg. Menschenzentriert und datenschutzkonform ist sie ein wichtiger Schritt auf dem Weg zur digitalen Autonomie Europas. Die F13-Vollversion bietet Funktionen wie einen KI-Chatbot, Dokumentzusammenfassung und Recherche in Verwaltungsdokumenten. Sie stellt ein wichtiges Element bei der Modernisierung der Behörden und des Staates dar.

erstellen in Sekunden Texte, Bilder, Filme, Musik, Bauteile oder Diagnosen: Ergebnisse also, die bisher menschliche Kreativität erforderten. Sie lernen aus großen Datenmengen und erzeugen Inhalte, die den Trainingsdaten ähneln, ohne identisch zu sein. Die Anwendungsbereiche sind breit, zugleich sind sie urheberrechtlich (siehe unten) und sicherheitstechnisch umstritten. So warnt das Bundesamt für Sicherheit in der Informationstechnik (BSI) vor neuartigen IT-Sicherheitsrisiken für Unternehmen: Generative KI könne die Angriffsfläche für Cyberbedrohungen vergrößern, aber auch Qualität und Zuverlässigkeit des Outputs gefährden. Und Cyberkriminelle können damit überzeugende Betrugsmöglichkeiten wie täuschend echte Phishing-Mails entwickeln.

nennt man es, wenn die KI fehlerhafte, ungenaue oder irreführende Ergebnisse ausspuckt. Meist haben solche Schnitzer mit der Qualität der Quelldaten zu tun, sprich, die generative KI übernimmt Fehler aus den Quellen, mit denen sie gefüttert wird, oder ordnet Dinge falsch zu. Solches Halluzinieren kommt häufig vor. Deshalb müssen die Ergebnisse einer KI-Recherche stets kritisch hinterfragt werden.

steht für einen menschenzentrierten Umgang mit KI.

Durch das Zusammenspiel von menschlicher und Künstlicher Intelligenz sollen die Stärken der beiden Funktionsweisen verbunden und ein nachhaltiger Umgang mit Technologie garantiert werden. Der Begriff wird von Expertinnen wie der Professorin Doris Aschenbrenner gegenüber dem der Künstlichen Intelligenz favorisiert. Ihre Arbeitsgruppe an der Hochschule Aalen heißt nicht umsonst „Human in Command“. Kollaborativ, adaptiv und verantwortungsvoll soll hybride Intelligenz an der Lösung komplexer Probleme arbeiten.

verweist auf die zunehmende Vernetzung von Geräten, Fahrzeugen und Werkzeugen, die mit ihren Sensoren Daten erheben und diese wieder ins Netz zurückspeisen. Auf diese Weise werden gigantische Datenmengen generiert, die als Grundlage für KI-Systeme dienen können.

Die EU will eine generelle Kennzeichnungspflicht für KI-generierte Bilder und Videos einführen – noch unklar ist, wie diese durchgesetzt werden kann. Laut der gemeinnützigen Organisation AI Forensics sind derzeit bereits ein Viertel der Inhalte unter den beliebtesten Hashtags auf TikTok KI-generiert. Bisher wird lediglich ein Bruchteil dieser Videos von den Plattformanbietern gekennzeichnet.

Die Eingabe des Begriffs „Künstliche Intelligenz“ auf der KI-Plattform Perplexity ergibt folgendes Ergebnis: „Künstliche Intelligenz (KI) bezeichnet Computersysteme, die Aufgaben ausführen, für die man normalerweise menschliche Fähigkeiten wie Lernen, Verstehen, Planen oder Entscheiden bräuchte.“ Anders gesagt: KI ist der Versuch, menschliches Lernen und Denken auf Computer zu übertragen, sodass diese eigenständig Probleme lösen können. Solche Systeme analysieren Daten aus ihrer Umgebung, erkennen Muster und leiten daraus Entscheidungen oder Handlungen ab.

Large Language Models (LLM) sind eine Form generativer KI, die sich auf sprachbasierte Aufgaben konzentriert. Sie sind darauf trainiert, menschliche Sprache zu verstehen und zu verarbeiten. Mit LLM können Texte formuliert und Übersetzungen oder Zusammenfassungen erstellt werden. Mit Apps wie ChatGPT oder BERT werden Schulaufsätze, Firmenpräsentationen und Geburtstagsständchen geschrieben, sie werden aber auch zu Propagandazwecken verwendet.

Um einer generativen KI wie ChatGPT, Perplexity, Adobe Firefly oder Jasper Art eine Anweisung zu erteilen, schreibt man einen Prompt. Dies kann eine Frage, eine Aufgabe oder eine Beschreibung dessen sein, was das Modell hervorbringen soll. Die Präzision eines Prompts hat direkten Einfluss auf die Qualität des Ergebnisses. Generative KI arbeitet umso besser, je mehr Kontext und Informationen in der Aufgabenstellung enthalten sind.

Wer ist Urheber eines KI-generierten Werks? Die Programmierer und Entwickler? Die Menschen, die den Prompt geschrieben oder gesprochen haben? Was ist mit den Rechten der Urheber des Ausgangsmaterials? Den Werken, die von der KI verwendet wurden? Ab wann gilt KI-Generiertes als neu? Wie stark müssen die Ursprungswerke dafür erweitert beziehungsweise verändert werden? Viele dieser Fragen sind bislang ungeklärt und bewegen sich in einer juristische Grauzone. Fest steht, dass KI häufig mit Werken gefüttert wird, deren Benutzung eine Urheberrechtsverletzung darstellt. So macht auch das Verbraucherportal Baden-Württemberg darauf aufmerksam, dass es für die Nutzer nur schwer erkennbar ist, ob ein Werk rechtswidrig hergestellt wurde.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelt mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS sowie mit Universitäten und Unternehmen in interdisziplinären Teams Prüfverfahren für die Zertifizierung von KI-Systemen. Ziel ist es, die technische Zuverlässigkeit und einen verantwortungsvollen Umgang mit der Technologie zu gewährleisten. KI-Technologien, die die technischen und ethischen Kriterien erfüllen, sollen künftig mit einem Zertifikat als unbedenklich eingestuft werden.