Portraits
Meinst du echt, das ist wahr?

Wurden Geflüchtete während des Stromausfalls in Berlin in Luxushotels untergebracht? Lacht das dänische Parlament über Donald Trump? Massenhaft falsche und irreführende Informationen finden über die Kommunikationskanäle der digitalisierten Welt ihr Publikum. Wir haben vier Fachleute um ihre Einschätzung zu den politischen Risiken und Nebenwirkungen von Desinformation gebeten.

Lisa Holz

 

Macht TikTok Wahlsieger? Ende 2024 annulliert das rumänische Verfassungsgericht die Präsidentschaftswahl – weil nach Geheimdienstinformationen ausländische Akteure über TikTok die Wahl manipuliert haben. Betroffen ist der gewählte Präsident Călin Georgescu, der seine Kampagne stark auf der Plattform geführt hatte. Im März 2025 bestätigt TikTok, dass mehrere große Desinformationsnetzwerke aktiv waren.

 

Echt oder nicht? Bildmanipulation ist kein Phänomen von heute. Retuschiert wurde seit den Anfängen der Fotografie. Diese Aufnahme von 1924 zeigt den Zeppelin LZ 126 auf seiner letzten Reise, bevor er als Reparationsleistung an die USA übergeben wurde. Das Bild gilt als Montage aus zwei Fotografien, die kombiniert eine neue, eigenständige Geschichtsinterpretation entstehen lassen.

 

Algorithmen filtern nicht nur Inhalte, sie produzieren selbst welche. Auf welcher Grundlage, wissen nur die Tech-Konzerne. Das interaktive Medienkunstwerk TRUSTAI des ZKM Karlsruhe verwickelt die Besucherinnen und Besucher in ein Gespräch mit einer KI. Können wir Maschinen vertrauen?

„Der ideale Untertan totalitärer Herrschaft ist nicht der überzeugte Nazi oder der engagierte Kommunist, sondern Menschen, für die der Unterschied zwischen Fakten und Fiktion, wahr und falsch, nicht länger existiert.“ So schreibt es die Philosophin Hannah Arendt in ihrem 1955 erschienenen Hauptwerk Elemente und Ursprünge totaler Herrschaft. Warum ist das so? Weil Menschen, die nicht zwischen wahr und falsch unterscheiden können, orientierungslos in der Welt sind. Ihnen fehlt die Grundlage für politisches Urteilen, Selbstwirksamkeit und das Vertrauen

in ihre Mitmenschen und damit auch in demokratische Prozesse.

Das Fundament einer Demokratie ist die Verhandlung unterschiedlicher Interessen und Überzeugungen. Voraussetzung dafür ist, dass wir im Allgemeinen in unserer Wahrnehmung der Welt faktisch übereinstimmen. Die wachsende Menge an Desinformation macht das zunehmend unmöglich. Dank digitaler Technologien und Kommunikationskanäle verbreiten sich irreführende und absichtlich falsche Informationen mit rasender Geschwindigkeit. Inhalte, die mithilfe Künstlicher Intelligenz erstellt wurden, sind von echten Beiträgen kaum noch zu unterscheiden.

Die Entwicklung stellt demokratisch verfasste Gesellschaften und den Diskurs in hoch vernetzten Strukturen vor riesige Herausforderungen. Die gute Nachricht ist: Das Problem ist erkannt – aber eben nicht gebannt. Im Spannungsfeld von Meinungsfreiheit und dem Schutz offener Gesellschaften und ihrer Bürgerinnen und Bürger kann und darf es keine einfachen Lösungen geben.

Was Desinformation wirklich bewirkt und welche Art von Kommunikation den gesellschaftlichen Zusammenhalt fördert.

Kommunikation ist kompliziert. Was der Sender sagen möchte, muss beim Empfänger noch lange nicht genau so ankommen. Fakt ist, dass die wissenschaftlich nachweisbare Auswirkung von Desinformation auf politische Entscheidungen bislang nicht groß ist. Das ist aber kein Grund zur Entwarnung, sagt Judith Möller.

Böswillige Absicht war lange Zeit das definierende Kriterium für Desinformation. Ich finde mittlerweile die erkenntnistheoretische Betrachtungsweise des Phänomens sehr viel hilfreicher. Nach dieser trägt Desinformation dazu bei, dass Menschen ihre Welt immer schlechter verstehen. So können wir die Wirkung von Desinformation auf die Empfänger in den Mittelpunkt rücken, um die es schlussendlich ja auch geht. Studien zeigen, dass häufig die wirksamste Art der Desinformation die Dekontextualisierung ist. Dabei wird eine wahre Information in einen anderen Kontext gebracht und erhält so eine völlig neue Bedeutung. Aufgrund eines Körnchens Wahrheit werden diese Informationen für glaubwürdig gehalten und letztendlich wird so ein anderes Bild der Realität geschaffen. Was bedeutet das für demokratische Gesellschaften?

Unsere Untersuchungen zeigen, dass die nachweisbare Auswirkung von Desinformationskampagnen auf das Wahlverhalten in Deutschland – bei steigender Tendenz – noch immer gering ist. Wechselwähler bleiben meist nach wie vor innerhalb ihres politischen Spektrums. Viel schlimmer ist, wenn Desinformation dazu führt, dass Leute – wie in den USA – gar nicht mehr zum Wählen gehen, weil ihr Vertrauen in die Parteien und den Staat durch den steten Tropfen gezielter Desinformation ausgehöhlt ist. Das ist sehr gefährlich, denn Wahlen sind der Urakt der Demokratie. Die Frage ist, wie sich Bürgerinnen und Bürger noch eine halbwegs informierte politische Meinung bilden können, wenn sie Zugang zu verschiedenen Versionen von Wahrheit haben – propagiert von den Algorithmen der sozialen Medien oder in den Chats von Telegram-Gruppen. Zwar zeigt die Forschung, dass Algorithmen nur sehr selten die Einstellungen von Menschen ändern können. Aber sie können den Eindruck erwecken, dass ein Thema oder eine Meinung auch anderen sehr wichtig ist und die eigene Einstellung von einer breiten Mehrheit geteilt wird – auch wenn das vielleicht gar nicht stimmt. Das führt dazu, dass vom eigenen Standpunkt abweichende Meinungen immer schwerer akzeptiert werden.

Wir müssen wieder Räume schaffen, in denen eine Vielzahl verschiedener Stimmen zu hören ist und auch gehört wird. Dafür brauchen wir guten und unabhängigen Journalismus, der sein Handwerk beherrscht. Wir als Medienkonsumenten und Staatsbürger müssen dann auch bereit sein, für diese Arbeit angemessen zu bezahlen. Oft entstehen solche Räume dort, wo wir sie nicht vermuten. Studien zeigen zum Beispiel, dass Hobbys wie Handarbeiten, die Menschen zusammenbringen, auch online eine Plattform für konstruktiven Austausch bieten können. Grundsätzlich ist das direkte Gespräch ein guter Weg, um Informationen zu verarbeiten und sich eine eigene Meinung zu bilden. Es ist ein stabiler Befund unserer Wissenschaft, dass der Austausch mit anderen Menschen über die Vorgänge in der Welt viel wirksamer ist als der direkte Einfluss von Medien. Wir sind in Wirklichkeit näher beieinander, als es das Zerrbild in den sozialen Medien vermuten lässt. Wenn Menschen sich wieder jenseits digitaler Plattformen wahrnehmen können, muss das alles nicht schlecht enden. Aber Fakt ist: Wir operieren gerade am offenen Herzen der Demokratie.

 

Judith Möller ist Professorin für Empirische Kommunikationsforschung an der Universität Hamburg in Kooperation mit dem Leibniz-Institut für Medienforschung | Hans-Bredow- Institut. Dem Institut steht sie seit 2025 auch als Direktorin vor. Ihr Forschungsschwerpunkt sind Mediennutzung und deren gesellschaftliche Auswirkungen.

Wie Journalismus in einem Klima von Misstrauen und einer stark polarisierten politischen Gesellschaft arbeitet.

Journalistinnen und Journalisten in Serbien werden diskreditiert, bedroht und angegriffen. Laut dem Unabhängigen serbischen Journalistenverband kam es allein 2025 zu 380 Übergriffen, 116 davon tätlich. Die Journalistin Jelena Jovović berichtet, warum gerade in dieser Lage eine verantwortungsvolle journalistische Arbeitsethik so wichtig ist.

FakeNews Tragač ist eines von drei Factchecking-Portalen in Serbien. Wir teilen uns die Arbeit. Unsere Aufgabe ist es, klassische Medien und Medienoutlets in Serbien zu beobachten. Weil wir ein kleines Team sind, konzentrieren wir uns nicht auf irreführende, sondern auf tatsächlich falsche Informationen und benennen dabei auch immer die kommunikativen Mittel, mit denen eine Information verdreht wurde. In den vergangenen Jahren hat die Polarisierung in unserer Gesellschaft zugenommen. Das spiegelt sich in der Berichterstattung der Medien wider und wird durch diese auch verstärkt. Seitdem sehen wir einen deutlichen Anstieg der Fälle von Desinformation.

Der Beginn dieses Trends lässt sich auf die Coronavirus- Pandemie zurückführen, gefolgt vom Krieg in der Ukraine. In Serbien selbst hat der Einsturz des Bahnhofvordachs in Novi Sad im November 2024 wie ein Brandbeschleuniger gewirkt. Dieses tragische Ereignis kostete 16 Menschen das Leben und führte zu andauernden Protesten von Bürgern und Studenten. Seitdem ist unsere Gesellschaft noch tiefer gespalten – in Unterstützer der Regierung einerseits und solche der Protestbewegung andererseits, die den serbischen Präsidenten Aleksandar Vučić und seinen Zirkel zur Rechenschaft ziehen will. Wir haben dazu eine eigene Sektion in unserem Blog. Allein in den ersten sechs Monaten des Jahres 2025 hat die Redaktion von FakeNews Tragač über 6.000 falsche Nachrichtenberichte im Zusammenhang mit den Protesten aufgedeckt. Unser Portal selbst ist natürlich auch Ziel von Desinformationskampagnen. Uns wird vorgeworfen, käuflich zu sein und entweder das Geschäft der Regierungskräfte oder das des Westens zu betreiben.

Das könnte alles auf absurde Weise lustig sein, ist es aber nicht. Denn es verdeutlicht ein grundlegendes Problem des Factcheckings, das wir aus der Psychologie kennen: Menschen glauben vorwiegend den Nachrichten, die sich mit ihren Einstellungen decken, und den Quellen, denen sie vertrauen. Die Leute denken, sie sind gut informiert. Dabei leben sie alle in Blasen, die infolge digitaler Technologien und sozialer Medien immer undurchlässiger werden. Für mich ist die Wurzel des Problems die schiere Menge an Informationen, die Geschwindigkeit, in der diese sich verbreiten, und wie Informationen – je nach Publikum – manipuliert werden. Ein Beispiel? Es gibt ein Video, das die ehemalige deutsche Außenministerin Annalena Baerbock zeigt, wie sie aus einem Flugzeug steigt und niemand sie empfängt. Dieses Video stammt aus Malaysia, wird in Serbien aber als Beleg dafür verbreitet, dass China Deutschland die kalte Schulter zeigt. In Deutschland wiederum wird das Video als Beleg für die angeblich schlechten Beziehungen zu Indien verbreitet. Was nicht passt, wird passend gemacht.

Wir brauchen ein neues, nichtkommerzielles Informationssystem. Aber bis dahin bleibt uns nichts anderes übrig, als weiter gegen den Strom an Desinformation anzukämpfen, die Medienkompetenz der Bevölkerung zu stärken und dabei unseren journalistischen Grundsätzen treu zu bleiben: Genauigkeit, Fairness und Transparenz. Nur wenn Journalismus strikt dem öffentlichen Interesse und keinem Medienunternehmen dient und die Öffentlichkeit dieses Informationsangebot annimmt, können wir der Wirkkraft von Desinformation den Boden entziehen.  

Jelena Jovović ist seit 2011 Projektkoordinatorin an der Novi Sad School of Journalism, wo sie Desinformationen zu Wissenschaft und Gesundheit entlarvt. 2017 hat die NGO ein Factchecking-Portal gegründet. Für ihre Arbeit wurde sie mit dem Dragan Janjić-Preis für Medienbildung ausgezeichnet. 2025 nahm sie am Danube Media Bootcamp teil.

Künstliche Intelligenz ist Teil des Problems – aber auch Teil der Lösung?

Digitale Medien und Mittel sind nicht per se schlecht. Jonas Fegert und sein Team nutzen digitale Methoden und Künstliche Intelligenz, damit die Bürgerinnen und Bürger in Demokratien wieder zusammenfinden und ihr Gemeinwesen aktiver gestalten können.

Wir leben in einer digitalen Demokratie. Unsere Willensbildungs- und Entscheidungsprozesse werden durch digitale Plattformen und Medien geprägt. Das hat auch Vorteile für eine demokratische Öffentlichkeit. Es ist zum Beispiel viel leichter geworden, politische Repräsentanten zu kontaktieren und zur Rechenschaft zu ziehen oder sich im Dienst einer guten Sache zu organisieren. Auf der anderen Seite werden demokratische Prozesse und Institutionen mithilfe digitaler Technologien systematisch angegriffen. Das Konglomerat von Big Tech und Politik – wie in den USA zum Beispiel – ist eine riesige Herausforderung für demokratische Gesellschaften. Digitale Technologien und KI sind nicht per se gut oder schlecht. Aber man muss sie gestalten und gegebenenfalls regulieren. Man kann digitale Technologien auch gut nutzen, um unsere Demokratie widerstandsfähiger zu machen, Desinformationskampagnen frühzeitig zu erkennen, zu analysieren und die Öffentlichkeit entsprechend aufzuklären.

Die Geschäftsmodelle der Big-Tech-Plattformen können dazu führen, die Öffentlichkeit zu spalten. Für den Erhalt unserer Demokratie ist aber Selbstwirksamkeit wichtig und das Gefühl, zusammenzukommen und gemeinsam Ziele erreichen zu können. Deshalb sollten wir insbesondere auch auf lokaler Ebene alternative, unabhängige Plattformen für Partizipation schaffen, die Mitbestimmung in der eigenen Stadt, der Kommune oder auch nur in einem Verein ermöglichen. In der Frage sind wir am FZI auch häufig beratend aktiv. Ein anderer großer Bereich ist der Kampf gegen Desinformation oder Deepfakes. Dabei nutzen wir selbst die Möglichkeiten der KI. Um Deepfakes zu erkennen, achten wir auf eingebettete Wasserzeichen in den Inhalten oder nutzen für Videos eine hier am FZI entwickelte Pulskamera.

Das Verfahren stammt eigentlich aus der Telemedizin. Es kann anhand optischer Pulsmessung erkennen, ob es sich um reale Personen handelt. Darauf basierend entwickeln wir gerade auch ein Tool, das Schülerinnen und Schülern helfen soll, ihr Bewusstsein für falsche Inhalte zu schärfen. Bei allen diesen Initiativen geht es nicht um Zensur, sondern um Hilfestellung für Bevölkerung, Behörden und Einrichtungen, damit diese professionell mit der Manipulation von Information umgehen können. Was wir über einzelne Projekte und Tools hinaus dringend bräuchten, wären eine zentral organisierte Infrastruktur, eine zielgruppenspezifische Aufklärung und die koordinierte Zusammenarbeit staatlicher Stellen, der Zivilgesellschaft und auch klassischer Medien.

Wir müssen der Tatsache ins Auge sehen, dass sich unser Informationsökosystem durch KI-generierte Inhalte gerade fundamental ändert. Interne Studien von Big Tech haben gezeigt, dass User auf künstlich generierten Content noch emotionaler reagieren als auf die Inhalte herkömmlicher Social-Media-Plattformen. Deshalb experimentieren Meta und OpenAI mit Plattformen, die nur noch aus KI-Slop bestehen. Wir entfernen uns also immer weiter von einer auf Fakten und Tatsachen beruhenden Informationslandschaft. Welche Inhalte sind wahr und wie machen wir diese kenntlich? Das werden die großen Fragen in einer überhaupt nicht fernen Zukunft sein.   

Jonas Fegert ist Wirtschaftsinformatiker und Politikwissenschaftler. Er leitet das House of Participation am FZI Forschungszentrum Informatik in Karlsruhe und eine Forschungsgruppe am KIT. Er hat die Warntools für Desinformation DeFaktS, MuDDi und DisCoBoard, gefördert von der Bundesregierung, mitentwickelt. Das FZI nutzt auch Methoden der Künstlichen Intelligenz, um Desinformation zu identifizieren.

Mit welchen Mitteln russische Desinformationskampagnen unsere Wahrnehmung des Ukrainekriegs verändern wollen.

Russland setzt Desinformation systematisch ein, um die Europäische Union zu schwächen und den Verlauf des Angriffskriegs in der Ukraine zu beeinflussen. Digitale Technologien und KI haben dem Regime von Wladimir Putin neue Mittel an die Hand gegeben, aber die Ziele haben sich nicht geändert.

Kognitive Kriegsführung war schon immer Teil von Krieg. Dabei geht es darum, Einstellungen und Verhalten zu beeinflussen. Im Angriffskrieg Russlands gegen die Ukraine wird folglich nicht nur die Infrastruktur des Landes angegriffen, sondern auch unsere Wahrnehmung dieses Krieges. Die Waffe der Wahl: Desinformation. Die russische Regierung ist diesbezüglich gut aufgestellt und zentral organisiert. Es gibt die staatlich gesteuerten Medien wie Tass, Sputnik und Russia Today, Troll-Fabriken und eine Armee an Influencern. Mit dem Einsatz von KI ist die Menge an russischer Desinformation massiv angestiegen, aber gleichzeitig sinkt die Qualität. Die Kreativität von KI hat Grenzen.

Russische Desinformation ist oft gut getarnt, verbirgt sich nicht selten unter dem Deckmantel vermeintlich kritischer Stimmen oder kommt von unerwarteter Seite. Auf Facebook wird man zum Beispiel aktuell dazu aufgefordert, KI-generierten Hochzeitspaaren zu gratulieren. Sobald man mit den Accounts in Kontakt ist, wird man mit Desinformation angefüttert. Die deutsche Version dieses Desinformationsköders sind alleinerziehende Väter, die für ihre blonden Kinder gelobt werden wollen. So wird versucht, das Ei in möglichst viele Nester zu legen. Vieles davon ist nicht neu. Russland verfügt über ein Riesenarsenal an Propaganda- Erzählungen – je nach Situation und Zielgruppe.

Klassiker sind zum Beispiel Erzählungen von schmarotzenden und kulturzersetzenden Geflüchteten oder die Mär, dass Länder wie Deutschland ausgenutzt werden und mehr als alle anderen bezahlen müssen. Die Ziele der Kampagnen sind aber immer die gleichen. Erstens: Angst schüren. Wer Angst hat, sucht nach einfachen Antworten. Diese findet man bei populistischen und nationalistischen Parteien und Bewegungen, die Europa destabilisieren wollen. Zweitens: Keile in die Allianz für die Ukraine treiben und Länder gegeneinander aufbringen. Im Fall von Polen zum Beispiel ist das auch gelungen. Am Anfang gab es dort große Solidarität mit den Nachbarn in der Ukraine.

Inzwischen hat sich der Wind aber gedreht. In dem Zusammenhang bin ich selbst auch Opfer einer Desinformationskampagne geworden: Seit zwei Jahren geistert mein Bild durch bestimmte Informationskanäle – als Meme für einen undankbaren ukrainischen Flüchtling in Polen. Dabei stammt die Aufnahme aus Deutschland, wo ich schon seit vielen Jahren lebe. Das wichtigste Ziel ist es jedoch, dass wir am Ende gar nicht mehr wissen, was richtig und was falsch ist. Alles wird angezweifelt und so die gemeinsame Basis unserer Gemeinwesen destabilisiert und nachhaltig geschwächt. Da muss Russland Europa gar nicht direkt angreifen.

Trotzdem schaue ich optimistisch in die Zukunft. Die europäische Öffentlichkeit ist sich größtenteils des Problems bewusst. Es gibt viele wissenschaftliche Einrichtungen und Projekte, die sich mit Desinformation und Propaganda auseinandersetzen. Aber gerade im hybriden Krieg Russlands gegen Europa brauchen wir viel mehr Kooperation – auf EU-Ebene und auch innerhalb der einzelnen Staaten. Kognitive Kriegsführung ist ein Wettlauf mit der Zeit. Wer das Narrativ zuerst setzt, bestimmt die Deutungshoheit. Deshalb müssen die demokratischen Gesellschaften Europas schneller werden. Viel schneller.  

Veronika Solopova ist Sprachwissenschaftlerin und Informatikerin und forscht als Postdoktorandin an der Technischen Universität Berlin zu russischer Desinformation. Die gebürtige Ukrainerin hat für ihre Doktorarbeit das KI-Tool Check News in One Click zur Identifikation von Desinformation entwickelt.

Ein Krieg ist auch ein Kampf der Narrative. Geschichten sollen helfen, Gewalt als gerecht zu legitimieren. Russland führt seinen Angriffskrieg gegen die Ukraine auch mit einer digitalen Armee: Desinformation und Deepfakes sollen die eigene Verantwortung verschleiern und ablenken von der Wirklichkeit. Von Menschen wie der sechsjährigen Anhelina. Das ukrainische Mädchen musste aus seinem Heimatort fliehen. Gezeichnet von Trauma und Panik liegt es mit starrem Blick in einem Bett. Aufgenommen hat das Bild Florian Bachmeier. Der preisgekrönte Fotograf hält in seinen Dokumentationen das Leid der vergessenen Opfer des Krieges fest, damit auch ihre – wahre – Geschichte erzählt wird.