intermediate75 Min.

Falschinformationen verstehen und erkennen

🎯 Lernziele

  • Mis-, Dis- und Malinformation definitorisch unterscheiden und an Beispielen erläutern
  • Das Sieben-Typen-Modell nach Wardle & Derakhshan (2017) erklären und anwenden
  • Verbreitungsmechanismen von Falschinformationen in sozialen Medien beschreiben
  • Mindestens fünf Warnsignale für Falschinformationen benennen
  • Historische und aktuelle Fallbeispiele aus Deutschland und der Welt analysieren
0/4 Abschnitte0%
1

Taxonomie der Falschinformation: Nicht alles ist gleich

Wenn wir von 'Fake News' sprechen, meinen wir oft sehr verschiedene Dinge. Ein Gerücht, das jemand aus Unwissenheit teilt, ist etwas grundlegend anderes als eine koordinierte staatliche Desinformationskampagne. Die Medienwissenschaftlerinnen Claire Wardle und Hossein Derakhshan haben 2017 im Auftrag des Europarats ein einflussreiches Modell entwickelt, das diese Unterschiede systematisch erfasst.

Das Modell unterscheidet drei Hauptkategorien: , und . Der entscheidende Unterschied liegt nicht im Inhalt selbst, sondern in der Absicht des Verbreiters: Weiß die Person, dass die Information falsch ist? Möchte sie damit schaden?

liegt vor, wenn jemand eine falsche oder irreführende Information teilt, ohne dies zu wissen oder zu beabsichtigen. Die Person hält die Information für wahr. Beispiele: Ein Freund schickt in einer WhatsApp-Gruppe eine Warnung vor einem angeblichen Virus in Früchten weiter – weil er es wirklich glaubt. Oder eine Großmutter teilt eine angebliche Gesundheitsstudie auf Facebook, die sich als veraltete Meldung entpuppt.

hingegen wird bewusst und absichtlich erstellt und verbreitet, um zu täuschen oder zu schaden. Hier stecken politische, wirtschaftliche oder ideologische Motive dahinter. Staatliche Akteure, politische Kampagnen oder wirtschaftlich motivierte 'Falschnachrichten-Fabriken' produzieren systematisch. Ein Beispiel: Koordinierte Kampagnen in sozialen Medien vor Wahlen, die gezielt Falschbehauptungen über Kandidatinnen und Kandidaten verbreiten.

ist die dritte Kategorie: Hier handelt es sich um wahre Information, die jedoch mit schädlicher Absicht in einem verfälschenden Kontext geteilt wird. Ein klassisches Beispiel sind echte Fotos oder Videos, die aus ihrem ursprünglichen Kontext gerissen und neu kommentiert werden. Das Foto eines Politikers, das tatsächlich existiert, aber aus einem anderen Jahr und Zusammenhang stammt, wird als 'aktueller Beweis' für etwas völlig anderes präsentiert.

🤔 Bevor du weiterliest: Welchem Typ würdest du eine WhatsApp-Nachricht zuordnen, die ein altes Foto als 'neue Beweise' für eine aktuelle Behauptung nutzt?

2

Wie Falschinformationen sich verbreiten: Der Virality-Effekt

Eine bahnbrechende Studie des Massachusetts Institute of Technology (MIT) aus dem Jahr 2018 analysierte 126.000 Nachrichten-Kaskaden auf Twitter (heute X) über einen Zeitraum von 11 Jahren. Das erschreckende Ergebnis: Falsche Nachrichten verbreiteten sich durchschnittlich sechsmal schneller als wahre Nachrichten, erreichten mehr Menschen und drangen tiefer in soziale Netzwerke vor.

Warum? Weil Falschinformationen oft emotional aufgeladener sind. Sie lösen Überraschung, Empörung, Angst oder Wut aus – und genau diese Emotionen veranlassen uns, Inhalte zu teilen. Algorithmen auf Plattformen wie Facebook, TikTok oder Instagram bevorzugen Inhalte, die hohe Interaktion (Likes, Kommentare, Shares) erzeugen. Emotional aufgewühlte Nutzerinnen und Nutzer interagieren mehr – das belohnt den Algorithmus. Falschinformationen werden so strukturell gefördert.

**Mechanismus 1: Das ' Ökosystem'** – Desinformation entsteht oft nicht zufällig. Wardle beschreibt ein Ökosystem mit drei Phasen: Erstellung (wer produziert die Falschinformation?), Verbreitung (über welche Kanäle wird sie verbreitet?) und Auswirkung (welche Wirkung hat sie auf Individuen und Gesellschaft?). Das Verstehen dieses Ökosystems hilft, effektive Gegenmaßnahmen zu entwickeln.

**Mechanismus 2: Messenger-Dienste als 'Dark Social'** – WhatsApp, Telegram und Signal stellen für Fact-Checker eine besondere Herausforderung dar. Inhalte in geschlossenen Gruppen sind schwer zu monitoren, verbreiten sich viral durch 'Kettenbriefe' und wirken durch den persönlichen Absender vertrauenswürdig. In Deutschland sind WhatsApp-Gruppen ein wesentlicher Verbreitungsweg für Falschinformationen, besonders bei älteren Nutzenden.

**Mechanismus 3: Bot-Netzwerke und koordinierte Inauthenthizität** – Staatliche und nicht-staatliche Akteure nutzen Netzwerke von automatisierten Accounts (Bots) sowie koordinierte menschliche Akteure ('Trollarmeen'), um Inhalte künstlich zu verstärken. Was als 'organische Verbreitung' wirkt, ist oft koordinierte Manipulation. Plattformen wie Meta und X/Twitter haben Millionen solcher Accounts gesperrt, aber neue tauchen kontinuierlich auf.

**Mechanismus 4: 'Firehose of Falsehood'** – Eine von RAND 2016 beschriebene russische Propagandastrategie: Statt einer einzigen, konsistenten Lüge werden so viele widersprüchliche Falschinformationen produziert, dass Bürgerinnen und Bürger nicht mehr wissen, was wahr ist. Das Ziel ist nicht Überzeugung, sondern Verwirrung, Erschöpfung und Resignation: 'Alles ist irgendwie unglaubwürdig.'

3

Desinformation erkennen: Red Flags und Prüfschritte

Nicht jede Falschinformation ist offensichtlich. Professionell produzierte imitiert seriösen Journalismus. Trotzdem gibt es Warnsignale ('Red Flags'), die häufig auf problematische Inhalte hinweisen.

**Typische Red Flags:** - **Übertriebene, emotionale Schlagzeilen**: Wörter wie 'SCHOCK!', 'ENTHÜLLT!', 'Das verschweigen die Medien!' signalisieren Sensationalismus - **Fehlende oder unklare Quellen**: Seriöser Journalismus nennt Quellen, Daten, Studien und gebt an, wer informiert wurde - **Kein Datum oder veraltete Daten**: Falschinformationen recyceln oft alte Meldungen und präsentieren sie als aktuell - **Kein Impressum**: In Deutschland sind journalistische Websites zur Angabe eines Impressums verpflichtet - **Rechtschreibfehler und unprofessionelles Design**: Deuten oft auf hastigen oder nicht professionellen Ursprung hin - **Extreme politische Perspektive**: Wenn ausschließlich eine Seite gut, die andere grundsätzlich böse dargestellt wird - **Dringlichkeit und Handlungsaufforderung**: 'Sofort teilen!', 'Bevor das gelöscht wird!' - **Unbekannte oder imitierende Domain**: 'ard-nachrichten-heute.de' statt 'ard.de'

**Der STOPP-und-Prüf-Prozess:** 1. **STOPP** – Erst innehalten. Starke Emotionen beim Lesen sind ein Signal zum Prüfen 2. **Quelle prüfen** – Wer hat das veröffentlicht? Gibt es ein Impressum? Ist die Domain seriös? 3. **Autor recherchieren** – Wer hat den Artikel geschrieben? Welche Expertise? Andere Artikel? 4. **Datum prüfen** – Wann wurde der Inhalt veröffentlicht? Ist er noch aktuell? 5. **Belege suchen** – Werden Quellen genannt? Sind sie überprüfbar? Was sagen andere Quellen? 6. **Andere Quellen vergleichen** – Berichten seriöse Nachrichtenquellen (Tagesschau, Spiegel, FAZ) das Gleiche?

**Bilderprüfung:** Bilder werden besonders häufig manipuliert oder aus dem Kontext gerissen. - **Kontext überprüfen**: Wann wurde das Bild wirklich aufgenommen? Bei welchem Anlass? - **Reverse Image Search**: Tools wie Google Bildersuche, TinEye oder Yandex-Bilder zeigen, wo und wann ein Bild zuerst erschienen ist - **Manipulationshinweise**: Unnatürliche Kanten, inkonsistente Beleuchtung, Artefakte - **Bildtext lesen**: Stimmt die Bildunterschrift mit dem tatsächlichen Bild-Inhalt überein?

**Aktuelle Themenfelder mit hohem Desinformationsaufkommen (2024–2026):** - **Gesundheit**: Impfmythen, Gesundheitswundermittel, Pandemie-Desinformation - **Klima**: Klimawandel-Leugnung, Falschinformationen zu Energiepolitik - **Migration**: Falsche Kriminalstatistiken, manipulierte Zahlen - **Wahlen**: Wahlbetrugsbehauptungen, s von Politikerinnen - **Ukraine-Krieg**: Russische Desinformationskampagnen, manipulierte Kriegsbilder - **KI und Technologie**: Desinformation über KI-Regulierung, synthetische Medien

4

Von Kriegspropaganda bis KI-Fakes: Historische und aktuelle Fallbeispiele

Desinformation ist kein neues Phänomen – sie ist so alt wie die Kommunikation selbst. Ein historischer Überblick hilft zu verstehen, wie heutige Techniken funktionieren.

**Historische Propaganda:** Kriegspropaganda im Ersten und Zweiten Weltkrieg nutzte Plakate, Radio und Film, um Feindbilder zu konstruieren und die eigene Bevölkerung zu mobilisieren. Das Reichsministerium für Volksaufklärung und Propaganda (1933–1945) unter Joseph Goebbels entwickelte industrialisierte Propagandamethoden, deren psychologische Grundprinzipien – Wiederholung, Emotionalisierung, Feindbildkonstruktion – in moderner Desinformation wiederzufinden sind. Das Konzept der 'Lügenpresse' wurde im NS-Regime genutzt, um kritische Medien zu delegitimieren – ein Begriff, der heute reaktiviert wird.

**COVID-19 Infodemic (2020–2022):** Die Weltgesundheitsorganisation (WHO) prägte den Begriff 'Infodemic' für die gleichzeitige Verbreitung der Corona-Pandemie und einer Flut von Fehlinformationen. In Deutschland kursierten Mythen wie: 5G-Masten übertragen COVID-19, Impfungen enthalten Mikrochips, Bill Gates stecke hinter der Pandemie. Fact-Checking-Organisationen wie Correctiv verzeichneten einen Anstieg von Check-Anfragen um 300%. Messenger-Dienste, besonders WhatsApp, waren der Hauptverbreitungsweg. Laut einer Studie der Bertelsmann Stiftung (2021) glaubten zeitweise 20% der deutschen Bevölkerung mindestens einer Corona-Verschwörungstheorie.

**Klimawandel-Desinformation:** Die Wissenschaft ist eindeutig: Der menschgemachte Klimawandel ist eine durch overwhelming wissenschaftlichen Konsens bestätigte Tatsache (97% der Klimawissenschaftler, Cook et al. 2013). Dennoch gibt es finanzierte Kampagnen – teils von fossilen Energieunternehmen – die Zweifel am Konsens säen. Typische Taktiken: Einzelne Studien überbewerten, extreme Wettereignisse kleinreden, Wissenschaftler diskreditieren, falsche Alternativen als 'ausgewogene Debatte' inszenieren.

**Wahlbeeinflussung und politische Desinformation:** Bei der US-Wahl 2016 wurden gezielt gefälschte Nachrichten über Plattformen wie Facebook verbreitet. Die Internet Research Agency (IRA), eine russische Einrichtung, betrieb dabei koordinierte Accounts. In Deutschland beobachtete das Bundesamt für Verfassungsschutz vor der Bundestagswahl 2025 ähnliche Versuche, besonders durch Amplifikation von Inhalten der AfD durch ausländische Akteure via X/Twitter und Telegram.

**KI-generierte Fake News (2025–2026):** Der technologische Sprung der Jahre 2024–2026 hat die Produktion von Falschinformationen demokratisiert und industrialisiert. Mit Werkzeugen wie Midjourney, Sora oder ElevenLabs kann jede Person überzeugend wirkende gefälschte Bilder, Videos und Audioaufnahmen erstellen. Belastbare Beispiele aus Deutschland: - -Videos von Bundesministern mit Falschaussagen wurden auf TikTok verbreitet (Correctiv, 2025) - KI-generierte Audio-Klone von Bürgermeistern wurden in lokalen WhatsApp-Gruppen für Betrugsversuche eingesetzt - YouTube-Kanal sammelte Klicks mit KI-Fake über AfD-Politiker Ulrich Siegmund (CORRECTIV, 26. Februar 2026) - Synthetische 'Zeugenaussagen' zu Migrationsthemen wurden auf alternativen Nachrichtenplattformen platziert Die Gefahr liegt nicht nur im Inhalt, sondern in der schieren Menge: Laut European Parliamentary Research Service wurden 2025 ca. 8 Millionen s geteilt – gegenüber 500.000 in 2023 (16-facher Anstieg). Wenn jede Behauptung mit 'überzeugenden' KI-Belegen versehen werden kann, wird die Verifikation zur Pflichtaufgabe für alle Mediennutzenden.

**Desinformation zur Bundestagswahl 2025:** Vor und während der Bundestagswahl 2025 wurde Deutschland zum Ziel koordinierter Desinformationskampagnen. Laut einer repräsentativen Bitkom-Studie (über 1.000 Wahlberechtigte): 30% der Internet-Nutzer sind auf Falschmeldungen zur Wahl gestoßen. 88% der Wahlberechtigten befürchten ausländische Manipulation über Social Media. 47% sehen s als besondere Gefahr im Wahlkampf. 75% sehen die Demokratie nicht gut auf Fake News vorbereitet. Das Bundesamt für Verfassungsschutz dokumentierte ab Dezember 2024 verdeckte russische Einflussnahme mit KI-generierten Videos, Texten und Bildern. CORRECTIV prüfte hunderte Behauptungen rund um die Wahl. Die Hauptthemen: Wahlbetrugsbehauptungen, s von Politiker:innen, manipulierte Statistiken zu Migration und Kriminalität.

💡 Desinformation folgt historisch wiederkehrenden psychologischen Mustern – was sich ändert, ist die technologische Reichweite und Produktionsgeschwindigkeit. KI-Werkzeuge der Jahre 2024–2026 haben die Erstellung überzeugend wirkender Falschinhalte für jeden Menschen möglich gemacht.