Fake News und Deepfakes erkennen: Leitfaden für Unternehmen und Social-Media-Teams
15. Februar 2026: Im ZDF „heute journal“ wird über die Abschiebepraxis von ICE-Agenten in den USA berichtet: Im Sprechertext der TV-Version heisst es: "Sie führen Eltern vor den Augen ihrer Kinder ab oder nehmen Minderjährige vor ihren Schulen mit." Zu sehen war ein Video, das zeigt, wie eine Frau von Männern abgeführt wird und zwei Kinder verzweifelt weinen. Aber: Dieses Video ist KI-generiert. Es wurde aber nicht deutlich gekenntzeichnet. (In eigener Sache: Fehler in ZDF-Beitrag über ICE)
Fake News und Deepfakes erkennenund damir richtig umgehen: Das wird für Unternehmen, Social-Media-Teams und Content-Creator zu einer immer wichtigeren Kompetenz. Mit der rasanten Entwicklung von künstlicher Intelligenz entstehen zunehmend KI-generierte Bilder, manipulierte Videos und synthetische Medien, die täuschend echt wirken können. Gleichzeitig verbreiten sich Desinformation und Fake News über soziale Netzwerke in hoher Geschwindigkeit und können erheblichen Reputationsschaden für Unternehmen verursachen.
Deepfakes werden zu Rufschädigung, Betrug, politische Manipulation oder Identitätsdiebstahl eingesetzt.
Für Kommunikationsverantwortliche stellt sich daher eine zentrale Frage: Wie erkennt man Deepfakes und manipulierte Inhalte zuverlässig? Dieser Leitfaden erklärt die wichtigsten Begriffe rund um Fake News und Deepfakes und zeigt praxisnah, wie sich Fake News erkennen und KI-Bilder identifizieren lassen. Zudem erfahren Social-Media-Profis, welche Kriterien, Tools und Best Practices sich bewährt haben, um Desinformation frühzeitig zu erkennen und verantwortungsvoll mit digitalen Inhalten umzugehen. mybreev bietet eLearnings und Serious Games an, um Fake News und Deepfakes besser zu begegnen.
Fake News und Deepfakes: Definition und Abgrenzung
Fake News vs. Desinformation
Der Begriff Fake News bezeichnet absichtlich verbreitete falsche oder irreführende Informationen, die oft in Form von scheinbar journalistischen Nachrichten auftreten. Ziel ist es häufig, Meinungen zu beeinflussen, Verwirrung zu stiften oder politische und wirtschaftliche Interessen durchzusetzen.
In der Forschung wird häufig der Begriff Desinformation verwendet. Dieser beschreibt gezielt verbreitete falsche Inhalte, die bewusst erstellt oder manipuliert wurden, um Öffentlichkeit oder Debatten zu beeinflussen.
Wichtig ist die Abgrenzung:
- Desinformation: bewusst falsche Informationen
- Fehlinformation: falsche Inhalte ohne Täuschungsabsicht
- Satire oder Humor: bewusst überzeichnete Inhalte ohne Anspruch auf Fakten
Gerade auf Social-Media-Plattformen können Fake News besonders schnell viral gehen, da Algorithmen emotionale oder polarisierende Inhalte häufig stärker verbreiten.
Deepfakes und synthetische Medien
Deepfakes sind mithilfe künstlicher Intelligenz erzeugte oder manipulierte Medien – etwa Bilder, Videos oder Audiodateien –, die real wirken, obwohl sie es nicht sind. Die Technik basiert auf Machine Learning und Deep Learning.
Typische Beispiele sind:
- Videos, in denen Prominente scheinbar Aussagen machen, die sie nie gesagt haben (Deepfake-Video - Vatikan warnt vor gefälschter Papst-Botschaft bei Youtube)
- KI-generierte Bilder von Ereignissen, die nie stattgefunden haben (Angebliche Festnahme von Donald Trump: Bilder mit KI generiert)
- manipulierte Audioaufnahmen von Stimmen (Warnung an Millionen Internet-Nutzer: Bloß nicht auf „Friedrich Merz“ hören)
Moderne Tools benötigen oft nur wenige Ausgangsdaten – manchmal sogar nur ein einzelnes Foto – um täuschend echte Inhalte zu erzeugen.
Damit gehören Deepfakes zu den sogenannten synthetischen Medien, also digital erzeugten oder stark manipulierten Inhalten.
Warum Fake News und Deepfakes für Unternehmen riskant sind
Für Organisationen und Marken entsteht ein wachsendes Risiko. Deepfakes und Fake News können gezielt eingesetzt werden, um Unternehmen zu schaden.
Typische Szenarien:
Reputationsschaden durch Fake News
Falschmeldungen über Produkte, Geschäftsentscheidungen oder Führungskräfte können Vertrauen in eine Marke massiv beschädigen.
Deepfake-Angriffe auf Führungskräfte
Manipulierte Videos oder Audios von CEOs oder Politiker:innen können falsche Aussagen suggerieren.
Das Beispiel derZahlung von 25 Mio. Dollar in Hong Kong ging um die Welt.
(Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’ | CNN)
Desinformation über Unternehmen
In sozialen Netzwerken können gezielte Kampagnen negative Narrative verbreiten. Studien und Sicherheitsanalysen warnen daher, dass Deepfakes zunehmend zur Manipulation von Öffentlichkeit und Märkten eingesetzt werden könnten. Für Social-Media-Teams bedeutet das: Medienkompetenz und Sensibilisierung für Desinformation werden zu einer zentralen Kompetenz.
In a nutshell: Wie Deepfake-Technologie funktioniert
Deepfakes entstehen mithilfe von Deep-Learning-Modellen, meist sogenannten Generative Adversarial Networks (GANs) oder Autoencodern. Dabei werden große Mengen an Bild-, Video- oder Audiodaten einer Person analysiert, um Muster von Gesicht, Stimme und Bewegungen zu lernen und anschließend synthetische Medien zu erzeugen, die diese Person realistisch imitieren. Das System setzt dann das generierte Gesicht, die Stimme oder die Mimik in bestehende Videos oder Audios ein, sodass scheinbar authentische Inhalte entstehen.
Fake News erkennen: Wichtige Kriterien
Fake News lassen sich häufig anhand bestimmter Merkmale identifizieren. Diese Kriterien werden auch in der Forschung zur Desinformation untersucht.
1. Quelle und Autor prüfen
Ein erster Schritt ist immer die Überprüfung der Quelle:
- Gibt es eine seriöse Redaktion oder Organisation?
- Existiert der Autor tatsächlich?
- Wird auf überprüfbare Quellen verwiesen?
Unbekannte Websites oder Social-Media-Accounts ohne Impressum sind ein häufiges Warnsignal.
2. Überschrift und Emotionen analysieren
Fake News arbeiten oft mit emotionalen oder reißerischen Formulierungen.
Typische Hinweise:
- extreme Schlagzeilen („Schockierend“, „Unglaublich“, „Endlich enthüllt“)
- starke Polarisierung
- bewusst provozierende Aussagen
Ziel ist häufig Clickbaiting – Inhalte, die zum Klicken verleiten, auch wenn der Inhalt wenig Substanz hat.
3. Fakten gegenprüfen
Ein grundlegender Schritt im Umgang mit möglichen Fake News:
- Wird die Meldung auch von anderen Medien berichtet?
- Stimmen Zahlen und Fakten überein?
- Gibt es Primärquellen oder Studien?
Es gibt zahlreiche professionelle Faktencheck-Plattformen, die von Journalisten, Forschungseinrichtungen oder NGOs betrieben werden. Viele davon sind Mitglied im International Fact-Checking Network (IFCN), das Qualitätsstandards und Transparenzregeln für unabhängige Faktenchecks festlegt (z.B. dpa-Faktencheck, Mimikama, Politifact).
4. Kontext und Datum beachten
Oft werden reale Inhalte aus ihrem ursprünglichen Kontext gerissen.
Beispiele:
- alte Bilder werden als aktuelle Ereignisse dargestellt
- Aussagen werden verkürzt oder aus Interviews herausgelöst
- Auch eine falsche Reihenfolge von echten Bildsequenzen verzerren die Realität
Deshalb gilt: Immer Datum und ursprünglichen Kontext genau prüfen.
Deepfakes erkennen: Typische Hinweise
Während Fake News meist textbasiert sind, stellen Deepfakes eine visuelle oder audiovisuelle Herausforderung dar. Forschung zu Deepfake-Detection zeigt, dass Manipulationen häufig technische oder visuelle Artefakte hinterlassen.
Im folgenden werden typische Hinweise aufgezeigt.
1. Unnatürliche Gesichtsbewegungen
Bei Deepfake-Videos können Gesichtsausdrücke oder Bewegungen leicht unnatürlich wirken.
Auffällige Merkmale:
- unnatürliches Blinzeln
- seltsame Mimik
- unpassende Kopfbewegungen
- Auch Lippenbewegungen, die nicht exakt zur Sprache passen, sind ein häufiges Zeichen für ein manipuliertes Video.
2. Bildartefakte und visuelle Fehler
Viele KI-Bilder weisen typische Fehler auf. Abere die Technik wird immer besser, die Phänomene wandeln sich.
Beispiele:
- verschwommene Bildbereiche
- unnatürliche Hautstrukturen
- unscharfe Übergänge zwischen Gesicht und Hintergrund
- deformierte Hände oder zusätzliche Finger
Solche visuellen Artefakte sind typische Hinweise auf KI-generierte Bilder.
3. Unstimmige Beleuchtung oder Schatten
KI-Bilder haben häufig Probleme mit der Beleuchtung oder allgemein der korrekten Abbildung der physikalischen Welt.
Warnsignale:
- Schatten fallen in unterschiedliche Richtungen
- Licht reflektiert unnatürlich
- Gesicht und Hintergrund haben unterschiedliche Lichtquellen, die nicht plausibel sind
- Rauch kommt aus einem geschlossenen Fenster im Hintergrund
- Autos schweben leicht über der Fahrbahn
Diese Fehler entstehen, weil KI-Modelle Bildmuster generieren, ohne physikalische Regeln vollständig zu berücksichtigen.
4. Audio-Unstimmigkeiten
Bei Deepfake-Audio können ebenfalls Auffälligkeiten auftreten:
- monotone oder künstliche Sprachmelodie
- fehlende Atemgeräusche
- unnatürliche Betonung
- übertriebener Dialekt
Solche Hinweise können helfen, Deepfake-Audio oder manipulierte Interviews zu erkennen.
5. Technische Tools zur Deepfake-Erkennung
Neben menschlicher Analyse werden zunehmend KI-basierte Erkennungssysteme eingesetzt.
Aktuelle Forschung nutzt:
- Computer-Vision-Modelle: Dazu gehören klassische Convolutional Neural Networks (CNN) wie XceptionNet oder EfficientNet, speziell entwickelte Modelle wie MesoNet, sowie neuere Ansätze wie Vision Transformer..
- Audioanalyse: Systeme wie RawNet2, SpecRNet oder Modelle aus der ASVspoof Challenge analysieren dabei Spektralmuster, Prosodie und Mikroschwankungen in Sprachsignalen. Da synthetische Stimmen häufig weniger natürliche Variationen oder Atemgeräusche enthalten, können diese KI-Modelle manipulierte Audioaufnahmen identifizieren.
- Zunehmend kommen außerdem multimodale Systeme zum Einsatz, die Audio und Video gleichzeitig analysieren.
Solche Systeme analysieren beispielsweise Pixelmuster oder physiologische Signale wie den natürlichen Blutfluss im Gesicht, um Manipulationen zu identifizieren.
Prüfmethoden für KI-Bilder
Für Content-Teams und Social-Media-Manager haben sich einige pragmatische Prüfmethoden bewährt.
Reverse Image Search
Tools wie Google Lens oder TinEye helfen dabei:
- ursprüngliche Quelle eines Bildes finden
- manipulierte oder recycelte Bilder identifizieren
Metadaten prüfen
Bilder enthalten oft technische Informationen:
- Aufnahmegerät
- Datum
- Bearbeitungssoftware
Fehlende oder auffällige Metadaten können ein Hinweis auf Manipulation sein.
Plattform-Kontext analysieren
Wichtige Fragen:
- Wer verbreitet den Inhalt?
- Wird er von vertrauenswürdigen Accounts geteilt?
- Gibt es koordinierte Kampagnen?
Solche Muster können auf Desinformation hinweisen.
Best Practices: Umgang mit möglichen Fake-Inhalten
Für Unternehmen und Content-Teams empfiehlt sich ein strukturierter Umgang mit potenziellen Fakes.
1. Verifizierungsprozesse etablieren
Bevor Inhalte veröffentlicht oder geteilt werden:
- Quellenprüfung
- Bildanalyse
- Faktencheck
Dieser Prozess sollte Bestandteil jeder Content-Strategie sein.
2. Medienkompetenz der Mitarbeiter stärken
Ein wichtiger Schutzfaktor ist Medienkompetenz.
Trainings können vermitteln:
- Fake News erkennen
- manipulierte Bilder erkennen
- Deepfake-Beispiele analysieren
Organisationen investieren zunehmend in solche Schulungen, um die Sensibilisierung für Desinformation zu erhöhen.
3. Transparenz im Umgang KI-generierten Bildern
Wenn Unternehmen selbst synthetische Medien oder KI-generierte Bilder einsetzen, sollten sie transparent damit umgehen, sie also deutlich als „KI-generiert“ kennzeichnen.
Die Kennzeichnungspflicht für KI-generierte Inhalte gilt in der EU im Rahmen des EU AI Act (Verordnung (EU) 2024/1689)und tritt am 2. August 2026 in Kraft.
Der EU AI Act verlangt Transparenz insbesondere bei synthetischen oder manipulierten Medien (Art. 50). Dazu gehören z. B.:
- Deepfakes (Video oder Audio)
- KI-generierte Bilder
- KI-erzeugte Texte, wenn sie potenziell täuschend wirken
- Chatbots, die mit Menschen interagieren
Nutzer sollen erkennen können, wann Inhalte künstlich erzeugt oder manipuliert wurden, damit sie nicht getäuscht werden. Das stärkt langfristig das Vertrauen in Medien und KI-Technologien.
Italien geht nach einem Skandal (Italien: Erotik-Skandal um Webseite "Phica" – auch Meloni betroffen) gesetzgeberisch einen Schritt weiter: Das nationale KI-Rahmengesetz (Bill No. 1146) enthält strafrechtliche Ergänzungen, die speziell gegen missbräuchliche Deepfakes gerichtet sind.(bis zu 5 Jahre Haft).
4. Monitoring und Krisenkommunikation
Social-Media-Monitoring hilft, Desinformation früh zu erkennen.
Wichtige Maßnahmen:
- Unternehmen nutzen zunehmend Social-Listening-Tools, um Diskussionen und potenzielle Desinformation über ihre Marke frühzeitig zu erkennen. Plattformen wie Brandwatch, Talkwalker, Meltwater oder Sprout Social analysieren Social-Media-Beiträge, Nachrichtenartikel und Online-Foren in Echtzeit. Dadurch können Kommunikationsabteilungen Trends identifizieren, mögliche Reputationsrisiken beobachten und schneller auf Fake News reagieren.
- schnelle Klarstellungen veröffentlichen (ZDF-Wirbel um "Heute Journal": Sender nimmt zu "Fake-Video" Stellung)
- Faktenchecks sichtbar kommunizieren
So lassen sich potenzielle Reputationsschäden durch Fake News begrenzen.
Warum Medienkompetenz im KI-Zeitalter entscheidend ist
Fake News und Deepfakes gehören inzwischen zum digitalen Alltag. Mit der rasanten Entwicklung von KI-Technologien wird es immer einfacher, synthetische Medien zu erzeugen, die täuschend echt wirken.
Für Unternehmen und Social-Media-Teams bedeutet das:
- Inhalte kritisch prüfen
- visuelle und technische Hinweise analysieren
- Mitarbeiter für Desinformation sensibilisieren
Die Fähigkeit, Fake News und Deepfakes zu erkennen, wird damit zu einer zentralen Kompetenz im digitalen Kommunikationsalltag.
Wer systematisch prüft, Quellen hinterfragt und geeignete Tools nutzt, kann das Risiko deutlich reduzieren – und gleichzeitig Vertrauen in digitale Inhalte stärken.
Randomisierte Experimente zeigen, dass Faktenchecks nur einzelne Fake News korrigieren, während Medienkompetenz-Trainings Menschen generell besser darin machen, falsche Inhalte zu erkennen. Diese Studien sind besonders interessant für Unternehmen und Schulungen, weil sie zeigen, dass Medienkompetenz langfristig effektiv sein kann.
Jetzt starten: Demo
mybreev bietet eLearnings und Serious Games an, um im Bereich Deepfakes, KI und Fake News die Mitarbeitenden zu sensibilisieren und Kompetenzen im Umgang mit Desinformation, KI-Risiken und digitalen Manipulationen aufzubauen. Das Angebot richtet sich typischerweise an Organisationen, die ihre Teams zu Themen wie Medienkompetenz, Informationssicherheit oder AI-Compliance schulen möchten.
Fordern Sie gerne eine Demo zu beliebigen Themen an. 14 Tage kostenfrei.
Quellen:
Eine der meistzitierten wissenschaftlichen Arbeiten zur Definition von Fake News in der Kommunikations- und Medienforschung ist:
Tandoc, Edson C. Jr.; Lim, Zheng Wei; Ling, Richard (2018). “Defining ‘Fake News’: A Typology of Scholarly Definitions.” Digital Journalism, 6(2), 137–153.
Ein schönes empirisches Experiment zu Faktenchecks und Medienkompetenz findet sich in: Berger, L. M., Kerkhof, A., Mindl, F., & Münster, J. (2025). Debunking fake news on social media: Immediate and short-term effects of fact-checking and media literacy interventions. Journal of Public Economics, 245, 105345.
WeitereQuellen: Siehe Links im Text
Hinweis: Dieser Blog wurde in der Recherche mit KI unterstützt.