Deepfakes: Risiken verstehen und Schutzmaßnahmen ergreifen

Nils Knäpper 11.3.2025

Deepfakes? Nein, danke! Erfahre, welche Risiken sie mit sich bringen und wie du dich effektiv schützt

Inhalt
  1. Definition: Was sind Deepfakes?
  2. Deepfakes von Gesichtern
  3. Deepfakes von Stimmen
  4. Deepfakes von Texten
  5. Mögliche Gefahren und Bedrohungsszenarien durch Deepfakes von Texten
  6. Gegenmaßnahmen bei Deepfakes
  7. Deepfakes erkennen: Darauf solltest du achten
  8. Fazit: Deepfakes erkennen, Risiken minimieren

Deepfakes stellen eine der herausforderndsten Entwicklungen der digitalen Ära dar. Sie ermöglichen die Erstellung äußerst realistischer, aber gefälschter Inhalte, die in verschiedenen Bereichen eingesetzt werden. Während Deepfakes für kreative Zwecke genutzt werden, bergen sie auch erhebliche Risiken für Gesellschaft, Politik und persönliche Integrität. In diesem Artikel erhältst du nicht nur einen umfassenden Überblick über die technischen Grundlagen und Bedrohungsszenarien von Deepfakes, sondern erfährst auch, wie du dich vor ihren potenziell schädlichen Auswirkungen schützen kannst.

Das Wichtigste in Kürze

  • Deepfakes sind computergenerierte Inhalte, die mit KI erstellt werden und täuschend echte Nachbildungen von Personen in Videos, Audios oder Bildern darstellen.
  • Die Risiken von Deepfakes reichen von Desinformation und Betrug bis hin zu Rufschädigung und Gefährdung der IT-Sicherheit.
  • Zum Erkennen von Deepfakes auf Gesichtern, Audio und Texten achte auf unnatürliche Bewegungen, Verzerrungen oder unlogische Satzstrukturen.
  • Gegenmaßnahmen beinhalten Sensibilisierung, technologische Lösungen zur Erkennung und stärkere rechtliche Rahmenbedingungen.
  • Rechtlich sind Deepfakes nicht immer verboten, besonders wenn sie keine Persönlichkeitsrechte verletzen, aber sie stellen trotzdem ein erhebliches Risiko dar.

Definition: Was sind Deepfakes?

Deepfake ist ein Kofferwort aus „Deep Learning“ und „Fakes“. Gemeint sind damit computergenerierte Inhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden und täuschend echte Nachbildungen von Personen in Form von Videos, Audios oder Bildern darstellen. Diese Technologie ermöglicht es, das Gesicht oder die Stimme einer Person so zu manipulieren, dass sie etwas sagen oder tun, was sie tatsächlich nie gesagt oder getan hat. Deepfakes entstehen durch das Training von Algorithmen auf umfangreichen Datensätzen und finden Anwendung in verschiedenen Bereichen, von Unterhaltung bis hin zu Desinformation.

Sind Deepfakes verboten?

Mit der Frage, ob Deepfakes verboten sind, hat sich bereits der Bundesrat befasst. Aktuell wird diese Art der Fälschungen vom deutschen Strafrecht allerdings nur in Teilen adressiert. Der Bundesrat sieht im Falle der Verletzung von Persönlichkeitsrechten durch Deepfakes Freiheitsstrafen von bis zu fünf Jahren vor.

Ist es illegal, Deepfakes anzuschauen? 

Das bloße Anschauen von Deepfakes ist in der Regel nicht illegal, es sei denn, der Inhalt selbst verstößt gegen spezifische Gesetze. Es ist allgemein jedoch ratsam, sich bewusst zu machen, dass man möglicherweise Inhalte konsumiert, die rechtliche oder ethische Probleme aufwerfen.

Jedoch: Nicht alle Deepfakes sind automatisch kriminell. Im kulturellen Bereich werden Deepfakes vergleichsweise harmlos eingesetzt – beispielsweise, wenn es darum geht, Schauspieler*innen in Filmen digital zu verjüngen.

 
 

Deepfakes von Gesichtern

Deepfakes von Gesichtern sind eine der am häufigsten vorkommenden Formen dieser Technologie und bieten eine teils beeindruckende, teils besorgniserregende Möglichkeit, visuelle Inhalte zu manipulieren. Dabei werden die Gesichter von Personen in Videos oder Bildern so verändert, dass sie Dinge sagen oder tun, die nicht der Wirklichkeit entsprechen. Hierbei kann man nochmal unterscheiden zwischen:

  • Face Swapping: Hierbei wird das Gesicht einer Person in einem Video oder Bild durch das Gesicht einer anderen Person ersetzt.

  • Face Reenactment: Dies ist eine Technik, bei der die Gesichtsausdrücke, Kopfbewegungen und Lippenbewegungen einer Person (Quellperson) auf das Gesicht einer anderen Person (Zielperson) übertragen werden. Dazu wird das Gesicht der Zielperson dreidimensional modelliert und die Mimik der Quellperson darauf übertragen. Anders als beim Face Swapping bleibt das Gesicht der Zielperson allerdings erhalten und wird nicht durch ein neues ausgetauscht.

  • Gesichtsmorphing: Das Gesichtsmorphing kombiniert Merkmale zweier Gesichter zu einem neuen Bild. Dies wird häufig für künstlerische oder kreative Zwecke genutzt, kann aber auch zur Täuschung eingesetzt werden, etwa bei gefälschten Identitätsdokumenten.

  • Gesichtsverjüngung oder -alterung: Deepfake-Technologien können verwendet werden, um das Alter eines Gesichts visuell zu verändern. Im popkulturellen Bereich wird diese Technik häufig eingesetzt, um Schauspieler*innen zu verjüngen.

 
 

Deepfakes von Stimmen

Auch im Audio-Bereich sind Deepfakes inzwischen weit verbreitet. Hierbei entstehen mit Hilfe von Tools wie ElevenLabs synthetische Stimmen, die mithilfe von künstlicher Intelligenz und maschinellem Lernen erstellt werden. Diese Technologien ermöglichen es, die Stimme einer realen Person täuschend echt nachzuahmen. In der Regel unterscheidet man hierbei zwischen zwei Methoden – Text-to-Speech und Voice Conversion:

  • Text-to-Speech (TTS) Deepfakes: Bei TTS-Deepfakes wird geschriebener Text in gesprochene Sprache umgewandelt. Dabei wird die Stimme einer bestimmten Person nachgeahmt. Um dies zu erreichen, analysiert die KI umfangreiche Sprachaufnahmen der Zielperson, um die charakteristischen Merkmale ihrer Stimme zu lernen, einschließlich Tonhöhe, Intonation und Sprachmuster. In der Regel sind dafür mehrere Stunden Audiomaterial der Zielperson nötig.
  • Voice Conversion (VC): Bei der Voice Conversion wird eine bereits existierende Stimme in Echtzeit oder nachträglich so modifiziert, dass sie wie die Stimme einer anderen Person klingt. Während dieser Prozess häufig in Echtzeit erfolgt, bleibt der Inhalt der ursprünglichen Sprache unverändert. Die Technologie nutzt Algorithmen, die auf maschinellem Lernen basieren, um die Absichten und Emotionen der Ausgangsstimme in die Zielstimme zu übertragen. Besonders brisant ist es, wenn diese Technik für Telefonbetrug zum Einsatz kommt.
Lesetipp

Lesetipp: Das sind die wichtigsten KI-Trends 2025

Deepfakes von Texten

Auch im Textbereich sind Deepfakes dank KI-Textgeneratoren wie ChatGPT und Co. inzwischen weitverbreitet. Die Grundlage für Deepfakes von Texten liegt in der Anwendung von Large Language Models (LLMs) und Natural Language Processing (NLP). LLMs sind komplexe KI-Modelle, die auf riesigen Mengen an Textdaten trainiert werden. Diese Modelle analysieren und lernen die Struktur, den Kontext und die Semantik der Sprache, um synthetische Texte zu generieren, die menschenähnlich wirken.

NLP hingegen bezieht sich auf die interdisziplinäre Technologie, die es Computern ermöglicht, menschliche Sprache zu verstehen, zu interpretieren und zu erzeugen. Durch den Einsatz von NLP-Methoden können LLMs Bedeutung und Zusammenhänge in Texten erfassen, was zu einer präzisen und kohärenten Texterzeugung führt. 

Die Kombination dieser Technologien erlaubt es den Modellen, aus nur wenigen Eingabe-Wörtern oder -Sätzen umfangreiche und zusammenhängende Texte zu erstellen, die in ihrer Ausdrucksweise und Grammatik an real geschriebene Inhalte erinnern. Diese Fähigkeit eröffnet sowohl kreative Anwendungsmöglichkeiten als auch Herausforderungen, insbesondere in Bezug auf die Verbreitung von Fehlinformationen und manipulativen Inhalten.

 
 

Mögliche Gefahren und Bedrohungsszenarien durch Deepfakes von Texten

Die Wahrheit ist: Wir sind inzwischen ständig von Deepfakes umgeben und die Anzahl solcher Inhalte wird noch weiter zunehmen. Umso wichtiger ist es also, dass du dir bewusst machst, wo und in welcher Form die Fakes auf dich lauern können:

1. Desinformationskampagnen

Deepfakes werden inzwischen gezielt eingesetzt, um falsche Informationen zu verbreiten. Oft geschieht das durch die Manipulation von Aussagen oder Handlungen bekannter Persönlichkeiten wie Politiker*innen oder Führungskräften. Ein anderes Beispiel sind massenhaft generierte Kommentare im Social Media, die eine bestimmte Gesinnung proklamieren. Derartige Inhalte können erhebliche Auswirkungen auf die öffentliche Meinung haben und sogar politische Prozesse manipulieren.

2. Social Engineering und Betrug

Die kriminelle Nutzung von Fälschungen findet auch in gezielten Phishing-Angriffen Anwendung, speziell beim sogenannten „CEO-Fraud“. Hierbei wird die Stimme oder das Erscheinungsbild einer Führungskraft gefälscht, um Mitarbeitende dazu zu bringen, bestimmte Aktionen auszuführen. Ein typisches Szenario könnte ein Telefonanruf sein, bei dem die Stimme eines Abteilungsleiters täuschend echt klingt und dich auffordert, eine dringende Überweisung zu tätigen oder Daten weiterzugeben.

3. Überwindung biometrischer Sicherheitssysteme

Für biometrische Sicherheitssysteme stellen Deepfakes eine besondere Herausforderung dar, insbesondere wenn es um Gesichtserkennung und Stimmerkennung geht. Gerade bei der Fernerkennung können in Echtzeit erstellte Deepfakes dazu genutzt werden, bestimmte Sicherheitssysteme zu überwinden.

4. Verleumdung und Rufschädigung

Ein weiteres Risiko besteht in der Möglichkeit, Personen in kompromittierenden Situationen darzustellen, um ihren Ruf gezielt zu schädigen. Dies kann von falschen Aussagen bis zu manipulierten Videos reichen, die dich oder andere in peinlichen oder belastenden Kontexten zeigen. Prominente sind besonders oft Ziel solcher Angriffe, beispielsweise durch die Integration ihrer Gesichter in unangemessene Inhalte. Deepfakes könnten zudem zur Manipulation von Beweisfotos oder -videos verwendet werden, was zu einer falschen Beschuldigung unschuldiger Personen führen kann.

5. IT-Sicherheitsrisiken

Schließlich erweitern Deepfakes das Spektrum der IT-Sicherheitsbedrohungen, da sie eine neue Dimension des Cyberbetrugs darstellen. Durch die täuschend echte Manipulation von Identitäten können Sicherheitsmechanismen umgangen werden. Diese Risiken sind besonders besorgniserregend, da sie nicht nur traditionelle Angriffe wie Malware oder Phishing ergänzen, sondern auch bestehende Sicherheitsprotokolle infrage stellen.

 
 

Gegenmaßnahmen bei Deepfakes

Die gute Nachricht: Du bist den Deepfakes nicht schutzlos ausgeliefert. Hier sind einige Gegenmaßnahmen, die gegen die Fälschungen helfen:

Sensibilisierung und Prävention

Der wichtigste Faktor im Kampf gegen Fake-Inhalte ist deine eigene Sensibilisierung und ein geschultes Urteilsvermögen. Die Fähigkeit, Informationen kritisch zu hinterfragen und die Glaubwürdigkeit von Quellen zu bewerten, ist wichtig, um den Einfluss von Deepfakes zu minimieren.

Technologische Lösungen

Die Entwicklung von Algorithmen zur Erkennung von Deepfakes ist eine der wichtigsten Maßnahmen. Hierbei werden Machine-Learning-Modelle eingesetzt, die auf Anomalien in der Sprache, den visuellen Inhalten oder im Stil achten. Diese Technologien können helfen, gefälschte Inhalte schnell zu identifizieren, bevor sie verbreitet werden. Einige Firmen arbeiten bereits an Softwarelösungen, die auf bestimmte Merkmale von manipulierten Texten achten, um deren Authentizität zu überprüfen.

Stärkung rechtlicher Rahmenbedingungen

Die rechtlichen Grundlagen zur Bekämpfung von Deepfakes müssen ebenfalls überarbeitet und gestärkt werden. Der Gesetzgeber sollte gezielte Maßnahmen einführen, die den illegalen Einsatz von Deepfakes unter Strafe stellen und definieren, welche Handlungen als strafbar gelten. Darüber hinaus sollte der rechtliche Rahmen klare Richtlinien für die Haftung bei der Verwendung gefälschter Inhalte und der Verwendung von KI im Allgemeinen schaffen. Ein wichtiger Schritt in diese Richtung ist beispielsweise der EU AI Act.

Deepfakes erkennen: Darauf solltest du achten

Hier sind einige Merkmale und Artefakte, die dir helfen können, Deepfakes in den drei häufigsten Kategorien – Gesichtern, Audio und Text – zu identifizieren.

Gesichter-Fälschungen erkennen

  • Unechte Mimik und Gestik: Achte auf subtile Unstimmigkeiten in der Mimik oder Körperbewegungen. Das Gesicht wirkt oft zu starr oder zeigt unnatürliche Gesichtsausdrücke im Vergleich zum Rest des Körpers.

  • Unrealistische Hauttöne und Schattierungen: Bei vielen Deepfakes sind Gesichtshauttöne und Schattierungen inkonsistent. Unnatürliche Übergänge, etwa zwischen Gesicht und Hals oder einer ungleichmäßigen Beleuchtung, können Hinweise auf Manipulation sein.

  • Unschärfen und Artefakte: Häufig zeigen gefakte Videos verpixelte Bereiche oder Unschärfen, besonders an den Rändern des Gesichts. Solche Artefakte entstehen durch das Übertragen eines Gesichts auf ein anderes Video.

  • Falsche Augenbewegungen: Die Bewegungen der Augen sind oft nicht synchron mit der Sprache oder dem Rest der Mimik. Achte darauf, ob die Augen zu starr wirken oder nicht dem natürlichen Augenverhalten entsprechen.

Audio-Fälschungen erkennen

  • Unnatürlicher Sprachfluss: Achte auf unregelmäßige Sprechpausen oder einen inkonsistenten Rhythmus im Sprachfluss. Künstliche Stimmen können stotternd oder übermäßig flüssig erscheinen.

  • Verzerrungen und Artefakte: Bei gefälschten Audioaufnahmen kann es zu Verzerrungen kommen, die wie Knacken oder metallisches Rauschen klingen. Häufig sind auch die Tonqualität und die Betonung nicht dieselbe wie bei der echten Stimme.

  • Mismatch zwischen Stimme und visuellen Informationen: Wenn die Stimme nicht zu den Mundbewegungen oder der Körpersprache passt, ist das ein klares Zeichen für Manipulation. Achte darauf, ob die Lippenbewegungen synchron zur Sprache sind.

  • Falsche Emotionen: Achte auf emotionale Inkonsistenzen. Sprachtechnologien können Schwierigkeiten haben, Emotionen authentisch zu vermitteln, wodurch die Stimme oft zu monoton oder unpassend klingt.

Text-Fälschungen erkennen

  • Unnatürliche Satzstrukturen: Deepfakes von Texten können seltsame oder grammatikalisch falsche Formulierungen enthalten. Wenn Sätze unzusammenhängend oder übermäßig komplex erscheinen, könnte dies ein Hinweis auf einen gefälschten Text sein.

  • Inkonsistenzen im Schreibstil: Achte auf plötzliche Änderungen im Schreibstil, etwa Unterschiede in Tonfall oder Wording innerhalb eines Textes.

  • Widersprüchliche Informationen: Gefälschte Texte enthalten oft widersprüchliche Informationen oder Aussagen, die nicht mit allgemein bekannten Fakten übereinstimmen.

 
 

Fazit: Deepfakes erkennen, Risiken minimieren

Deepfakes begegnen uns inzwischen täglich – sei es durch manipulierte Gesichter, gefälschte Stimmen oder verfälschte Texte. Umso wichtiger ist die Fähigkeit, diese Inhalte zu erkennen. Die Risiken, die mit Deepfakes verbunden sind, sind vielfältig und reichen von Desinformationskampagnen über betrügerische Aktivitäten bis zu Rufschädigung und juristischen Manipulationen.

Um die Gefahr von Deepfakes zu minimieren und die Echtheit von Informationen zu validieren, ist es wichtig, dass du die typischen Merkmale von Fälschungen identifizieren kannst. Achte auf Unstimmigkeiten in der Mimik und Gestik bei visuellen Inhalten, auf Verzerrungen in der Audioqualität und auf unnatürliche Satzstrukturen in Texten. Dann kannst du den Einfluss von schädlichen Inhalten minimieren. 

Nils Knäpper
Autor*In
Nils Knäpper

Nils ist SEO-Texter bei OMR Reviews und darüber hinaus ein echter Content-Suchti. Egal, ob Grafik, Foto, Video oder Audio – wenn es um digitale Medien geht, ist Nils immer ganz vorne mit dabei. Vor seinem Wechsel zu OMR war er fast 5 Jahre lang als Content-Manager und -Creator in einem Immobilienunternehmen tätig und hat zudem eine klassische Ausbildung als Werbetexter.

Alle Artikel von Nils Knäpper

Im Artikel erwähnte Softwares

Im Artikel erwähnte Software-Kategorien

Ähnliche Artikel

Komm in die OMR Reviews Community & verpasse keine Neuigkeiten & Aktionen rund um die Software-Landschaft mehr.