Was sind Deepfakes?

Deepfakes verstehen: Erfahren Sie, wie sie erstellt werden, welche Risiken sie bergen und wie Sie sich schützen können, um die Sicherheit Ihrer digitalen Identität und Informationen zu gewährleisten.

Dark Web Scannen

Seit Jahrzehnten versuchen Filmemacher, die menschliche Biologie mit Make-up, Prothesen und Doubles zu verändern oder zu verbessern, um ihre Szenen authentischer wirken zu lassen. Doch erst mit moderner VFX-Technologie erzielten sie gemischte Ergebnisse. In Filmen wie The Irishman, Captain Marvel und Avengers: Endgame ermöglicht VFX Darstellern, physische Unmöglichkeiten zu überwinden. Manchmal erlaubt Hollywood VFX Filmemachern, das Gesicht von Schauspielern mit den Körpern anderer Darsteller zu verbinden, für Rollen, die sie nicht bereit oder in der Lage sind zu spielen.  

Wie Sie sich vorstellen können, ist die moderne VFX-Technologie in Hollywood teuer, anspruchsvoll und detailliert. Offensichtlich hat nicht jeder ein Budget von mehreren hundert Millionen USD, um ein VFX-Studio zu engagieren. Hier kommt die Deepfake-Technologie ins Spiel.

Was ist ein Deepfake? Eine Definition.

Ein „Deepfake“ bezieht sich auf nachgebildete Medien eines Erscheinungsbildes und/oder einer Stimme einer Person, die durch eine Art künstliche Intelligenz namens Deep Learning erstellt wurde (daher der Name Deepfake). Ein Reddit-Nutzer, der 2017 Deepfakes auf der Seite geteilt hat, prägte den Begriff.

Deepfakes sind normalerweise gefälschte Bilder, Videos oder Audioaufnahmen. Vielleicht haben Sie beliebte Videos von Prominenten oder Politikern gesehen, die Dinge sagen, die sie in Wirklichkeit wahrscheinlich nicht sagen würden. Das sind häufige Beispiele für Deepfakes. Das Aufkommen von Deepfake-Videos wirft Bedenken hinsichtlich eines möglichen 'Lügendividende' auf, bei der Fehlinformationen verbreitet werden, Vertrauen untergraben und die Realität verzerrt wird.

Wie funktionieren Deepfakes?

Deepfake-Technologie nutzt fortgeschrittene künstliche Intelligenz mittels generativer gegnerischer Netzwerke (GANs), die aus zwei wesentlichen Algorithmen bestehen: dem Generator und dem Diskriminator. Der Generator initiiert den Prozess, indem er basierend auf einem gewünschten Ergebnis den ersten gefälschten Inhalt erzeugt und dabei auf einen Trainingsdatensatz zurückgreift. Der Diskriminator bewertet die Authentizität dieses Inhalts und identifiziert Verbesserungsbereiche. Dieser iterative Prozess ermöglicht es dem Generator, seine Fähigkeit zu verbessern, zunehmend realistischere Inhalte zu produzieren, während der Diskriminator sich darin verbessert, Diskrepanzen zur Korrektur zu identifizieren.

GANs spielen eine entscheidende Rolle bei der Erstellung von Deepfakes, indem sie Muster in echten Bildern analysieren, um diese in gefälschten Inhalten nachzubilden. Bei Fotos untersuchen GAN-Systeme mehrere Blickwinkel der Bilder der Zielperson, um umfassende Details zu erfassen. Bei Videos analysieren sie nicht nur Winkel, sondern auch Verhalten, Bewegung und Sprachmuster. Diese facettenreiche Analyse durchläuft zahlreiche Iterationen durch den Diskriminator, um den Realismus des Endprodukts zu verfeinern.

Deepfake-Videos entstehen auf zwei primäre Arten: indem ein Originalvideo manipuliert wird, um zu verändern, was die Zielperson sagt oder tut (Quellvideo-Deepfakes), oder indem das Gesicht der Zielperson auf den Körper einer anderen Person gesetzt wird (Face-Swaps). Quellvideo-Deepfakes beinhalten einen neuronalen Netzwerk-basierten Autoencoder, der das Video aufschlüsselt, um die Gesichts- und Körpersprache des Ziels zu verstehen und dann auf das Originalmaterial zu überlagern. Bei Audio funktioniert ein ähnlicher Prozess zur Klonung einer Stimme, die jede gewünschte Rede replizieren kann.

Schlüsseltechniken bei der Erstellung von Deepfakes umfassen:

  • Quellvideo-Deepfakes: Nutzt einen Autoencoder mit einem Encoder, um Attribute zu analysieren, und einem Decoder, um diese Attribute auf das Zielvideo anzuwenden.
  • Audio-Deepfakes: Verwendet GANs, um Stimmprofile zu klonen, wodurch die Erstellung realistischer Stimmrepliken ermöglicht wird.
  • Lip-Syncing: Passt Sprachaufnahmen an Videos an, um die Illusion zu verstärken, dass das Subjekt die aufgenommenen Wörter spricht, unterstützt durch rekurrente neuronale Netzwerke für zusätzliche Realitätsnähe.

Die Erstellung von Deepfakes wird durch fortschrittliche Technologien wie konvolutionale neuronale Netzwerke (CNNs) zur Gesichtserkennung, Autoencoder zur Attributzuordnung, natürliche Sprachverarbeitung (NLP) zur Erzeugung synthetischer Audiodaten und die Rechenleistung von Hochleistungskomputersystemen erleichtert. Tools wie Deep Art Effects, Deepswap und FaceApp verdeutlichen die Zugänglichkeit der Deepfake-Erstellung und deuten auf eine Zukunft hin, in der die Erstellung überzeugender Deepfakes für viele in Reichweite ist.

Sind Deepfakes legal?

Im Kern sind Deepfakes nicht per se illegal; die Legalität hängt weitgehend von ihrem Inhalt und ihrer Absicht ab. Diese innovative Technologie kann in rechtswidrigen Bereich geraten, wenn sie gegen bestehende Gesetze zu Kinderpornografie, Verleumdung, Hassrede oder anderen kriminellen Aktivitäten verstößt.

Bis heute gibt es nur wenige Gesetze, die speziell auf Deepfakes abzielen, und diese variieren erheblich von Land zu Land. Die Verbreitung der Deepfake-Technologie wirft jedoch Bedenken hinsichtlich der Verbreitung falscher Behauptungen und ihrer Auswirkungen auf das öffentliche Vertrauen und den Diskurs auf. In den Vereinigten Staaten gibt es bereits bemerkenswerte Ausnahmen, in denen einige Staaten Schritte unternommen haben, um die schädlichen Auswirkungen der Deepfake-Technologie zu begrenzen:

  • Texas: Dieser Bundesstaat hat Gesetze erlassen, die die Erstellung und Verbreitung von Deepfakes mit der Absicht verbieten, in Wahlen einzugreifen. Dieser Schritt soll die Integrität des Wahlprozesses schützen, indem die Verbreitung irreführender oder falscher Informationen über Kandidaten durch hyperrealistische gefälschte Videos oder Audioaufnahmen verhindert wird. Zudem hat Texas ein Gesetz speziell gegen die Verbreitung sexuell expliziter Deepfakes ohne Einwilligung des Betroffenen erlassen, um Individuen vor Belästigung oder Peinlichkeiten durch solche Inhalte zu schützen. Beide Straftaten werden als Class-A-Vergehen behandelt und können mit bis zu einem Jahr Gefängnisstrafe und Geldstrafen von bis zu 4.000 USD geahndet werden.
  • Virginia: In Anbetracht des persönlichen und gesellschaftlichen Schadens, den deepfake Pornografie verursacht, hat Virginia die Verbreitung solcher Inhalte ausdrücklich verboten. Dieses Gesetz zielt auf deepfakes ab, die Personen ohne deren Zustimmung sexuell ausbeuten, und bietet den Opfern einen legalen Weg, um Gerechtigkeit zu erlangen. Die Verbreitung von Rache-Pornos, einschließlich deepfake Pornografie, wird als Vergehen der Klasse 1 eingestuft, das mit bis zu 12 Monaten Gefängnis und einer Geldstrafe von bis zu 2.500 Dollar geahndet werden kann.
  • Kalifornien: Mit dem Fokus auf die politischen und persönlichen Auswirkungen von Deepfakes hat Kalifornien Gesetze gegen die Nutzung von Deepfakes erlassen, die darauf abzielen, Wähler innerhalb von 60 Tagen vor einer Wahl zu täuschen. Zusätzlich ist es im Staat illegal, nicht einvernehmliche Deepfake-Pornografie zu erstellen und zu verbreiten, was die wachsende Besorgnis über die Nutzung dieser Technologie zur Schädigung der Privatsphäre und Würde von Individuen widerspiegelt.

Das Flickwerk an Vorschriften verdeutlicht eine breitere Herausforderung: Viele Menschen sind sich der Deepfake-Technologie, ihrer potenziellen Anwendungen und den Risiken, die sie mit sich bringt, nicht bewusst. Diese Wissenslücke trägt zu einer rechtlichen Umgebung bei, in der Opfer von Deepfakes, außerhalb von spezifischen Szenarien, die durch staatliche Gesetzgebung abgedeckt sind, oft ohne klare rechtliche Ansprüche dastehen. Die sich entwickelnde Natur der Deepfake-Technologie und ihre Auswirkungen erfordern eine besser informierte Öffentlichkeit sowie umfassende Rechtsrahmen, um Einzelpersonen vor ihrem potenziellen Missbrauch zu schützen.

Wie gefährlich sind Deepfakes?

Deepfake-Technologie führt zwar zu innovativen Möglichkeiten, birgt aber erhebliche Risiken. Es geht nicht nur darum, falsche Bilder oder Videos zu erstellen; die Auswirkungen betreffen ernsthafte Bereiche wie:

  • Persönliche Sicherheit, da Individuen mit Erpressung bedroht werden könnten.
  • Die Integrität demokratischer Prozesse, durch die Erstellung irreführender politischer Inhalte.
  • Finanzmärkte, die anfällig für Manipulationen durch gefälschte Berichte sind.
  • Identitätsdiebstahl, bei dem persönliche Daten missbraucht werden können.

Die sich verändernde Landschaft erfordert eine robuste Antwort, die Wachsamkeit, technische Lösungen und rechtliche Rahmen kombiniert, um gegen diese aufkommenden Bedrohungen zu schützen.

Wie erkennt man Deepfakes?

Um Deepfake-Inhalte zu erkennen, ist Aufmerksamkeit für spezifische visuelle und textuelle Indikatoren erforderlich. Hier sind einige wichtige Anzeichen, auf die Sie achten sollten:

Visuelle Indikatoren:

  • Ungewöhnliche Gesichtshaltung oder ungeschickte Ausdrücke.
  • Unnatürliche Bewegungen von Gesicht oder Körper.
  • Inkonsistente Farbgebung im Video.
  • Seltsame Erscheinungen beim Heranzoomen oder Vergrößern.
  • Nicht übereinstimmender oder inkonsistenter Ton.
  • Fehlende natürliche Lidschläge bei Menschen.

Textuelle Indikatoren:

  • Rechtschreibfehler und grammatisch inkorrekte Sätze.
  • Eine Satzstruktur, die unnatürlich wirkt.
  • Verdächtig aussehende E-Mail-Adressen.
  • Phrasierung, die nicht dem erwarteten Stil des Absenders entspricht.
  • Nachrichten, die aus dem Zusammenhang gerissen oder irrelevant wirken.

Zusätzlich sollten Sie auch auf Verhaltens- und Kontextanomalien achten:

  • Verhaltensinkonsistenzen: Achten Sie auf das Verhalten und die Manierismen des Subjekts. Deepfakes könnten subtile Persönlichkeitseigenschaften, gewohnte Bewegungen oder emotionale Reaktionen nicht genau nachbilden, was das Subjekt etwas merkwürdig erscheinen lässt.
  • Kontextuelle Anomalien: Analysieren Sie den Kontext, in dem das Video oder Audio auftaucht. Abweichungen im Hintergrund, unerwartete Interaktionen mit der Umgebung oder Anomalien in der Handlung können auf Manipulation hinweisen.

Die Fortschritte in der KI verbessern die Erkennung dieser Anzeichen, aber es ist unerlässlich, über diese Indikatoren informiert zu bleiben, um Deepfakes zu identifizieren.

Wie schützt man sich gegen Deepfakes?

Eine Schlüsselstrategie zur Verteidigung gegen Deepfakes beinhaltet die Nutzung fortschrittlicher Technologie, um diese gefälschten Medien zu identifizieren und zu blockieren.

Regierungsbehörden wie die Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums stehen an vorderster Front und entwickeln bahnbrechende Lösungen, um echte von manipuliertem Inhalt zu unterscheiden. Ebenso setzen Social-Media-Riesen und Technologieunternehmen innovative Methoden ein, um die Authentizität der auf ihren Plattformen geteilten Medien zu gewährleisten.

Einige Plattformen nutzen beispielsweise Blockchain-Technologie, um die Herkunft von Videos und Bildern zu verifizieren, vertrauenswürdige Quellen zu etablieren und die Verbreitung von gefälschtem Inhalt effektiv zu verhindern.

Umsetzung von Richtlinien für soziale Medien

Angesichts des potenziellen Schadens, der durch bösartige Deepfakes verursacht werden kann, haben Social-Media-Plattformen wie Facebook und Twitter einen festen Standpunkt eingenommen, indem sie diese verbieten. Diese Richtlinien sind Teil eines umfassenderen Bestrebens, Nutzer vor den negativen Auswirkungen täuschender Medien zu schützen und die Rolle der Plattformen in der Aufrechterhaltung digitaler Vertrauenswürdigkeit zu unterstreichen.

Einsatz von Software zur Erkennung von Fälschungen

Der Kampf gegen Deepfakes wird auch durch Innovationen im privaten Sektor unterstützt. Eine Reihe von Unternehmen bietet ausgeklügelte Deepfake-Erkennungssoftware an, die wesentliche Werkzeuge zur Identifizierung manipulierter Medien bereitstellt:

  • Adobes Initiative zur Inhaltsechtheit: Adobe hat ein System eingeführt, das es Schöpfern erlaubt, ihren Videos und Fotos eine digitale Signatur anzuhängen. Diese Signatur enthält detaillierte Informationen über die Erstellung des Mediums und bietet eine transparente Methode zur Verifizierung der Authentizität.
  • Microsofts Erkennungswerkzeug: Microsoft hat ein KI-gestütztes Tool entwickelt, das Videos und Fotos analysiert, um ihre Authentizität zu beurteilen. Es liefert einen Vertrauensscore, der die Wahrscheinlichkeit einer Manipulation angibt und Benutzern hilft, die Zuverlässigkeit der Medien, die sie antreffen, zu bewerten.
  • Operation Minerva: Diese Initiative konzentriert sich auf die Katalogisierung bekannter Deepfakes und deren digitale Fingerabdrücke. Durch den Vergleich neuer Videos mit diesem Katalog ist es möglich, Änderungen von zuvor entdeckten Fälschungen zu erkennen und den Erkennungsprozess zu verbessern.
  • Sensitys Erkennungsplattform: Sensity bietet eine Plattform, die tiefe Lernalgorithmen einsetzt, um Deepfake-Medien zu erkennen, ähnlich wie Antivirus-Tools Viren und Malware identifizieren. Es benachrichtigt Benutzer per E-Mail, wenn sie auf Deepfake-Inhalte stoßen, und bietet so eine zusätzliche Schutzebene.

Wie können Sie sich schützen? Praktische Schritte

Praktische Schritte gegen Deepfakes

  • Informiert bleiben: Das Bewusstsein über die Existenz und Natur von Deepfakes ist der erste Schritt zur Verteidigung. Indem man die Technologie und ihren potenziellen Missbrauch versteht, kann man digitale Inhalte kritischer betrachten.
  • Quellen verifizieren: Überprüfen Sie immer die Quelle der Informationen. Suchen Sie nach bestätigenden Beweisen von seriösen Quellen, bevor Sie Medien als wahr akzeptieren.
  • Vertrauenswürdige Erkennungswerkzeuge verwenden: Nutzen Sie Deepfake-Erkennungswerkzeuge, wo diese verfügbar sind. Viele Unternehmen und Plattformen bieten Tools oder Plugins an, die darauf ausgelegt sind, manipulierte Inhalte zu identifizieren.
  • Verdächtigen Inhalt melden: Wenn Sie auf etwas stoßen, das wie ein Deepfake aussieht, melden Sie es der Plattform, die den Inhalt hostet. Nutzerberichte spielen eine entscheidende Rolle dabei, Plattformen zu helfen, täuschende Medien zu identifizieren und Maßnahmen dagegen zu ergreifen.

Der Schutz vor Deepfakes erfordert einen vielschichtigen Ansatz, der technologische Innovation, Durchsetzung von Richtlinien und informierte Wachsamkeit kombiniert. Durch das Informieren und Nutzen verfügbarer Tools und Strategien können Einzelpersonen und Organisationen sich besser vor den schädlichen Effekten der Deepfake-Technologie schützen.

Wofür werden Deepfakes verwendet?

Deepfakes werden oft im Kontext ihres potenziellen Schadens diskutiert, haben jedoch eine Reihe von Anwendungen in verschiedenen Bereichen. Das Verständnis dieser Nutzung hilft, die Komplexität und doppelte Natur der Deepfake-Technologie zu schätzen. Hier sind einige wichtige Anwendungen:

  • Unterhaltung und Medien: Deepfake-Technologie wird zunehmend in Filmen und Videospielen verwendet, um visuelle Effekte zu verbessern, wie das Altern oder Verjüngen von Schauspielern oder das Zurückbringen verstorbener Darsteller für Cameo-Auftritte. Diese Anwendung kann auch auf die Schaffung realistischer virtueller Avatare für Online-Interaktionen ausgeweitet werden.
  • Bildung und Training: In Bildungskontexten können Deepfakes immersive Lernerfahrungen schaffen, wie historische Nachstellungen oder Simulationen. Sie können beispielsweise historische Figuren zum Leben erwecken, um Schülern eine dynamische Möglichkeit zu bieten, sich mit Geschichte auseinanderzusetzen.
  • Kunst und Kreativität: Künstler und Kreative erkunden Deepfakes als neues Ausdrucksmedium. Dazu gehört das Generieren neuer Formen digitaler Kunst, Satire oder das Erforschen der Grenzen zwischen Realität und Künstlichkeit.
  • Werbung und Marketing: Marken können Deepfake-Technologie nutzen, um ansprechenderes und personalisierteres Marketingmaterial zu erstellen. Beispielsweise ermöglichen Deepfakes die Nutzung von Markenbotschaftern in verschiedenen Kampagnen, ohne dass deren physische Anwesenheit erforderlich ist, möglicherweise in verschiedenen Sprachen, um ein globales Publikum anzusprechen.
  • Politische und soziale Kampagnen: Obwohl umstritten, wurden Deepfakes genutzt, um Bewusstsein für soziale Themen oder die potenziellen Gefahren von Fehlinformationen zu schaffen. Sorgfältig gestaltete Deepfakes können die Bedeutung von kritischem Denken im digitalen Zeitalter hervorheben.
  • Synthetische Medienerstellung: Deepfakes sind Teil einer breiteren Kategorie synthetischer Medien, die zur Erzeugung realistischer Audio-, Video- oder Bildinhalte für die Erstellung von Inhalten verwendet werden. Dies kann den Produktionsprozess in Nachrichten, Dokumentationen und anderen Medienformen optimieren.

Obwohl Deepfakes in diesen Anwendungen vielversprechendes Potenzial bergen, ist es entscheidend, ihren Einsatz verantwortungsvoll zu steuern, um sicherzustellen, dass ethische Standards eingehalten werden, um Missbrauch zu verhindern und die Rechte und Privatsphäre der Einzelnen zu schützen.

Beispiele für Deepfakes.

Bekannte Beispiele für Deepfakes sind ein Video eines falschen Barack Obama, der sich über Donald Trump lustig macht, ein falscher Mark Zuckerberg, der damit prahlt, die Daten von Milliarden Menschen zu kontrollieren, und ein Roundtable von Deepfake-Prominenten wie Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum und Ewan McGregor.

Was ist Social Engineering?

Was ist Catfishing?

Risiken der KI im Cyberspace Security

Was ist Phishing?

FAQs

Einzelpersonen können wegen der Erstellung eines Deepfakes klagen und dabei Verleumdung, seelische Belastung oder Verletzung des geistigen Eigentums anführen. Eine rechtliche Beratung ist entscheidend, um Rechte und Möglichkeiten zu verstehen.