Al tientallen jaren proberen filmmakers de menselijke biologie te veranderen of te verbeteren met make-up, protheses en body doubles om hun scènes authentieker te laten aanvoelen. Maar tot moderne visuele-effectentechnologie (VFX) waren de resultaten wisselend. Van films als The Irishman en Captain Marvel tot Avengers: Endgame, VFX stelt artiesten in staat fysieke onmogelijkheden te overwinnen. Soms stelt Hollywood VFX filmmakers in staat de gezichten van acteurs te combineren met de lichamen van andere performers voor rollen waar ze nog niet klaar voor zijn of die ze niet kunnen uitvoeren.
Maar zoals je je kunt voorstellen, is moderne Hollywood VFX-technologie duur, delicaat en gedetailleerd werk. Niet iedereen heeft natuurlijk een budget van een paar honderd miljoen USD om een VFX-studio in te huren. Hier komt deepfake-technologie om de hoek kijken.
Wat is een deepfake? Een definitie
Een "deepfake" verwijst naar nagemaakte media van iemands verschijning en/of stem door een type kunstmatige intelligentie genaamd deep learning (vandaar de naam, deepfake). Een Reddit-gebruiker die deepfakes deelde op de site bedacht de term in 2017.
Deepfakes zijn doorgaans valse beelden, video's of geluidsopnamen. Je hebt waarschijnlijk populaire video's gezien van beroemdheden of politici die iets zeggen wat ze in werkelijkheid waarschijnlijk nooit zouden zeggen. Dit zijn veelvoorkomende voorbeelden van deepfakes. Het opkomen van deepfake video’s roept zorgen op over een mogelijke ‘leugenaarsdividend,’ waarbij misinformatie zich verspreidt, vertrouwen ondermijnt en de werkelijkheid vervormt.
Hoe werken deepfakes?
Deepfake-technologie maakt gebruik van geavanceerde kunstmatige intelligentie door middel van generatieve tegenstrijdige netwerken (GAN's), bestaande uit twee essentiële algoritmen: de generator en de discriminator. De generator begint het proces door de eerste nepinhoud te creëren op basis van een gewenst resultaat, gebruikmakend van een trainingsdataset. Ondertussen beoordeelt de discriminator de authenticiteit van deze inhoud, waarbij gebieden voor verbetering worden aangewezen. Deze iteratieve proces maakt het mogelijk voor de generator om zijn vermogen te vergroten om steeds realistischer inhoud te produceren, terwijl de discriminator beter wordt in het identificeren van discrepanties voor correctie.
GANs spelen een cruciale rol in de creatie van deepfakes door patronen in echte beelden te analyseren en deze patronen te repliceren in gefabriceerde inhoud. Voor foto's onderzoeken GAN-systemen meerdere hoeken van de afbeeldingen van het doelwit om uitgebreide details vast te leggen. Voor video's analyseren ze niet alleen hoeken maar ook gedrag, beweging en spraakpatronen. Deze veelzijdige analyse ondergaat talloze iteraties door de discriminator om de realiteit van het eindproduct te verfijnen.
Deepfake-video's ontstaan via twee primaire methoden: het manipuleren van een originele video om te veranderen wat het doelwit zegt of doet (bronvideo deepfakes) of het verwisselen van het gezicht van het doelwit met dat van een ander persoon (gezichtsvervangingen). Bronvideo deepfakes omvatten een op neurale netwerken gebaseerde auto-encoder die de video doorsnijdt om de gezichtsuitdrukkingen en lichaamstaal van het doelwit te begrijpen en vervolgens over de originele beelden te leggen. Voor audio wordt een vergelijkbaar proces gebruikt om iemands stem te klonen, zodat deze elke gewenste toespraak kan nabootsen.
Belangrijke technieken bij het maken van deepfakes zijn:
- Deepfakes van bronvideo's: Maak gebruik van een autoencoder met een encoder om kenmerken te analyseren en een decoder om deze kenmerken op de doelvideo toe te passen.
- Audio deepfakes: Gebruikt GANs om stempatronen na te bootsen, waarmee realistische stemreproducties mogelijk worden.
- Lip syncing: Stemopnamen matchen met video om de illusie te versterken dat de persoon de opgenomen woorden daadwerkelijk uitspreekt, extra ondersteund door terugkerende neurale netwerken voor meer realisme.
De creatie van deepfakes wordt mogelijk gemaakt door geavanceerde technologieën zoals convolutionele neurale netwerken (CNN's) voor gezichtsherkenning, autoencoders voor kenmerkoverdracht, natuurlijke taalverwerking (NLP) voor het genereren van synthetisch geluid en de rekenkracht die wordt geboden door hoogpresterende computersystemen. Tools zoals Deep Art Effects, Deepswap en FaceApp illustreren de toegankelijkheid van deepfake-generatie, en wijzen op een toekomst waarin overtuigende deepfakes binnen handbereik liggen voor velen.
Zijn deepfakes legaal?
In essentie zijn deepfakes niet per definitie illegaal; de legaliteit hangt grotendeels af van de inhoud en bedoeling ervan. Deze innovatieve technologie kan onwettig worden als het inbreuk maakt op bestaande wetten inzake kinderporno, laster, haatspraak of andere criminele activiteiten.
Tot nu toe zijn er maar weinig wetten die specifiek gericht zijn op deepfakes en deze verschillen aanzienlijk van land tot land. Echter, de verspreiding van deepfake-technologie roept zorgen op over de verspreiding van valse claims en hun impact op publiek vertrouwen en discussie. In de Verenigde Staten zijn al opmerkelijke uitzonderingen, waar sommige staten maatregelen hebben genomen om de schadelijke effecten van deepfake-technologie in te dammen:
- Texas: Deze staat heeft wetgeving aangenomen die de creatie en verspreiding van deepfakes verbiedt met de bedoeling om verkiezingen te beïnvloeden. Deze maatregel is bedoeld om de integriteit van het verkiezingsproces te beschermen door het verspreiden van misleidende of valse informatie over kandidaten via hyperrealistische nepvideo's of audioregistraties te voorkomen. Daarnaast heeft Texas een wet aangenomen die specifiek gericht is op seksueel expliciete deepfakes die zonder toestemming van de betrokken persoon worden verspreid, met als doel individuen te beschermen tegen leed of schaamte veroorzaakt door dergelijke inhoud. Beide overtredingen worden behandeld als een misdrijf van klasse A, met mogelijke straffen tot één jaar in gevangenis en boetes tot $4000.
- Virginia: Erkennend de persoonlijke en maatschappelijke schade veroorzaakt door deepfake pornografie, heeft Virginia specifiek het verspreiden van zulke inhoud verboden. Deze wet richt zich op deepfakes die individuen seksueel uitbuiten zonder hun toestemming, en biedt slachtoffers een juridische weg om gerechtigheid te zoeken. De verspreiding van wraakporno, inclusief deepfake-pornografie, wordt geclassificeerd als een Klasse 1 misdrijf, strafbaar met maximaal 12 maanden gevangenisstraf en een boete van maximaal $2.500.
- Californië: Met een focus op zowel de politieke als persoonlijke gevolgen van deepfakes, heeft Californië wetten aangenomen tegen het gebruik van deepfakes die kiezers willen misleiden binnen 60 dagen voor een verkiezing. Daarnaast is het illegaal geworden om niet-consensuele deepfake pornografie te maken en verspreiden, wat een groeiende zorg weerspiegelt over het gebruik van deze technologie om de privacy en waardigheid van individuen te schaden.
De lappendeken van regelgeving benadrukt een bredere uitdaging: veel mensen blijven onbewust van deepfake-technologie, de mogelijke toepassingen en de risico's die het met zich meebrengt. Deze kloof in bewustzijn draagt bij aan een juridische omgeving waarin slachtoffers van deepfakes, buiten specifieke scenario's die door staatswetten worden gedekt, vaak zonder duidelijke juridische mogelijkheden komen te staan. De evoluerende aard van deepfake-technologie en de implicaties ervan vereisen een beter geïnformeerde publieke opinie, evenals een uitgebreide juridische kaders om individuen te beschermen tegen mogelijk misbruik.
Hoe zijn deepfakes gevaarlijk?
Deepfake technologie is weliswaar innovatief, maar brengt ook aanzienlijke risico's met zich mee. Het gaat niet alleen om het maken van valse afbeeldingen of video's; de implicaties strekken zich uit tot ernstige zaken als:
- Persoonlijke veiligheid, waarbij individuen worden geconfronteerd met dreigingen zoals chantage.
- De integriteit van democratische processen, door het fabriceren van misleidende politieke inhoud.
- Financiële markten, vatbaar voor manipulatie door vervalste rapporten.
- Identiteitsdiefstal waarbij persoonlijke gegevens risico lopen misbruikt te worden.
Het veranderende landschap vereist een robuuste reactie, bestaande uit waakzaamheid, technologische oplossingen en juridische kaders om deze opkomende dreigingen tegen te gaan.
Hoe kun je deepfakes detecteren?
Om deepfake inhoud te detecteren, moet je letten op specifieke visuele en tekstuele indicatoren. Hier zijn een paar belangrijke signalen om op te letten:
Visuele indicatoren:
- Ongewone gezichtsuitdrukkingen of ongemakkelijke houdingen.
- Onnatuurlijke bewegingen van het gezicht of lichaam.
- Inconsistente kleurenschema's in de video.
- Vreemde verschijningen bij inzoomen of vergroten.
- Niet-overeenkomend of inconsistent geluid.
- Gebrek aan natuurlijk knipperen bij mensen.
Textuele indicatoren:
- Spelfouten en grammaticaal incorrecte zinnen.
- Zinsstructuur die onnatuurlijk lijkt.
- E-mailadressen die verdacht overkomen.
- Formuleringen die niet overeenkomen met de verwachte stijl van de afzender.
- Berichten die buiten context of irrelevant zijn.
Houd daarnaast rekening met gedrags- en contextuele anomalieën:
- Tegenstrijdigheden in gedrag: Let op het gedrag en de maniertjes van de proefpersoon. Deepfakes kan subtiele persoonlijkheidskenmerken, gewoontebewegingen of emotionele reacties niet nauwkeurig nabootsen, waardoor de proefpersoon een beetje vreemd overkomt.
- Contextuele anomalieën: Analyseer de context waarin de video of audio verschijnt. Afwijkingen in de achtergrond, onverwachte interacties met de omgeving, of anomalieën in de verhaallijn kunnen wijzen op manipulatie.
AI-ontwikkelingen verbeteren de detectie van deze tekenen, maar op de hoogte blijven van deze indicatoren is essentieel voor het identificeren van deepfakes.
Hoe kun je je verdedigen tegen deepfakes?
Een belangrijke strategie in de verdediging tegen deepfakes is het gebruik van geavanceerde technologie om deze vervalste media te identificeren en te blokkeren.
Overheidsinstanties zoals de US Department of Defense's Defense Advanced Research Projects Agency (DARPA) staan voorop in de ontwikkeling van geavanceerde oplossingen om echt van gemanipuleerd materiaal te onderscheiden. Evenzo gebruiken socialemedia-giganten en technologiebedrijven innovatieve methoden om de authenticiteit van de media die op hun platforms worden gedeeld te waarborgen.
Zo maken sommige platforms gebruik van blockchain-technologie om de oorsprong van video's en afbeeldingen te verifiëren, betrouwbare bronnen te vestigen en effectief de verspreiding van nepinhoud te voorkomen.
Invoering van sociale mediabeleid
Sociale mediaplatforms zoals Facebook en Twitter zijn zich bewust van de potentiële schade die wordt veroorzaakt door kwaadaardige deepfakes en hebben een krachtig standpunt ingenomen door deze te verbieden. Dit beleid maakt deel uit van een bredere inspanning om gebruikers te beschermen tegen de negatieve gevolgen van misleidende media en onderstreept de rol van platformgovernance bij het handhaven van digitale betrouwbaarheid.
Gebruik van deepfake detectiesoftware
De strijd tegen deepfakes wordt ook ondersteund door innovatie in de privésector. Een aantal bedrijven biedt geavanceerde software voor deepfake detectie, die essentiële hulpmiddelen biedt voor het identificeren van gemanipuleerde media:
- Adobe’s content-authenticiteitsinitiatief: Adobe heeft een systeem geïntroduceerd waarmee makers een digitale handtekening aan hun video's en foto's kunnen toevoegen. Deze handtekening bevat gedetailleerde informatie over de totstandkoming van de media, wat een transparante methode biedt voor het verifiëren van de authenticiteit.
- Microsoft’s detectietool: Microsoft heeft een AI-aangedreven tool ontwikkeld die video's en foto's analyseert om de authenticiteit te beoordelen. Het biedt een vertrouwensscore die de waarschijnlijkheid van manipulatie aangeeft, zodat gebruikers de betrouwbaarheid van de media kunnen inschatten.
- Operatie Minerva: Dit initiatief richt zich op het catalogiseren van bekende deepfakes en hun digitale vingerafdrukken. Door nieuwe video's met deze catalogus te vergelijken, kunnen wijzigingen van eerder ontdekte vervalsingen worden geïdentificeerd, waardoor het opsporingsproces wordt verbeterd.
- Het detectieplatform van Sensity: Sensity biedt een platform dat deep learning gebruikt om deepfake media te detecteren, analoog aan de manier waarop anti-malwaretools virussen en malware identificeren. Het waarschuwt gebruikers via e-mail als ze deepfake content tegenkomen en voegt zo een extra beschermingslaag toe.
Hoe kun je jezelf beschermen? Praktische stappen
Naast deze technologische oplossingen kunnen individuen praktische stappen ondernemen om zich te verdedigen tegen deepfakes:
- Blijf op de hoogte: Bewustwording van het bestaan en de aard van deepfakes is de eerste stap in de verdediging. Door de technologie en het potentiële misbruik ervan te begrijpen, kunnen mensen digitale inhoud kritischer benaderen.
- Controleer bronnen: Verifieer altijd de bron van de informatie. Zoek naar ondersteunend bewijs van gerenommeerde bronnen voordat je media als waar accepteert.
- Gebruik vertrouwde detectietools: Gebruik waar beschikbaar deepfake detectietools. Veel bedrijven en platforms bieden tools of plugins die zijn ontworpen om gemanipuleerde inhoud te identificeren.
- Verdachte inhoud melden: Als u iets tegenkomt wat lijkt op deepfake, meld dit dan aan het platform dat de inhoud host. Meldingen van gebruikers spelen een cruciale rol in het helpen van platforms bij het identificeren van en actie ondernemen tegen misleidende media.
Verdediging tegen deepfakes vereist een veelzijdige aanpak die technologische innovatie, handhaving van beleid en geïnformeerde waakzaamheid combineert. Door op de hoogte te blijven en gebruik te maken van beschikbare hulpmiddelen en strategieën kunnen individuen en organisaties zich beter beschermen tegen de schadelijke effecten van deepfake technologie.
Waarvoor worden deepfakes gebruikt?
Deepfakesworden vaak besproken in de context van hun potentiële schade, maar hebben ook een reeks toepassingen op verschillende gebieden. Inzicht in deze toepassingen helpt om de complexiteit en duale aard van deepfake technologie te begrijpen. Hier volgen enkele belangrijke toepassingen:
- Entertainment en media: Deepfake technologie wordt steeds vaker gebruikt in films en videogames om visuele effecten te verbeteren, zoals het verouderen of ontouderen van acteurs, of om overleden acteurs weer tot leven te wekken voor cameo optredens. Deze toepassing kan zich ook uitstrekken tot het creëren van realistische virtuele avatars voor online interacties.
- Onderwijs en opleiding: In onderwijscontexten kan deepfakes meeslepende leerervaringen creëren, zoals historische reconstructies of simulaties. Ze kunnen bijvoorbeeld historische figuren tot leven brengen en leerlingen op een dynamische manier met geschiedenis laten kennismaken.
- Kunst en creativiteit: Kunstenaars en creatieven verkennen deepfakes als een nieuw medium voor expressie. Dit omvat het genereren van nieuwe vormen van digitale kunst, satire of het verkennen van de grenzen tussen realiteit en kunstmatigheid.
- Reclame en marketing: Merken kunnen deepfake technologie gebruiken om meer aantrekkelijke en gepersonaliseerde marketingcontent te creëren. deepfakes maakt het bijvoorbeeld mogelijk om merkambassadeurs te gebruiken in verschillende campagnes zonder hun fysieke aanwezigheid, mogelijk in verschillende talen om een wereldwijd publiek aan te spreken.
- Politieke en sociale campagnes: Hoewel controversieel, is deepfakes gebruikt om mensen bewust te maken van sociale problemen of de potentiële gevaren van verkeerde informatie. Zorgvuldig ontworpen deepfakes kan het belang van kritisch denken in het digitale tijdperk benadrukken.
- Creatie van synthetische media: Deepfakes maakt deel uit van een bredere categorie van synthetische media, die worden gebruikt voor het genereren van realistische audio, video of beelden voor het maken van inhoud. Dit kan het productieproces van nieuws, documentaires en andere mediavormen stroomlijnen.
Hoewel deepfakes veelbelovende mogelijkheden biedt voor deze toepassingen, is het cruciaal om ze op een verantwoorde manier te gebruiken en ervoor te zorgen dat er ethische normen worden gehanteerd om misbruik te voorkomen en de rechten en privacy van individuen te beschermen.
Voorbeelden van deepfakes
Bekende voorbeelden van deepfakes zijn een video van een valse Barack Obama die de draak steekt met Donald Trump, een valse Mark Zuckerberg die opschept over de controle over de gegevens van miljarden mensen, en een rondetafel met gefingeerde beroemdheden zoals Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum en Ewan McGregor.
Gerelateerde artikelen
Risico's van AI in cybersecurity
Veelgestelde vragen
Individuen kunnen een aanklacht indienen voor deepfake creatie, met een beroep op laster, emotioneel leed of schending van intellectueel eigendom. Juridisch advies is cruciaal om de rechten en opties te begrijpen.