Zelfs videobeelden zijn niet te vertrouwen

“We are entering an era in which our enemies can make it look like anyone is saying anything at any point in time.” Een tikkeltje stoïcijns waarschuwde de voormalige Amerikaanse president Barack Obama in april van dit jaar in een online video voor deepfakes. Dat zijn hyper overtuigende video's waarin een persoon via trucage woorden in de mond gelegd worden. Een lollige plotwending: de video van Obama – een product van BuzzFeed – was zélf een deepfake.
Dankzij ontwikkelingen op het vlak van kunstmatige intelligentie wordt het maken van deepfakes makkelijker en wordt het resultaat overtuigender. Gebruikers van het online forum Reddit lieten daar begin dit jaar een bijzondere toepassing van zien. Met behulp van een app – FakeApp – wisten wizzkids de hoofden van beroemdheden in pornofilms te laden. Het gevolg: Reddit en de krochten van het internet stroomden vol met video’s waarin actrices als Wonder Woman-actrice Gal Gadot ‘seks hadden’ voor de camera.
Hoewel deepfake-video’s van wizzkids nu nog vrij snel door te prikken zijn, zijn ze in de toekomst mogelijk niet meer van echt te onderscheiden. Tijd dus om manieren te zoeken om die fopvideo’s te herkennen. De afdeling Media Forensics van het Amerikaanse Defense Advances Research Projects Agency (DARPA) vroeg daarom wetenschappers van de Universiteit van Albany om een oplossing. De knappe koppen bestudeerden talloze deepfakes en merkten op dat hoofdrolspelers in dergelijke nepfilms nauwelijks met hun ogen knipperen. En als ze dat al doen, dan ziet het er niet natuurlijk uit.
Volgens de onderzoekers is voor een overtuigende deepfake een dataset nodig met honderden of duizenden foto’s van het gezicht van een persoon. En knipperen doen mensen nou eenmaal niet vaak op stilstaand beeld. De wetenschappers plaatsten wel meteen een kanttekening: door foto’s toe te voegen waarop iemand wél met zijn ogen knippert, kan een deepfake alsnog ongemerkt door een detectietool glippen.
Een andere deepfake die niet aan de ‘knipperregel’ voldoet, is die van wetenschappers van de Stanford Universiteit, de universiteit van Erlangen-Nuremberg en het Max Planck Instituut. De knappe koppen bouwden software – Face2Face – die realtime gezichtsbewegingen (inclusief knipperen) van acteurs naar de gezichten van de Amerikaanse president Donald Trump en andere wereldleiders kon kopiëren.
Dergelijke technologie biedt voor filmmakers mogelijkheden om overleden acteurs weer tot leven te wekken, zoals gebeurde in Star Wars: Rogue One. Maar afgezien daarvan maken de angstvallig echt ogende video’s ook het verspreiden van nepnieuws een nog groter probleem maken dan het al is. Om te spreken met de woorden van ‘Barack Obama’ in de BuzzFeed-video: “Moving forward, we need to be more vigilant in what we trust from the internet”.
Praat mee