— woensdag 29 augustus 2018, 16:16 | 0 reacties, praat mee

Zelfs videobeelden zijn niet te vertrouwen

Foto: Truus van Gog

“We are entering an era in which our enemies can make it look like anyone is saying anything at any point in time.” Een tikkeltje stoïcijns waarschuwde de voormalige Amerikaanse president Barack Obama in april van dit jaar in een online video voor deepfakes. Dat zijn hyper overtuigende video's waarin een persoon via trucage woorden in de mond gelegd worden. Een lollige plotwending: de video van Obama – een product van BuzzFeed – was zélf een deepfake.

Dankzij ontwikkelingen op het vlak van kunstmatige intelligentie wordt het maken van deepfakes makkelijker en wordt het resultaat overtuigender. Gebruikers van het online forum Reddit lieten daar begin dit jaar een bijzondere toepassing van zien. Met behulp van een app – FakeApp – wisten wizzkids de hoofden van beroemdheden in pornofilms te laden. Het gevolg: Reddit en de krochten van het internet stroomden vol met video’s waarin actrices als Wonder Woman-actrice Gal Gadot ‘seks hadden’ voor de camera.

Hoewel deepfake-video’s van wizzkids nu nog vrij snel door te prikken zijn, zijn ze in de toekomst mogelijk niet meer van echt te onderscheiden. Tijd dus om manieren te zoeken om die fopvideo’s te herkennen. De afdeling Media Forensics van het Amerikaanse Defense Advances Research Projects Agency (DARPA) vroeg daarom wetenschappers van de Universiteit van Albany om een oplossing. De knappe koppen bestudeerden talloze deepfakes en merkten op dat hoofdrolspelers in dergelijke nepfilms nauwelijks met hun ogen knipperen. En als ze dat al doen, dan ziet het er niet natuurlijk uit.

Volgens de onderzoekers is voor een overtuigende deepfake een dataset nodig met honderden of duizenden foto’s van het gezicht van een persoon. En knipperen doen mensen nou eenmaal niet vaak op stilstaand beeld. De wetenschappers plaatsten wel meteen een kanttekening: door foto’s toe te voegen waarop iemand wél met zijn ogen knippert, kan een deepfake alsnog ongemerkt door een detectietool glippen.

Een andere deepfake die niet aan de ‘knipperregel’ voldoet, is die van wetenschappers van de Stanford Universiteit, de universiteit van Erlangen-Nuremberg en het Max Planck Instituut.  De knappe koppen bouwden software – Face2Face – die realtime gezichtsbewegingen (inclusief knipperen) van acteurs naar de gezichten van de Amerikaanse president Donald Trump en andere wereldleiders kon kopiëren.

Dergelijke technologie biedt voor filmmakers mogelijkheden om overleden acteurs weer tot leven te wekken, zoals gebeurde in Star Wars: Rogue One. Maar afgezien daarvan maken de angstvallig echt ogende video’s ook het verspreiden van nepnieuws een nog groter probleem maken dan het al is. Om te spreken met de woorden van ‘Barack Obama’ in de BuzzFeed-video: “Moving forward, we need to be more vigilant in what we trust from the internet”.

cop 2019

Praat mee

Colofon

Villamedia is een uitgave van Villamedia Uitgeverij BV

Postadres

Villamedia Uitgeverij BV
Postbus 75997
1070 AZ Amsterdam

Bezoekadres

Johannes Vermeerstraat 22
1071 DR Amsterdam

Contact

redactie@villamedia.nl
020-30 39 750

Redactie (tips?)

Dolf Rogmans
Hoofdredacteur, 020-30 39 751

Marjolein Slats
Adjunct-hoofdredacteur, 020-30 39 752

Linda Nab
Redacteur, 020-30 39 758

Lars Pasveer
Redacteur, 020-30 39 755

Trudy Brandenburg-Van de Ven
Redacteur, 020-30 39 757

Anneke de Bruin
Vormgever, 020-30 39 753

Marc Willemsen
Webontwikkelaar, 020-30 39 754

Vacatures & advertenties

Karen Bais
020-30 39 756

Sofia van Wijk
020-30 39 711

Bereik

Villamedia trekt maandelijks gemiddeld 120.000 unieke bezoekers. De bezoekers genereren momenteel zo’n 800.000 pageviews.

Rechten

Villamedia heeft zich ingespannen om alle rechthebbenden van beelden en teksten te achterhalen. Meen je rechten te kunnen doen gelden, dan kun je je bij ons melden.