word studentlid

— woensdag 29 augustus 2018, 16:16 | 0 reacties, praat mee

Zelfs videobeelden zijn niet te vertrouwen

Zelfs videobeelden zijn niet te vertrouwen
Foto: Truus van Gog

“We are entering an era in which our enemies can make it look like anyone is saying anything at any point in time.” Een tikkeltje stoïcijns waarschuwde de voormalige Amerikaanse president Barack Obama in april van dit jaar in een online video voor deepfakes. Dat zijn hyper overtuigende video's waarin een persoon via trucage woorden in de mond gelegd worden. Een lollige plotwending: de video van Obama – een product van BuzzFeed – was zélf een deepfake.

Dankzij ontwikkelingen op het vlak van kunstmatige intelligentie wordt het maken van deepfakes makkelijker en wordt het resultaat overtuigender. Gebruikers van het online forum Reddit lieten daar begin dit jaar een bijzondere toepassing van zien. Met behulp van een app – FakeApp – wisten wizzkids de hoofden van beroemdheden in pornofilms te laden. Het gevolg: Reddit en de krochten van het internet stroomden vol met video’s waarin actrices als Wonder Woman-actrice Gal Gadot ‘seks hadden’ voor de camera.

Hoewel deepfake-video’s van wizzkids nu nog vrij snel door te prikken zijn, zijn ze in de toekomst mogelijk niet meer van echt te onderscheiden. Tijd dus om manieren te zoeken om die fopvideo’s te herkennen. De afdeling Media Forensics van het Amerikaanse Defense Advances Research Projects Agency (DARPA) vroeg daarom wetenschappers van de Universiteit van Albany om een oplossing. De knappe koppen bestudeerden talloze deepfakes en merkten op dat hoofdrolspelers in dergelijke nepfilms nauwelijks met hun ogen knipperen. En als ze dat al doen, dan ziet het er niet natuurlijk uit.

Volgens de onderzoekers is voor een overtuigende deepfake een dataset nodig met honderden of duizenden foto’s van het gezicht van een persoon. En knipperen doen mensen nou eenmaal niet vaak op stilstaand beeld. De wetenschappers plaatsten wel meteen een kanttekening: door foto’s toe te voegen waarop iemand wél met zijn ogen knippert, kan een deepfake alsnog ongemerkt door een detectietool glippen.

Een andere deepfake die niet aan de ‘knipperregel’ voldoet, is die van wetenschappers van de Stanford Universiteit, de universiteit van Erlangen-Nuremberg en het Max Planck Instituut.  De knappe koppen bouwden software – Face2Face – die realtime gezichtsbewegingen (inclusief knipperen) van acteurs naar de gezichten van de Amerikaanse president Donald Trump en andere wereldleiders kon kopiëren.

Dergelijke technologie biedt voor filmmakers mogelijkheden om overleden acteurs weer tot leven te wekken, zoals gebeurde in Star Wars: Rogue One. Maar afgezien daarvan maken de angstvallig echt ogende video’s ook het verspreiden van nepnieuws een nog groter probleem maken dan het al is. Om te spreken met de woorden van ‘Barack Obama’ in de BuzzFeed-video: “Moving forward, we need to be more vigilant in what we trust from the internet”.

Bekijk meer van

De tech-trend

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee

Colofon

Villamedia is een uitgave van Villamedia Uitgeverij BV

Uitgever

Dolf Rogmans

Postadres

Villamedia Uitgeverij BV
Postbus 75997
1070 AZ Amsterdam

Bezoekadres

Johannes Vermeerstraat 22
1071 DR Amsterdam

Factuurgegevens

Villamedia Uitgeverij BV
Johannes Vermeerstraat 22
1071 DR Amsterdam

Contact

redactie@villamedia.nl

Redactie (tips?)

Chris Helt, hoofdredacteur

Marjolein Slats, adjunct-hoofdredacteur

Linda Nab, redacteur

Lars Pasveer, redacteur

Trudy Brandenburg-Van de Ven, redacteur

Rutger de Quay, redacteur

Sales

Sofia van Wijk

Emiel Smit

Teddy van der Laan

Webbeheer

Marc Willemsen

Vacatures & advertenties

vacatures@villamedia.nl

Bereik

Villamedia trekt maandelijks gemiddeld 120.000 unieke bezoekers. De bezoekers genereren momenteel zo’n 800.000 pageviews.

Rechten

Villamedia heeft zich ingespannen om alle rechthebbenden van beelden en teksten te achterhalen. Meen je rechten te kunnen doen gelden, dan kun je je bij ons melden.