mgm nvj maart

— woensdag 27 maart 2019, 14:20 | 0 reacties, praat mee

De strijd tegen nepvideo’s

De strijd tegen nepvideo’s
Foto: Truus van Gog

Het gemak waarmee gebruikers van het internetforum Reddit vorig jaar lieten zien hoe ze gezichten van Hollywood-actrices in pornofilms konden monteren, zorgde enigszins voor schokgolven op het web. Want de kans op ander misbruik van dezelfde techniek – waarbij je bijvoorbeeld politici of staatshoofden woorden in de mond legt – is niet eens zo ver gezocht. En waar de nepvideo’s nu nog vaak te herkennen zijn, zijn ze in de toekomst niet van echt meer te onderscheiden.

Allemaal de schuld van kunstmatige intelligentie en neurale netwerken. Want dat zijn de technieken achter deze zogenoemde ‘deepfake-video’s’. Softwaremodellen (ze worden GANs genoemd: generative adversarial models) bestuderen foto’s en video’s van gezichten en gebruiken dat wat ze leren om nieuwe beelden in elkaar te sleutelen. De website ThisPersonDoesNotExist.com laat heel goed zien hoe ver die techniek al is. De site schotelt bezoekers foto’s van mensen voor die helemaal niet bestaan. Maar dankzij GANs zien de neppersonen er levensecht uit.

Niet alleen internetters in spreekwoordelijke zolderkamers hebben zich de afgelopen jaren op deepfake-techniek gestort. Ook universiteiten doen er uitgebreid onderzoek naar. Zo bouwde de Universiteit van Amsterdam (UvA) software waarmee internetters het gezicht van de Amerikaanse president Donald Trump kunnen besturen. Het enige dat ze daarvoor moeten doen is een video van zichzelf uploaden. Dat het resultaat verbluffend is, kun je met eigen ogen zien in deze video die ik met de tool maakte voor een artikel in het tijdschrift KIJK.

Als het zó makkelijk is om Donald Trump woorden in de mond te leggen, is het einde dan niet zoek? En zijn die GANs niet veel te gevaarlijk aan het worden? Ja, denken wetenschappers. Maar de enige échte manier om door kwaadwillenden geshopte video’s te herkennen is door juist in te zetten op diezelfde GANs. Want wanneer je een programma kunt leren overtuigende deepfakes te maken, kun je hem ook leren diezelfde deepfakes te herkennen.

Inmiddels werken onderzoekers van de UvA en spin-offbedrijf 3Duniversum aan een online tool die moet helpen met het herkennen van deepfakes. Wanneer hij klaar is - volgens de huidige planning is dat begin april - laat de tool internetters video’s uploaden waarvan zij vermoeden dat deze nep zijn. De GAN achter de website analyseert de video en velt een oordeel. Ook de State University of New York en de University of Albany bijten zich sinds vorig jaar vast in kunstmatige intelligentie die nepvideo’s moet kunnen ontmaskeren.

Voor ons journalisten zijn zulke tools welkome bondgenoten. Want dat het herkennen van verkeerde beelden in het heetst van de journalistieke strijd weleens misgaat, zien we helaas nog steeds. Tijdens de dodelijke aanslag in Utrecht op maandag 18 maart nog, toen de Turkse televisiezender 24 TV de Duitse YouTuber Drachenlord korte tijd voor de dader aanzag. Terwijl een snelle reverse image-zoektocht in Google uitsluitsel had kunnen bieden. Willen we als journalisten straks niet dezelfde fouten maken met deepfake-video’s, dan kunnen we niet zonder de hulp van kunstmatige intelligentie. Want alleen ons blote oog is in de toekomst niet meer genoeg.

Zo herken je deepfake-video’s
1. De meeste (maar niet alle) deepfake-software kan ogen in nepvideo’s nog niet laten knipperen. Kijk dus goed naar de ogen in verdachte video’s.
2. Het binnenste van de mond is voor veel deepfake-software ook nog lastig overtuigend na te maken. Let goed op wazige plekjes in de mond.
3. Het genereren van getructe video kost vooralsnog veel tijd en rekenkracht. Daarom duren deepfake-video’s vaak maar een paar seconden.
4. Houd je oren gespitst. Stemmen namaken is mogelijk, maar veel makers van deepfake-video’s nemen die moeite niet. Geluid en beeld lopen ook vaak niet 100 procent gelijk.
5. Bekijk video’s die je niet vertrouwt eens in slowmotion. Vertraagde beelden geven vaak details prijs die je normaal niet ziet.
6. Gebruik de tool die de Universiteit van Amsterdam en 3Duniversum in april lanceren. Zodra de tool beschikbaar is verschijnt daarover meer informatie op de website van 3Duniversum.

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee

Colofon

Villamedia is een uitgave van Villamedia Uitgeverij BV

Uitgever

Dolf Rogmans

Postadres

Villamedia Uitgeverij BV
Postbus 75997
1070 AZ Amsterdam

Bezoekadres

Johannes Vermeerstraat 22
1071 DR Amsterdam

Factuurgegevens

Villamedia Uitgeverij BV
Johannes Vermeerstraat 22
1071 DR Amsterdam

Contact

redactie@villamedia.nl

Redactie (tips?)

Chris Helt, hoofdredacteur

Marjolein Slats, adjunct-hoofdredacteur

Linda Nab, redacteur

Lars Pasveer, redacteur

Trudy Brandenburg-Van de Ven, redacteur

Rutger de Quay, redacteur

Nick Kivits, redacteur

Sales

Sofia van Wijk

Emiel Smit

Teddy van der Laan

Webbeheer

Marc Willemsen

Vacatures & advertenties

vacatures@villamedia.nl

Bereik

Villamedia trekt maandelijks gemiddeld 120.000 unieke bezoekers. De bezoekers genereren momenteel zo’n 800.000 pageviews.

Rechten

Villamedia heeft zich ingespannen om alle rechthebbenden van beelden en teksten te achterhalen. Meen je rechten te kunnen doen gelden, dan kun je je bij ons melden.