— vrijdag 24 mei 2024 08:41 | 0 reacties , praat mee

Zorgen bij politici om deepfakes, techbedrijven moeten optreden tegen nepbeelden

Zorgen bij politici om deepfakes, techbedrijven moeten optreden tegen nepbeelden
© Dirk Hol

In de aanloop naar de Europese verkiezingen beloofden techbedrijven maatregelen tegen deepfakes. In de praktijk kunnen nepvideo's van Nederlandse politici echter moeiteloos verspreid worden, blijkt uit onderzoek van radiozender BNR. De mogelijkheid dat op internet deepfakes van politici verschijnen om valse informatie te verspreiden en te manipuleren, leidt tot zorgen bij bewindslieden. Laatste wijziging: 24 mei 2024, 12:20

Wybren van Haga, oprichter van Belang van Nederland (BVN) en lijsttrekker voor de Europese Parlementsverkiezingen plaatste deze week een tweetal video’s op zijn Instagram met deepfakes van Hugo de Jonge, minister voor Volkshuisvesting en Ruimtelijke Ordening en van Klaus Schwab, oprichter van het World Economic Forum (WEF). Het is volgens BNR de eerste keer dat een Nederlandse politicus AI-gegenereerde beelden inzet om stemmen te winnen.

Techbedrijven doen weinig tegen dit soort manipulatie, blijkt uit onderzoek van BNR. Om dit aan te tonen maakte BNR deepfakes van Geert Wilders, Caroline van der Plas en Rob Jetten. Meta en X accepteerden advertenties met de gefingeerde beelden. Voor duizenden euro’s beloven de platforms ze op de dag van de verkiezingen aan miljoenen gebruikers te tonen. Alleen TikTok weigerde de video’s te publiceren, omdat het ‘verdacht gedrag’ had gesignaleerd. De conclusie van BNR is dat techbedrijven dit soort manipulatie geen strobreed in de weg leggen.

De Nederlandse startup DuckDuckGoose vreest dat dit slechts een voorproefje is van wat Europa te wachten staat. “Deepfakes worden beter, en de software wordt steeds meer beschikbaar. Mensen realiseren zich meer en meer hoe makkelijk het is.” Volgens mede-oprichter Mark Even zal het gebruik ervan zal snel toenemen.

Meta en X hebben bij BNR niet gereageerd op vragen. Meta gaf recent wel aan aan minder vaak gemanipuleerde beelden of geluidsfragmenten te verwijderen dan voorheen, maar dat alle met kunstmatige intelligentie (AI) gemaakte beelden of audio speciale labels zouden krijgen.

Ook de Europese Commissie concludeerde eind april dat Meta tekortschiet in het beschermen van het democratisch proces. De commissie stelde daarom een onderzoek in naar het techbedrijf. De resultaten, én eventuele sancties, komen echter vermoedelijk pas na de Europese verkiezingen.

Zorgen bij politici
De mogelijkheid dat op internet deepfakes van politici verschijnen om valse informatie te verspreiden en te manipuleren, leidt tot zorgen bij bewindslieden. De demissionaire ministers Dilan Yeşilgöz (Justitie) en Hugo de Jonge (Binnenlandse Zaken) wijzen niet alleen op regelgeving hiertegen maar vinden ook dat sociale mediabedrijven hun verantwoordelijkheid moeten nemen. Zij zouden verdachte beelden niet moeten plaatsen en als er onechte beelden circuleren, die snel weghalen, zegt Yeşilgöz. De Jonge denkt dat producenten van desinformatie harder moeten worden aangepakt.

De ministers vinden het kwalijk dat mensen bewust op het verkeerde been kunnen worden gezet bij de komende verkiezingen. Volgens Yeşilgöz worden de makers van deepfakes “steeds slimmer en handiger”. Voor kunst en film is dat prima, maar het is volgens haar belangrijk om alert te zijn op mogendheden zoals Rusland “die ons proberen te beïnvloeden”. Volgens Yeşilgöz zijn de veiligheidsdiensten hier scherp op, maar kunnen ze hierover niet altijd iets naar buiten brengen.

De Jonge wijst erop dat er al dingen in gang zijn gezet om misleiding tegen te gaan, maar dat er nog meer kan. Mensen die desinformatie vermoeden, kunnen dat al melden bij de website isdatechtzo.nl. Ook zijn departement kan actie ondernemen richting de techbedrijven om bewuste misleiding van sociale media af te laten halen. Daarnaast houdt ook de Europese Commissie in de gaten of de techbedrijven wel doen wat van hen mag worden verwacht, zegt hij.

Nele Gautier schreef recent in het AI-Mediajournaal ook dat met het snel realistischer worden van gemanipuleerd beeld en geluid, de behoefte aan goede deepfake detectoren groeit. Alleen erg betrouwbaar blijken die helaas nog niet.

NVJ LID 26-05

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee