— dinsdag 19 december 2023 11:09 | 0 reacties , praat mee

OpenAI wil bestuurders meer macht geven voor het ontwikkelen van een veiligere AI-ontwikkeling

OpenAI wil bestuurders meer macht geven voor het ontwikkelen van een veiligere AI-ontwikkeling
© IMAGO/Frank Hoermann / SVEN SIMON

OpenAI heeft zijn bestuurders meer macht gegeven om de ontwikkeling van kunstmatige intelligentie (AI) binnen de start-up veiliger te maken. Het bestuur van het bedrijf achter ChatGPT kan de lancering van een nieuw AI-model nu tegenhouden, ook als de top van de ontwikkelaar van kunstmatige intelligentie het model veilig vindt. Laatste wijziging: 19 december 2023, 11:29

De Amerikaanse start-up heeft een set nieuwe richtlijnen gepubliceerd waarin staat hoe OpenAI omgaat met extreme risico’s van zijn krachtigste AI-systemen.

Een team dat twee maanden geleden is opgericht, gaat van de meest geavanceerde, nog niet gelanceerde AI-modellen van OpenAI beoordelen hoe hoog de risico’s zijn, zegt teamleider Aleksander Madry. Ook past dit team modellen aan om mogelijke gevaren te verminderen. Alleen de modellen met een “laag” of een “gemiddeld” risico worden volgens de richtlijnen uitgebracht.

Onlangs hadden het bestuur van OpenAI en topman Sam Altman nog ruzie over zorgen rond de veiligheid van AI. Vorige maand werd hij ontslagen omdat het bestuur geen vertrouwen meer in hem had als leider van het bedrijf. Nog geen week later keerde hij weer terug als topman en kondigde OpenAI een nieuw bestuur aan.

Lees Ook: Je eigen journalistieke AI-sidekick: vier experimenten met GPT Builder (van ChatGPT)

Deltaplan
Volgens de Autoriteit Persoonsgegevens moet er een deltaplan komen voor AI, zodat de overheid, bedrijven en burgers die verantwoord kunnen gebruiken. Volgens de privacywaakhond nemen de risico’s van AI en algoritmes toe en is het van groot belang om daar meer grip op te hebben.

“Hoe meer AI en algoritmes worden ingezet in de samenleving, hoe meer incidenten plaatsvinden”, zegt voorzitter Aleid Wolfsen van de Autoriteit Persoonsgegevens. Als voorbeeld noemt hij foute adviezen van chatbots, gezichtsherkenningssystemen die minder goed werken voor mensen van kleur of scanauto’s van de gemeente die niet goed werken.

Vooral de opkomst van generatieve AI, waarmee mensen zelf teksten of beelden kunnen genereren, kan risico’s met zich meebrengen, aldus de waakhond. “Desinformatie, manipulatie en discriminatie zijn risico’s die om aandacht vragen.”

Volgens de Autoriteit Persoonsgegevens moeten mensen zich beter bewust zijn van de werking en risico’s van AI, waarmee vrijwel iedereen volgens de toezichthouder in de nabije toekomst “veelvuldig” mee in aanraking zal komen.

“De inzet van AI en algoritmes kan bijdragen aan duurzame welvaart en welzijn”, zegt Wolfsen. “En het is mogelijk om dit op zo’n manier te doen dat grondrechten goed beschermd zijn. Maar incidenten schaden wel het vertrouwen. Daarom zijn goede regelgeving en robuust toezicht noodzakelijke voorwaarden.”

Bekijk meer van

artificiële intelligentie
NVJ LID 26-05

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee