‘AI-bots geven in helft gevallen misleidend medisch advies’
Door kunstmatige intelligentie (AI) aangedreven chatbots geven gebruikers in ongeveer de helft van de gevallen problematisch medisch advies. Dat blijkt uit een onderzoek naar de gezondheidsrisico's van door AI gegenereerde adviezen, waarvan de resultaten zijn gepubliceerd in het medische tijdschrift BMJ Open.
Onderzoekers uit de VS, Canada en het VK evalueerden vijf populaire platforms: ChatGPT, Gemini, Meta AI, Grok en DeepSeek. Zij kregen elk tien vragen binnen vijf gezondheidscategorieën. Van alle gegeven antwoorden werd ongeveer de helft als problematisch beoordeeld.
Bijna 20 procent daarvan werd zelfs als zeer problematisch aangemerkt.
Lees ook ons AI Media Journaal: Wat doen we met alle tijd die AI ons oplevert?
Stamcellen en voeding
Volgens het onderzoek presteerden de chatbots relatief beter bij gesloten vragen en opdrachten, en bij vragen over vaccins en kanker. Slechter deden ze het bij open vragen en opdrachten, en op gebieden zoals stamcellen en voeding.
De antwoorden werden vaak met veel zelfvertrouwen en stelligheid gepresenteerd, hoewel geen enkele chatbot bij enige vraag of opdracht een volledig complete en accurate referentielijst wist te produceren, aldus de onderzoekers.
Nele Goutier schrijft tweewekelijk de Villamedia-nieuwsbrief AI Media Journaal. Wil je extra veel lees-, kijk en luistertips over AI in journalistiek met mogelijke oplossingen, inspiratie en denkrichtingen? Lees dan hier de volledige nieuwsbrief en word direct gratis abonnee.


Praat mee