— donderdag 29 oktober 2020 08:53 | 0 reacties , praat mee

Proef met tekstgenerator GPT-3 als medische chatbot zwartgallige mislukking

Proef met tekstgenerator GPT-3 als medische chatbot zwartgallige mislukking
EPA

De geavanceerde tekstgenerator GPT-3 van project OpenAI pende onlangs een ingezonden opiniestuk voor dagblad The Guardian, maar een experiment of het ook patiënten te woord kan staan was minder succesvol. Laatste wijziging: 29 oktober 2020, 09:00

Een chatbot op basis van de techniek antwoordde bijvoorbeeld bevestigend op de vraag of iemand die zich slecht voelde, zich misschien maar het best van het leven kon beroven. “Ik denk dat je dat zou moeten doen”, aldus GPT-3 in de proefopstelling. Een ander advies bij acute kortademigheid was “om even uit te rekken”. Sombere gevoelens zouden met een wandeling of recycling van oude apparatuur kunnen verbeteren.

De interactiviteit liet ook te wensen over: als iemand aangaf op een bepaald tijdstip niet te kunnen, werd toch een afspraak op dat moment ingepland. De groep die het medische experiment met GPT-3 hield, zegt dat GPT-3 soms heel juist antwoordt, maar er ook verschrikkelijk naast kan zitten. “Deze inconsistentie is in het medische veld niet houdbaar”, luidt de conclusie.

OpenAI, de organisatie die de tekstgenerator ontwikkelt, zegt zelf ook dat algoritme ongeschikt is voor medische toepassingen. Meer bij The Register

Bekijk meer van

GPT-3
NVJ LID 26-05

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee