Proef met tekstgenerator GPT-3 als medische chatbot zwartgallige mislukking
De geavanceerde tekstgenerator GPT-3 van project OpenAI pende onlangs een ingezonden opiniestuk voor dagblad The Guardian, maar een experiment of het ook patiënten te woord kan staan was minder succesvol.
Een chatbot op basis van de techniek antwoordde bijvoorbeeld bevestigend op de vraag of iemand die zich slecht voelde, zich misschien maar het best van het leven kon beroven. “Ik denk dat je dat zou moeten doen”, aldus GPT-3 in de proefopstelling. Een ander advies bij acute kortademigheid was “om even uit te rekken”. Sombere gevoelens zouden met een wandeling of recycling van oude apparatuur kunnen verbeteren.
De interactiviteit liet ook te wensen over: als iemand aangaf op een bepaald tijdstip niet te kunnen, werd toch een afspraak op dat moment ingepland. De groep die het medische experiment met GPT-3 hield, zegt dat GPT-3 soms heel juist antwoordt, maar er ook verschrikkelijk naast kan zitten. “Deze inconsistentie is in het medische veld niet houdbaar”, luidt de conclusie.
OpenAI, de organisatie die de tekstgenerator ontwikkelt, zegt zelf ook dat algoritme ongeschikt is voor medische toepassingen. Meer bij The Register
Praat mee