Google Bard: fantast met uitlegdrang

Als je gebruikers van je nieuwe dienst er al meteen op wijst dat je product onnauwkeurig kan zijn of ongepaste antwoorden kan opleveren, wekt dat niet heel veel vertrouwen. Toch is het precies wat Google doet bij Bard, een AI-chatbot die de concurrentie moet aangaan met ChatGPT. En die waarschuwing is helemaal terecht.
Om te beginnen iets positiefs: petje af voor Google dat het zich waagt aan een ChatGPT-concurrent. Sinds OpenAI zijn chatbot-met-kunstmatige-intelligentie losliet op de wereld, is ChatGPT heer en meester. Andere chatbots zijn er wel, maar zijn vaak gebouwd op dezelfde onderliggende techniek (het model GPT, van OpenAI). Bard is dat niet: de onderliggende taalmodellen en techniek komt uit Google’s eigen stal.
Eindelijk dus eens echte concurrentie. Op papier dan. Want Bard kan zich niet meten met ChatGPT. Althans: nóg niet. Vlak na de lancering van Bard had het internet aardig wat lol met de teksten die de chatbot produceerde. Op sociale media regende het berichten van gebruikers die de tool hadden gevraagd iets over henzelf te vertellen. Bard verzon regelmatig dingen die niet klopten, zelfs als hij rechtstreeks naar bronmateriaal geleid werd dat wél klopte. Ter illustratie: ondergetekende kreeg credits voor boeken die hij niet heeft geschreven en kreeg van Bard een diploma aan de Universiteit van Amsterdam uitgereikt.
Een grote fantast
Dat fantaseren is vooralsnog de grootste fout aan Bard. Villamedia vroeg de tool tien opdrachten uit te voeren, die we eerder ook door ChatGPT lieten uitvoeren. We vroegen Bard koppen bij artikelen te verzinnen, verhalen samen te vatten, tekst te vertalen, interviewvragen te bedenken, posts voor social media te schrijven, teksten te redigeren en invalshoeken voor verhalen te verzinnen. Met wisselend resultaat.
Bij exact dezelfde opdrachtregels (in vaktermen: de prompts), was het resultaat aanzienlijk anders dan bij ChatGPT. En vaak ten nadele van Google’s nieuwe telg. Bij het koppen maken verzon Bard citaten die niet in de brontekst voorkwamen. Toen we Bard een nieuwsbericht over onderzoek naar journalistieke fondsen lieten samenvatten (dit artikel), verzon de chatbot dat er niet 18 fondsen waren geïnterviewd maar 300. Daarnaast was het onderzoek waar het nieuwsartikel over ging plots niet meer door de Universiteit van Amsterdam uitgevoerd, maar door Villamedia. Wat - we zeggen het er maar even bij - niet zo was.
Ook tijdens het redigeren van artikelen verzon Bard passages bij het verhaal die niet kloppen. En toen we de tool – in het Engels - vroegen het concept van supermassieve zwarte gaten uit te leggen aan kinderen van vijf jaar oud, vergat hij het Engelse woord ‘hole’ te vertalen naar ‘gat’. Zonde, want de rest van de uitleg sneed wel hout.
Uitlegdrang
Waar Bard wel aardig mee uit de voeten kon, was het creatievere werk. Interviewvragen verzinnen ging de tool best aardig af. En toen we Bard vroegen een lollige tweet te bedenken bij een verhaal over een gestrand schip, schreef de chatbot dat opvarenden niet naar het toilet konden en dus #pijnindebuik hadden. Veel te lollig natuurlijk voor een serieuze gebeurtenis. Maar wel precies waar we om hadden gevraagd.
Teksten vertalen doet Bard ook best aardig. Met bijkomend voordeel dat hij ook uitlegt waarom hij sommige wijzigingen doorvoert. Bij het omschrijven van een Nederlands verhaal naar het Duits, legt Bard uit waarom hij in de Duitse vertaling sommige woorden ineens met een hoofdletter schrijft (in het Duits krijgen zelfstandige naamwoorden immers een hoofdletter, terwijl dat in het Nederlands niet zo is). Die ‘uitlegdrang’ had Bard bij enkele andere opdrachten ook. Bij het bedenken van koppen boven een artikel, vertelt de chatbot bijvoorbeeld bij ieder voorstel waarom hij voor dit voorstel heeft gekozen. Andere keren verwees Bard naar een aantal gebruikte bronnen.
Bard verschilt daarin in positieve zin van ChatGPT. Bij die laatste verdwijnt je vraag in een zwarte doos en heb je geen idee waarom die chatbot het antwoord geeft dat hij geeft. Bij Bard kunnen die uitleg en verantwoording nog (veel) beter, maar het begin is er. En het zou zomaar eens kunnen zijn waarin Google’s chatbot in de toekomst een streepje krijgt op die van OpenAI.
Zover is het voorlopig nog lang niet. Google presenteert Bard als een ‘creatieve en behulpzame collega’, die je productiviteit een boost moet geven. Creatief is hij zeker. En behulpzaam is hij soms. Maar erg productief is het allemaal niet. In elk geval: nog niet.
Praat mee