AI-Media Journaal: 1 op de 25 boeken op Bol.com is geschreven door AI en dat zorgt voor gekkigheid
Laat je binnen een paar minuten bijpraten over de nieuwste ontwikkelingen van AI binnen de journalistiek, in het AI-mediajournaal. In deze editie: Hoe AI-geschreven middelmatigheid de boekenmarkt betreedt, waarom klokkenluiders nodig zijn en slimme kijkjes in de blackbox van AI.
LEES HIER DE AI-MEDIA JOURNAAL NIEUWSBRIEF EN ABONNEER JE GRATIS
Na geïllustreerde nieuwsartikelen, muziekstukken en AI-presentatoren betreden ook door AI geschreven boeken de markt. En niet zo zuinig ook. De Groene Amsterdammer ontdekte dat ruim 1 op de 25 boeken op Bol.com door AI gegenereerd is.
Dat soort boeken staat vaak vol vreemde uitspraken. Een boek over Anne Frank eindigt met: “Nu komen we aan het eind van onze reis door Anne Franks opmerkelijke leven.” En een boek over misbruik in de Katholieke kerk besluit: “Een van de belangrijkste lessen [..] van de misbruikcrisis is het cruciale belang van transparantie en verantwoordelijkheid.” Op zijn zachtst gezegd opmerkelijk. Toch staan AI-geschreven boeken opvallend vaak bovenaan in het zoekaanbod, want generatieve AI houdt desgevraagd natuurlijk rekening met SEO.
De auteurs van de Groene kwamen tot hun conclusies door zelf een classificatiemodel te trainen. Ze trainden het model op AI- en mens-geschreven teksten en leerden het die eerste categorie flaggen. Een redacteur bekeek vervolgens alle verdachte gevallen om tot een eindoordeel te komen. De Groene Amsterdammer gaat uitgebreid in op de gevolgen van AI-gegenereerde boeken: van shitification en platformverval tot model collapse. De moeite waard.
Klokkenluiders
Verschillende (voormalig) werknemers van OpenAI trokken aan de bel sinds het bedrijf het volledige team voor verantwoorde AI eind mei opdoekte. Twee opgestapte boardmembers van OpenAI waarschuwen dat we niet kunnen vertrouwen op zelfregulatie van het bedrijf. Zij vinden wetgeving hard nodig. Een groep van negen (ex-)medewerkers van OpenAI noemt het bedrijf in New York Times bovendien ‘roekeloos’.
Ze beschrijven een cultuur van valse beloften rondom veiligheid, waarin de race om marktdominantie allesoverheersend is.
Een iets grotere groep, met ook (ex-)werknemers van Google DeepMind en Anthropic, roepen in een open brief op tot ‘a right to warn’: (Ex-)werknemers van AI-bedrijven die zich kritisch uitlaten over AI verdienen volgens de briefschrijvers bescherming. Want alleen zij hebben zicht op de technische werking van modellen en de effectiviteit van veiligheidsmaatregelen. Dat soort informatie is essentieel en bijzonder schaars.
Blackbox AI
Persoonlijk ben ik fan van journalisten die slimme manieren vinden om black boxed AI-systemen te onderzoeken. Afgelopen week stelde Data Harvest (een jaarlijkse onderzoeksjournalistieke conferentie) op dat gebied niet teleur. Zo onderzocht Bayerischer Rundfunk een model dat sollicitanten beoordeelt en zoomde Algorithm Watch voor ZDF Magazine in op smart borders.
Doe jij ook iets interessants met AI of is er iets anders dat ik moet weten? Mail me op Ngoutier@Villamedia.nl
En schrijf je hier in op onze nieuwsbrief AI-Media Journaal: de nieuwsbrief over AI van Villamedia.


Praat mee