Een paar jaar geleden, toen ik onderzoek deed naar de opkomst van AI-gegenereerde rommel op Facebook, vroeg ik mijn vrienden en familie of zij AI-spam in hun tijdlijn zagen en of ze voorbeelden konden sturen. Een aantal reageerde met duidelijk AI-gemaakte sciencefictionscènes, afbeeldingen van 'shrimp Jesus' of bedroefde kinderen die om hulp smeekten. Maar enkele vrienden stuurden beelden die ze dachten dat AI had gemaakt, terwijl het menselijke kunstwerken waren. Hun wantrouwen was zo groot dat ze zelfs authentieke content afschreven als mogelijk nep.
Het browsen op internet vandaag de dag is een aaneenschakeling van AI: van nepnieuws tot generieke LinkedIn-posts. We verliezen het onderscheid tussen echt en nep, en dat heeft gevolgen. Hoewel er veel wordt gesproken over 'AI-psychose' – een niet-wetenschappelijke term voor mensen die de grip op de realiteit verliezen door AI – blijft onderbelicht hoe de cognitieve belasting van andermans AI-gebruik ons allemaal beïnvloedt. Onze hersenen voeren dagelijks talloze berekeningen uit: Is dit AI? Maakt het uit? Waarom ziet dit er zo raar uit? Schrijft deze persoon zo? We zijn gewend aan AI op plekken waar we het verwachten, zoals in Google’s 'AI Overzichten' (die ons ooit adviseerden om lijm-pizza te eten) of in clickbait-posts op LinkedIn. Maar steeds vaker dringt het door tot in alles wat we consumeren.
Het probleem is niet dat ik een hekel heb aan AI-gegenereerde content of bang ben om erin te trappen. Het is dat mijn brein onbewust de AI-politie aan het spelen is. Alles voelt ongemakkelijk, alsof ik langzaam gek aan het worden ben. Neem dit voorbeeld: vorige week probeerde ik een podcast te beluisteren om maar niet nog een analyse te horen over het schietincident tijdens het Witte Huis Correspondenten Diner. Ik koos voor Everyone’s Talkin’ Money, een podcast over belastingen die al jaren bestaat en wordt gepresenteerd door Shari Rash. Tijdens de intro las ze een script dat vol zat met AI-schrijfclichés: ‘De verschuiving die ik je vandaag wil laten maken – en dit is de verschuiving die alles verandert – is om je belastingaangifte te zien als informatie, niet als een rekening of een schaamtebadge.’ Het klonk alsof een algoritme het had geschreven, en mijn brein schakelde direct over naar modus: Is dit AI? Gebruikt ze AI?
Dit is geen geïsoleerd incident. Overal waar we kijken, horen of lezen, moeten we nu filteren: Is dit echt? Is dit nep? En wat doet dat met ons? Het constante wantrouwen ondermijnt niet alleen onze mentale rust, maar ook ons vertrouwen in online informatie. Want als alles mogelijk nep kan zijn, hoe weten we dan nog wat waar is?
De onzichtbare last van AI-gegenereerde content
- Cognitieve overbelasting: Onze hersenen zijn niet gebouwd om constant te moeten beoordelen of content authentiek is. Dit leidt tot mentale vermoeidheid en stress.
- Vertrouwenscrisis: Als zelfs menselijke content als nep wordt afgedaan, raken we het vertrouwen in echte informatie kwijt.
- Onbedoelde gevolgen: AI wordt vaak gebruikt om tijd te besparen, maar de bijwerkingen – zoals de verstoring van onze perceptie – worden zelden meegenomen in de ontwikkeling.
Hoe kunnen we hiermee omgaan?
Er is geen eenvoudige oplossing, maar een paar stappen kunnen helpen:
- Transparantie: Platforms en makers moeten duidelijk aangeven wanneer content AI-gegenereerd is.
- Kritisch denken: Train jezelf om patronen te herkennen in AI-schrijfstijl, zoals overdreven clichés of onnatuurlijke zinnen.
- Beperk blootstelling: Filter je sociale media en nieuwsbronnen om de stroom van AI-gegenereerde content te verminderen.
- Mentale pauzes: Neem bewust afstand van digitale content om je brein de kans te geven te resetten.
‘We leven niet in een wereld waarin AI ons voor de gek houdt – we leven in een wereld waarin we constant moeten filteren wat echt is en wat niet. Dat is een last die niemand had voorzien.’