De opkomst van ‘tokenmaxxing’ en de illusie van goedkope AI
Een opvallende trend die dit jaar aan populariteit wint, is het meten van werknemersproductiviteit op basis van het aantal AI-tokens dat ze gebruiken. Deze praktijk, spottend ‘tokenmaxxing’ genoemd, symboliseert de ongeremde fascinatie in Silicon Valley voor het zo veel mogelijk inzetten van AI – ongeacht de kosten. Wat tot nu toe een goedkope of zelfs gratis dienst leek, staat echter op instorten.
De keerzijde van schaalvergroting: torenhoge kosten en schaarste
De grootste uitdaging voor de AI-industrie blijkt niet langer de ontwikkeling van geavanceerde modellen, maar de toegang tot rekenkracht. De bouw van datacenters voor AI loopt tegen forse vertragingen en kostenoverschrijdingen aan, waardoor de industrie haar grootste knelpunt blootlegt: de beschikbaarheid van voldoende computerkracht. Terwijl de vraag naar AI-toepassingen blijft stijgen, stijgen ook de kosten voor bedrijven zoals OpenAI en Anthropic, die hun prijzen moeten verhogen om de verliezen te beperken.
Mark Riedl, professor aan Georgia Tech, stelt de vraag of het tijdperk van bijna gratis AI voorbij is: “Is het tijdperk van goedkope of zelfs gratis AI nu ten einde? Het is nog te vroeg om dat met zekerheid te zeggen, maar er zijn wel signalen die daarop wijzen.”
Anthropic schroeft prijzen op na overbelasting door AI-agenten
Recentelijk maakte Anthropic bekend dat miljoenen gebruikers van de AI-agenttool OpenClaw geen toegang meer hadden tot het systeem. De reden? De tool dreef de servers van Anthropic tot het uiterste. Boris Cherny, hoofd van Claude Code bij Anthropic, lichtte toe: “We hebben hard gewerkt om aan de vraag naar Claude te voldoen, maar onze abonnementen waren niet ontworpen voor het gebruikspatroon van deze externe tools. Capaciteit is een schaarse resource, en we prioriteren onze directe klanten.”
Anthropic schakelde over op een pay-as-you-go-model, waarbij gebruikers per token betalen in plaats van een vast abonnement. Deze aanpak moet de inkomsten genereren die nodig zijn om de investeringen in datacenters te dekken.
Kan de AI-industrie de groei volhouden?
Volgens Will Sommer, AI-econoom en senior directeur bij Gartner, zou de industrie tegen 2029 jaarlijks bijna 2 biljoen dollar moeten omzetten om de kosten te dekken. Dat vereist een groei van 50.000 tot 100.000 keer de huidige tokenconsumptie tegen 2030 – een ongekende schaalvergroting die moeilijk haalbaar lijkt.
De uitdaging wordt nog groter doordat complexere AI-modellen en de opkomst van AI-agenten de vraag naar rekenkracht verder opdrijven. Ondertussen vechten bedrijven om marktaandeel, met Anthropic dat recentelijk een triljoen dollar-waardering bereikte en daarmee OpenAI voorbijstreefde. Toch brengen prijsverhogingen of het invoeren van advertenties het risico met zich mee dat klanten afhaken en de groei wordt afgeremd.
Sommer vat de dilemma’s samen: “Enerzijds willen ze meer tokens genereren, maar anderzijds moeten ze de kosten dragen – ofwel door ze zelf op te vangen, of door de prijzen te verhogen. Beide opties zijn riskant.”
De toekomst van AI: betaalbaar of onbetaalbaar?
De AI-industrie staat voor een cruciale keuze: blijven groeien tegen elke prijs, of de prijzen verhogen en risico lopen op verlies van klanten. Voor consumenten en bedrijven betekent dit dat de tijd van goedkope, onbeperkte AI-toegang mogelijk voorbij is. De komende jaren zullen uitwijzen of de sector haar beloftes waar kan maken – of dat de economische realiteit een einde maakt aan de AI-hype.