In november 2025 lanceerde een onbekend product. Binnen vier maanden stond het centraal tijdens een presentatie van Jensen Huang op de NVIDIA GTC, kreeg het 188.000 sterren op GitHub en trokken honderden enthousiastelingen naar een kreeftenthema-conferentie – volledig in stijl gekleed. Dit laatste punt geldt alleen voor OpenClaw, maar de prestaties van deze AI-agent zijn opvallend. Het succes van open-source, gratis en door de community ontwikkelde software is een deel van het verhaal. Maar er is nog een andere factor: OpenClaw draait lokaal, zonder cloudabonnement en zonder dat data het apparaat verlaten. Iedereen kan een AI-agent op eigen hardware uitvoeren, volledig onder eigen controle.

Hoewel lokale groottaalmodellen (LLM’s) soms een lagere outputkwaliteit bieden, accepteren veel gebruikers deze trade-off. Deze vraag naar lokale AI-modellen groeit al jaren. Nu hardware en modellen eindelijk aan de vraag voldoen, verandert de basis onder onze voeten. Maar wat betekent dit voor bedrijfsstrategieën, gereguleerde sectoren en de beveiliging van endpoints in organisaties?

De hardware is klaar – en de gevolgen zijn groot

De doorbraak van lokale AI is mogelijk dankzij geavanceerde hardware. Neurale verwerkingseenheden (NPU’s) zijn tegenwoordig standaard in professionele laptops, en AI-modellen zijn zo geoptimaliseerd dat ze lokaal draaien – zonder dat een datacenter nodig is. Gartner voorspelt dat AI-pc’s in 2026 55% van de markt zullen uitmaken. Dat betekent dat de apparaten die je inkoopteam vorig jaar aanschafte, waarschijnlijk al deze capaciteit hebben, of je AI-strategie nu bijgewerkt is of niet.

Voor bedrijven heeft dit ingrijpende gevolgen: gevoelige en compliance-gevoelige taken kunnen eindelijk volledig offline blijven. De regels veranderen.

Nieuwe mogelijkheden voor spraakherkenning

Bij het werken met teams die deze tools ontwikkelen, zie ik de impact wanneer het dataresidentieprobleem wordt opgelost – vooral bij spraakherkenning. Spraakherkenning is een van de meest uitdagende AI-taken om lokaal uit te voeren. Denk aan verschillende accenten, achtergrondgeluiden, overlappende sprekers en wisselende opnameomstandigheden. Jarenlang was de enige optie om audio naar de cloud te sturen voor optimale nauwkeurigheid. Dat was een trade-off die gereguleerde sectoren accepteerden, omdat er geen alternatief was. Die trade-off is nu verdwenen.

Moderne lokale spraakherkenningssystemen halen nu binnen 5% nauwkeurigheid van cloudmodellen. Op hedendaagse hardware verwerken deze systemen een uur complexe audio in ongeveer 55 seconden. Vroeger waren er altijd beperkingen: wat de cloud toestond, wat compliance toestond, wat de latentie voor gebruikers acceptabel was. Lokaal draaien verwijdert deze beperkingen.

Drie structurele veranderingen

  • Privacy wordt architectonisch, niet contractueel. De garantie verschuift van een belofte om niet te kijken naar bewijs dat de data het apparaat nooit heeft verlaten.
  • Compliance en auditing veranderen. Zonder centrale logboeken hebben organisaties nieuwe kaders nodig om te bewijzen wat er draaide, waar en onder wiens autoriteit.
  • De kostenstructuur verandert op schaal. Cloudcomputing wordt afgerekend per gebruik. Bij lokale AI is de hardware al aangeschaft. Voor grote teams kan dit leiden tot aanzienlijke besparingen.

De implicaties zijn duidelijk: de manier waarop bedrijven omgaan met AI, privacy en compliance staat op het punt te kantelen. De vraag is niet meer of lokale AI de norm wordt, maar hoe snel organisaties zich aanpassen aan deze nieuwe realiteit.