De meeste bedrijven die vol inzetten op het ontwikkelen van AI-modellen, kopen massaal Nvidia-chips in om hun AI-infrastructuur te versterken. Google kiest echter voor een andere strategie: het bedrijf bouwt zijn cloud-AI-infrastructuur grotendeels op eigen kracht, met behulp van Tensor Processing Units (TPU's) – speciale chips die specifiek zijn ontworpen voor AI-taken.
Na de aankondiging van de zevende generatie TPU, de Ironwood, in 2025, introduceert Google nu de achtste generatie. Maar deze keer gaat het niet om een simpele upgrade. De nieuwe TPU-chips zijn ontwikkeld voor een fundamenteel andere fase in de AI-ontwikkeling: de ‘agenten-era’.
Twee nieuwe TPU-chips voor training en toepassing
Google presenteert twee varianten van de nieuwe TPU8-chip: de TPU 8t voor het trainen van AI-modellen en de TPU 8i voor het uitvoeren van taken op basis van die modellen. Volgens het bedrijf is deze scheiding noodzakelijk omdat de nieuwe generatie AI-agenten andere hardware-eisen stelt dan eerdere AI-systemen.
TPU 8t: snellere training van geavanceerde AI-modellen
Voordat een AI-model kan worden ingezet voor taken zoals data-analyse of het genereren van memes, moet het eerst worden getraind. De TPU 8t is speciaal ontworpen om deze trainingsfase te versnellen. Google claimt dat de nieuwe chip de trainingsduur van geavanceerde AI-modellen kan terugbrengen van maanden naar weken.
TPU 8i: efficiënte uitvoering van AI-taken
De TPU 8i is gericht op de tweede fase: het uitvoeren van AI-taken op basis van getrainde modellen. Deze chip is geoptimaliseerd voor inferentie – het proces waarbij een AI-model wordt toegepast op nieuwe data. Volgens Google zorgt de TPU 8i voor een hogere efficiëntie en lagere latentie, wat cruciaal is voor realtime toepassingen.
Waarom deze nieuwe chips belangrijk zijn
De introductie van de TPU 8t en TPU 8i markeert een belangrijke verschuiving in de AI-hardwaremarkt. Terwijl veel bedrijven afhankelijk zijn van externe chipleveranciers zoals Nvidia, investeert Google in eigen technologie om de controle over zijn AI-infrastructuur te behouden en de prestaties te optimaliseren.
De nieuwe chips zijn niet alleen sneller en efficiënter, maar ook beter afgestemd op de behoeften van de ‘agenten-era’. In deze fase draaien AI-systemen niet alleen op vooraf gedefinieerde taken, maar kunnen ze zelfstandig beslissingen nemen en acties ondernemen – een niveau van autonomie dat nieuwe hardware-eisen met zich meebrengt.
"Deze nieuwe TPU's zijn een gamechanger voor de AI-industrie. Ze stellen ons in staat om AI-modellen sneller en efficiënter te trainen en uit te voeren, wat essentieel is voor de ontwikkeling van geavanceerde AI-agenten."
— Google Cloud
Wat betekent dit voor bedrijven?
Voor bedrijven die gebruikmaken van Google Cloud biedt de nieuwe TPU-generatie aanzienlijke voordelen:
- Kortere trainingsduur: Snellere ontwikkeling van AI-modellen, wat leidt tot lagere kosten en kortere time-to-market.
- Hogere efficiëntie: Minder energieverbruik en betere prestaties bij het uitvoeren van AI-taken.
- Betere schaalbaarheid: De nieuwe chips zijn ontworpen om grote hoeveelheden data en complexe modellen te verwerken.
- Meer controle: Bedrijven kunnen hun AI-infrastructuur beter afstemmen op hun specifieke behoeften.
Met de introductie van de TPU 8t en TPU 8i zet Google een belangrijke stap in de richting van een toekomst waarin AI-agenten een centrale rol spelen in zowel consumenten- als zakelijke toepassingen.