De flesta företag som satsar fullt ut på AI-modeller köper upp så många Nvidia-acceleratorer de kan få tag i. Google har dock valt en annan väg. Företagets molnbaserade AI-infrastruktur bygger i huvudsak på egna specialdesignade processorer, så kallade Tensor Processing Units (TPU).

Efter att ha presenterat den sjunde generationens TPU, Ironwood, under 2025, introducerar Google nu den åttonde generationen. Men det handlar inte bara om en snabbare version av samma chip. De nya TPUerna kommer i två varianter och lovar både högre hastighet och effektivitet, enligt företaget.

En ny era för AI-hårdvara

Google menar att den så kallade agent-eran skiljer sig fundamentalt från tidigare AI-system. Detta kräver en ny typ av hårdvara. Därför har ingenjörerna utvecklat två nya chip: TPU 8t för träning och TPU 8i för inferens.

TPU 8t: Snabbare träning av AI-modeller

Innan AI-modeller kan användas för analyser eller skapa innehåll, måste de tränas. TPU 8t är specifikt designat för denna del av AI-livscykeln. Enligt Google kan det nya chipet minska träningstiden för avancerade AI-modeller från månader till endast veckor.

TPU 8i: Effektivare inferens

För att AI-modeller ska kunna användas i praktiken krävs snabb och energieffektiv inferens – processen där modellen appliceras på verkliga data. TPU 8i är utvecklat för att hantera denna uppgift med högre prestanda och lägre energiförbrukning än tidigare generationer.

Med dessa två nya TPU-chip positionerar sig Google som en stark konkurrent till Nvidia inom AI-hårdvara. Företaget understryker att de nya chippen inte bara är uppgraderingar, utan helt nya lösningar anpassade för den kommande agent-eran inom AI.