Google bryder med traditionen med nye TPU-chips
Mens de fleste virksomheder, der udvikler AI-modeller, satser massivt på Nvidias AI-acceleratorer, har Google valgt en anden strategi. Virksomhedens cloud-AI-infrastruktur er i høj grad baseret på egne Tensor Processing Units (TPU’er). Nu lancerer Google den ottende generation af disse specialdesignede chips, der markerer et væsentligt skift i tilgangen til AI-hårdware.
To nye TPU’er til forskellige formål
Google introducerer to nye TPU’er: TPU 8t til træning af AI-modeller og TPU 8i til anvendelse (inference). Ifølge Google repræsenterer den nye generation et paradigmeskift, hvor "agent-æraen" kræver en helt ny tilgang til hardware.
TPU 8t: Hurtigere træning af avancerede AI-modeller
Før en AI-model kan analysere data eller generere indhold, skal den først trænes. TPU 8t er specielt udviklet til denne fase og lover at reducere træningstiden for avancerede AI-modeller fra måneder til blot uger. Dette gør det muligt for virksomheder at udvikle og implementere AI-løsninger langt hurtigere end tidligere.
TPU 8i: Effektiv anvendelse af AI-modeller
Når en AI-model er trænet, skal den anvendes i praksis. TPU 8i er designet til denne fase og tilbyder øget effektivitet og hastighed, hvilket sikrer hurtigere og mere pålidelige resultater. Ifølge Google er dette afgørende for at understøtte de stigende krav til AI-drevne løsninger i erhvervslivet.
Et skift i AI-infrastrukturen
Google understreger, at den nye generation af TPU’er ikke blot er en opgradering af tidligere modeller, men en fundamental ændring i tilgangen til AI-hårdware. Med disse chips positionerer Google sig som en nøglespiller i den næste fase af AI-udviklingen, hvor hastighed, effektivitet og skalerbarhed er altafgørende.
"Den nye generation af TPU’er er designet til at imødekomme de unikke krav i agent-æraen, hvor AI-systemer ikke blot analyserer data, men aktivt interagerer med omverdenen," siger en talsmand for Google.
Fremtidens AI-infrastruktur
Med lanceringen af TPU 8t og TPU 8i demonstrerer Google, at det fortsat satser på specialiseret hardware for at understøtte den accelererende udvikling inden for AI. Disse chips forventes at spille en central rolle i at gøre avancerede AI-modeller mere tilgængelige og effektive for både store og små virksomheder.