Google tar ledelsen med egne AI-chipper

Mens de fleste selskaper som satser fullt på AI-modeller kjøper opp Nvidia sine AI-akseleratorer, har Google valgt en annen strategi. Selskapet bygger i stedet sin sky-AI-infrastruktur på egne Tensor Processing Units (TPUer). Nå presenterer Google to nye generasjoner av disse chipene, utviklet spesielt for den såkalte «agent-æraen» innen AI.

To nye TPUer for ulik bruk

De nye TPUene kommer i to varianter: TPU 8t for trening av AI-modeller og TPU 8i for inferens (utføring av ferdige modeller). Ifølge Google representerer denne generasjonen et fundamentalt skifte i hvordan AI-systemer bygges og brukes.

«Agent-æraen» skiller seg fra tidligere AI-systemer ved at den krever mer avansert og effektiv maskinvare. Google hevder de nye TPUene leverer betydelig høyere ytelse og energieffektivitet sammenlignet med tidligere generasjoner.

TPU 8t: Raskere trening av store AI-modeller

Før en AI-modell kan analysere data eller generere innhold, må den trenes. TPU 8t er spesialdesignet for denne fasen og skal redusere trenings tiden for avanserte AI-modeller fra måneder til uker. Dette kan bli en game-changer for selskaper som utvikler store språkmodeller eller andre komplekse AI-systemer.

TPU 8i: Optimalisert for raskere inferens

TPU 8i er utviklet for å kjøre ferdige AI-modeller mer effektivt. Dette betyr raskere respons og lavere energiforbruk når modeller brukes i produksjon. Google hevder at dette gjør det mulig for bedrifter å skalere AI-løsninger uten å måtte ofre ytelse eller kostnadseffektivitet.

Hva betyr dette for AI-bransjen?

Googles nye TPUer kan utfordre Nvidias dominans innen AI-akseleratorer. Ved å tilby egne, skreddersydde chipper, sikrer Google seg bedre kontroll over ytelse, kostnader og tilgjengelighet for sine sky-AI-tjenester. Dette kan også føre til lavere barrierer for mindre selskaper som ønsker å utvikle avanserte AI-løsninger.

«Med TPU 8t og TPU 8i tar vi et stort skritt mot en mer effektiv og tilgjengelig AI-fremtid. Disse chipene er designet for å håndtere de utfordringene som kommer med agent-basert AI,» sier en talsmann for Google.

Fremtidig utvikling

Google har tidligere annonsert Ironwood TPU, en syvende generasjons chip planlagt for 2025. De nye TPUene bygger videre på dette arbeidet og markerer starten på en ny æra for Googles AI-infrastruktur. Selskapet forventer at de nye chipene vil bli tilgjengelige for kunder gjennom Google Cloud i løpet av året.