Większość firm inwestujących w budowę modeli AI masowo zakupuje akceleratory Nvidii, jednak Google konsekwentnie rozwija własne układy TPU. Najnowsza, ósma generacja tych procesorów została zaprojektowana z myślą o zupełnie nowej erze AI – erze agentowej, która wymaga wydajniejszych i bardziej efektywnych rozwiązań sprzętowych.

Firma przedstawiła dwa modele nowych układów: TPU 8t do szkolenia modeli AI oraz TPU 8i do ich wdrażania. Według Google, te procesory nie są jedynie kolejną iteracją swoich poprzedników, lecz fundamentalnie nowym podejściem do sprzętu AI.

TPU 8t: Szybsze szkolenie zaawansowanych modeli AI

Szkolenie dużych modeli AI, takich jak te wykorzystywane w generatywnych systemach, jest procesem czasochłonnym i kosztownym. Nowy układ TPU 8t został zaprojektowany specjalnie do tego celu. Według firmy, skraca on czas szkolenia najnowocześniejszych modeli AI z kilku miesięcy do zaledwie kilku tygodni. Taka wydajność może zrewolucjonizować tempo rozwoju sztucznej inteligencji.

TPU 8i: Optymalizacja wdrażania modeli AI

Drugi z nowych układów, TPU 8i, został stworzony do efektywnego wdrażania i uruchamiania gotowych modeli AI. Jego zadaniem jest zapewnienie szybkiej i energooszczędnej inferencji, czyli procesu, w którym model przetwarza dane i generuje wyniki. Dzięki temu firmy będą mogły szybciej wprowadzać swoje rozwiązania AI na rynek.

Google podkreśla, że era agentowa, w której AI będzie mogła samodzielnie podejmować decyzje i działać w bardziej złożonych środowiskach, wymaga zupełnie nowego podejścia do sprzętu. Nowe układy TPU mają sprostać temu wyzwaniu, oferując zarówno moc obliczeniową, jak i efektywność energetyczną.

Konkurencja z Nvidią

Choć większość firm korzystających z AI inwestuje w akceleratory Nvidii, Google konsekwentnie rozwija własne rozwiązania. Nowe TPU nie tylko konkurują z układami amerykańskiego giganta, ale także wprowadzają innowacje, które mogą przyspieszyć rozwój sztucznej inteligencji. Czy Google uda się przebić na rynek AI dzięki własnym procesorom? Czas pokaże.

Źródło: Ars Technica