AI:s energikris kräver systemomfattande lösningar

Historiska genombrott har aldrig varit resultatet av enskilda insatser. Projekt som Human Genome Project visade att framgång kräver en ny typ av samarbetsmodell: samla världens främsta talanger kring en gemensam uppgift, skapa en gemensam plattform och dela kritisk infrastruktur. Idag står AI-industrin inför en liknande utmaning – men med ännu större tidspress.

AI-eran driver på en hård konkurrens där företag strävar efter att leverera högpresterande system snabbare än någonsin. Men prestanda handlar inte längre bara om beräkningskraft. I många AI-arbetsbelastningar förbrukar dataöverföringen lika mycket – eller mer – energi än själva beräkningen. Att minska energiförbrukningen per bit är därför avgörande för att både förbättra systemprestanda och effektivitet.

Tre avgörande områden för energieffektiv AI

Vägen till energieffektiv AI går via systemomfattande ingenjörskonst. Tre områden är särskilt kritiska:

  • Logik: Effektivitet per watt beror på snabba transistor-switchar, lågförlustig strömförsörjning och signalöverföring genom täta kopplingar.
  • Minne: Ökande krav på bandbredd och kapacitet skapar ett "minnesväggsproblem", där processorers framsteg överstiger minnesåtkomstens kapacitet.
  • Avancerad paketering: 3D-integration, chiplet-arkitekturer och högdensitetsanslutningar möjliggör att beräkningskraft och minne kan placeras närmare varandra – något som traditionell skalning inte längre klarar.

Dessa områden kan inte längre optimeras isolerat. Logikens effektivitet stannar av utan tillräcklig minnesbandbredd. Minnesförbättringar faller kort om paketeringen inte kan leverera närhet inom termiska och mekaniska gränser. Paketeringen begränsas i sin tur av precisionen i både framstegs- och bakre integrationsprocesser.

Gränssnitten blir avgörande i ångström-eran

I den så kallade ångström-eran uppstår de svåraste problemen vid gränssnitten – mellan beräkning och minne i paketeringen, mellan framstegs- och bakre integrationsprocesser, och mellan de tätt kopplade stegen som krävs för exakt 3D-tillverkning. Det är här den traditionella innovationsmodellen bryter samman.

Den traditionella FoU-modellen räcker inte längre

Under decennier har halvledarindustrins FoU-modell liknat en stafett. Kompetenser utvecklas i en del av ekosystemet, skickas vidare genom integration och tillverkning, utvärderas av chip- och systemdesigners och skickas sedan tillbaka för nästa iteration. Denna modell fungerade när framsteg dominerades av relativt modulära steg som kunde skalas oberoende och enkelt integreras i tillverkningsflödet.

Men AI-tidslinjen har förändrat reglerna. I ångströmskala tvingar fysiken fram oundvikliga kopplingar genom hela stacken: materialval formar integrationsmetoder, integration definierar designregler, designregler dikterar strömförsörjning, kopplingar sätter termiska budgetar och termiska förhållanden begränsar paketeringens skalning. Systemarkitekter kan helt enkelt inte vänta 10–15 år på att varje större halvledarteknologisk inflektion ska mogna.

EPIC: En historisk satsning för framtidens halvledare

EPIC, som representerar en investering på cirka 5 miljarder dollar, är den största satsningen på avancerad halvledarutrustning och FoU i USA:s historia. Denna långsiktiga strategi syftar till att förena materialinnovation med framväxande enhetsarkitekturer – och utveckla de verktyg och processer som krävs för att integrera båda med tillverkningsbar precision.

"För att möta AI-eran krävs mer än tekniska framsteg. Vi måste förändra hur vi samarbetar, delar resurser och accelererar innovationscykler. Endast genom att bryta ner traditionella gränser kan vi utveckla de energieffektiva AI-system som framtiden kräver."

– Applied Materials