Techwaves 5 lags AI kage – Bygget på Jensen Huangs fundament
Jensen Huang, CEO i Nvidia, beskrev for nylig AI på en måde, mange stadig overser. Ikke som software. Ikke som et produkt. Men som industriel infrastruktur bygget i fem lag, fra energi i bunden til applikationer i toppen. Hvert lag er en forudsætning for det næste, og hele systemet fungerer kun, hvis alle lag skalerer samtidig.
The AI Five-Layer Cake
I bunden ligger energien, som er fundamentet for al beregning. Ovenpå kommer chips, hvor strøm omsættes til compute gennem GPU’er, memory og interconnect. Herefter følger infrastrukturen, hvor datacentre, netværk og køling gør det muligt at skalere compute i praksis. Ovenpå ligger modellerne, som skaber intelligensen, og øverst applikationerne, hvor værdien realiseres. Den opdeling har vi forsøgt at visualisere nedenfor, hvor vi samtidig viser, hvordan fondens positioner er placeret på tværs af lagene.
En selvforstærkende værdikæde
En af de mest undervurderede dynamikker i AI-økosystemet er, hvordan efterspørgslen bevæger sig gennem lagene.
Når modeller bliver bedre, billigere og mere tilgængelige, sænkes adgangsbarrieren i toppen af stakken. Det gør det muligt for flere virksomheder at bygge applikationer, og det øger hastigheden, hvormed nye use cases bliver testet og udrullet. Det er den del, de fleste fokuserer på.
Men det, der ofte overses, er konsekvensen længere nede i systemet. Øget aktivitet i applikationslaget fører direkte til flere forespørgsler, mere inference og højere belastning på de underliggende systemer. Det betyder øget efterspørgsel på compute, som igen øger behovet for avancerede chips, høj-båndbredde memory, netværkskapacitet og i sidste ende elektricitet. Det er ikke lineært. Det er en kædereaktion.
Hvert lag forstærker de øvrige. Lavere adgangsbarriere i toppen skaber højere kapacitetskrav i bunden. Og fordi flere af de underliggende lag er kapitaltunge og tidskrævende at udbygge, opstår der flaskehalse. Det er netop disse flaskehalse, der i sidste ende bliver økonomisk interessante.
Porteføljen afspejler strukturen
Når man ser AI som infrastruktur, bliver vores allokering logisk. Vi fokuserer på de lag, hvor afhængighederne er størst, og hvor kapacitet ikke bare kan skaleres hurtigt.
Det gælder især chips og memory. NVIDIA, Broadcom Micron, TSMC, ASML og SK Hynix er ikke bare eksponering mod AI. De er fundamentet for, at AI overhovedet kan eksistere. Uanset hvilken model eller applikation der vinder, vil efterspørgslen på compute og memory bestå. Særligt memory er centralt. HBM har ændret økonomien i AI-hardware, og udbuddet er koncentreret på få aktører. Det skaber en klassisk ubalance mellem efterspørgsel og kapacitet.
AI skalerer i modellen men begrænses af infrastrukturen
AI skalerer i to dimensioner samtidig, både i modellen og i infrastrukturen, hvor den ene driver kvaliteten, mens den anden afgør, om kvaliteten overhovedet kan udnyttes i praksis. Model-skalering forbedrer output gennem flere parametre, bedre arkitektur og mere data, hvilket samlet øger intelligensen i systemet, men hver forbedring øger samtidig kravene til compute, memory og båndbredde, og det flytter presset ned i infrastrukturen, hvor man rammer Jevons paradox.
Når modeller bliver bedre og billigere at køre, falder prisen per token, hvilket gør det muligt at anvende AI bredere, oftere og i langt tungere workflows, og resultatet er ikke et lavere samlet compute-forbrug, men et højere, fordi effektivitet driver efterspørgsel. Det er derfor, presset i systemet ikke aftager, men i stedet forstærkes.
Datacentret er ikke bare et sted, hvor compute står, men et distribueret system, hvor tusindvis af GPU’er skal fungere som én samlet enhed, hvilket stiller krav til høj båndbredde mellem noder, lav latency i netværket og effektiv håndtering af memory. Hvis data ikke kan flyttes hurtigt nok, falder udnyttelsesgraden, og hvis interconnect ikke kan følge med, står compute i praksis stille.
Arista Networks opererer i netværkslaget, hvor east-west trafik mellem GPU’er er afgørende for performance, mens Lumentum leverer de optiske komponenter, der muliggør højhastigheds dataoverførsel mellem noder, hvor kobber ikke længere er tilstrækkeligt ved skala. Vertiv håndterer strøm og køling, hvor rack density og varmeafledning sætter de fysiske grænser for, hvor meget compute der kan pakkes sammen, og Celestica integrerer systemerne, så komponenterne fungerer som en samlet platform.
Når man bevæger sig fra enkeltstående workloads til store clusters, flytter bottlenecken sig væk fra selve chippen og over i dataflow, memory access og energitæthed, og det betyder, at det ikke er nok at have mere compute, hvis det ikke kan udnyttes effektivt.
Det er også derfor, dette lag er kapitaltungt og langsomt at skalere, fordi kapacitet bygges i megawatt, netværksarkitektur og fysisk integration, og ikke kan opdateres med software, men skal designes, bygges og implementeres over tid.
Når efterspørgslen på AI vokser hurtigere end infrastrukturen kan følge med, opstår der en reel begrænsning i systemet, og det er i den situation, man ser strukturel pricing power, ikke fordi produkterne nødvendigvis er unikke i funktion, men fordi de er nødvendige, og fordi kapaciteten er knap.
Energi er den reelle begræsning
I bunden af hele AI-stakken ligger energien, og det er i sidste ende her, systemet afgøres. AI er ikke bare software, det er strøm omsat til intelligens, og hver model, hver forespørgsel og hvert datacenter øger belastningen på et elnet, der ikke er bygget til det tempo, vi ser nu. Bloom Energy og Constellation Energy repræsenterer forskellige måder at adressere den udfordring på, men pointen er den samme. Energi kan ikke skaleres som software. Det tager tid, kræver kapital, regulering og fysisk udbygning, og netop derfor er det et af de mest undervurderede lag i hele stakken. Når resten af systemet accelererer, bliver energien ikke bare en inputfaktor, men en reel begrænsning for, hvor hurtigt AI kan vokse.
Værdien ligger i fundamentet
Applikationslaget er det mest synlige, og det er her AI materialiserer sig i produkter og forretning. Microsoft, Alphabet, Amazon og Cloudflare har skala, distribution og indtjening, mens mere fokuserede selskaber som Palantir og AppLovin allerede begynder at omsætte AI direkte til vækst. Men det er også her konkurrencen er hårdest, barrieren lavere og skift sker hurtigere.
AI udvikler sig ikke som klassisk software, hvor værdien primært ligger i applikationen. Det er et system, der bygges lag for lag, hvor hvert lag er afhængigt af det næste, og hvor begrænsninger ét sted kan definere udviklingen i hele stakken. Det betyder, at værdien ikke nødvendigvis opstår der, hvor den er mest synlig, men i de lag, der gør hele systemet muligt.
Compute, memory, infrastruktur og energi er ikke bare inputfaktorer. Det er forudsætningerne for, at AI overhovedet kan skaleres, og det er samtidig de lag, der er sværest at replikere. Det er her, vi ser den mest vedvarende strukturelle værdi.
Kagen er langt fra færdigbygget, og store dele af infrastrukturen mangler stadig at blive etableret. Men strukturen er tydelig, og det er den, vi investerer efter i Techwave.
Denne nyhed er udelukkende udarbejdet med henblik på information og skal ikke opfattes som en anbefaling om at købe eller sælge værdipapirer i de nævnte selskaber.
Få tech-indsigterne, før de rammer markedet
I vores ugentlige nyhedsbrev deler vi analyser af AI, datacentre og teknologiaktier, så du forstår markedets bevægelser før de bliver mainstream.