Skip links

Techwaves 5 lags AI kage – Bygget på Jensen Huangs fundament

Techwaves 5 lags AI kage – Bygget på Jensen Huangs fundament

Jensen Huang, CEO i Nvidia, beskrev for nylig AI på en måde, mange stadig overser. Ikke som software. Ikke som et produkt. Men som industriel infrastruktur bygget i fem lag, fra energi i bunden til applikationer i toppen. Hvert lag er en forudsætning for det næste, og hele systemet fungerer kun, hvis alle lag skalerer samtidig.

The AI Five-Layer Cake

I bunden ligger energien, som er fundamentet for al beregning. Ovenpå kommer chips, hvor strøm omsættes til compute gennem GPU’er, memory og interconnect. Herefter følger infrastrukturen, hvor datacentre, netværk og køling gør det muligt at skalere compute i praksis. Ovenpå ligger modellerne, som skaber intelligensen, og øverst applikationerne, hvor værdien realiseres. Den opdeling har vi forsøgt at visualisere nedenfor, hvor vi samtidig viser, hvordan fondens positioner er placeret på tværs af lagene.

The AI Five-Layer Cake
The AI Five-Layer Cake
05
Applikationer
Software · Platforme · Cybersikkerhed
GOOGL
MSFT
AMZN
NET
PLTR
APP
CRWD
PANW
UBER
MELI
NU
RBRK
Her møder AI brugeren — software, platforme og sikkerhed der omsætter modellernes evner til reel værdi.
04
Modeller
Sprogmodeller · LLM
GOOGL
MSFT
AMZN
Øvrige er privatejet
Hjernen i stacken — sprogmodeller der forstår, ræsonnerer og genererer. Domineret af få, lukkede aktører.
03
Infrastruktur
AI-fabrikker · Netværk · Køling
AMZN
MSFT
GOOGL
VRT
CLS
ANET
CRWV
NBIS
IREN
AI-fabrikkerne hvor modellerne trænes og infereres — fysiske datacentre med tusindvis af servere, højhastigheds-netværk og industriel køling.
02
Chips
GPU'er · HBM · Litografi
NVDA
MU
TSM
ASML
AVGO
SNDK
HY9H
LITE
ALAB
AMZN
GOOGL
Regnekraften AI ikke kan eksistere uden — GPU'er, hukommelse og det udstyr der producerer dem.
01
Energi
Strøm · Det absolutte fundament
BE
CEG
IREN
Det absolutte fundament — uden strøm, ingen AI. Datacentrenes enorme energiforbrug gør strøm til en strategisk ressource.

En selvforstærkende værdikæde

En af de mest undervurderede dynamikker i AI-økosystemet er, hvordan efterspørgslen bevæger sig gennem lagene.

Når modeller bliver bedre, billigere og mere tilgængelige, sænkes adgangsbarrieren i toppen af stakken. Det gør det muligt for flere virksomheder at bygge applikationer, og det øger hastigheden, hvormed nye use cases bliver testet og udrullet. Det er den del, de fleste fokuserer på.

Men det, der ofte overses, er konsekvensen længere nede i systemet. Øget aktivitet i applikationslaget fører direkte til flere forespørgsler, mere inference og højere belastning på de underliggende systemer. Det betyder øget efterspørgsel på compute, som igen øger behovet for avancerede chips, høj-båndbredde memory, netværkskapacitet og i sidste ende elektricitet. Det er ikke lineært. Det er en kædereaktion.

Hvert lag forstærker de øvrige. Lavere adgangsbarriere i toppen skaber højere kapacitetskrav i bunden. Og fordi flere af de underliggende lag er kapitaltunge og tidskrævende at udbygge, opstår der flaskehalse. Det er netop disse flaskehalse, der i sidste ende bliver økonomisk interessante.

Porteføljen afspejler strukturen

Når man ser AI som infrastruktur, bliver vores allokering logisk. Vi fokuserer på de lag, hvor afhængighederne er størst, og hvor kapacitet ikke bare kan skaleres hurtigt.

Det gælder især chips og memory. NVIDIA, Broadcom Micron, TSMC, ASML og SK Hynix er ikke bare eksponering mod AI. De er fundamentet for, at AI overhovedet kan eksistere. Uanset hvilken model eller applikation der vinder, vil efterspørgslen på compute og memory bestå. Særligt memory er centralt. HBM har ændret økonomien i AI-hardware, og udbuddet er koncentreret på få aktører. Det skaber en klassisk ubalance mellem efterspørgsel og kapacitet.

AI skalerer i modellen men begrænses af infrastrukturen

AI skalerer i to dimensioner samtidig, både i modellen og i infrastrukturen, hvor den ene driver kvaliteten, mens den anden afgør, om kvaliteten overhovedet kan udnyttes i praksis. Model-skalering forbedrer output gennem flere parametre, bedre arkitektur og mere data, hvilket samlet øger intelligensen i systemet, men hver forbedring øger samtidig kravene til compute, memory og båndbredde, og det flytter presset ned i infrastrukturen, hvor man rammer Jevons paradox.

Når modeller bliver bedre og billigere at køre, falder prisen per token, hvilket gør det muligt at anvende AI bredere, oftere og i langt tungere workflows, og resultatet er ikke et lavere samlet compute-forbrug, men et højere, fordi effektivitet driver efterspørgsel. Det er derfor, presset i systemet ikke aftager, men i stedet forstærkes.

Datacentret er ikke bare et sted, hvor compute står, men et distribueret system, hvor tusindvis af GPU’er skal fungere som én samlet enhed, hvilket stiller krav til høj båndbredde mellem noder, lav latency i netværket og effektiv håndtering af memory. Hvis data ikke kan flyttes hurtigt nok, falder udnyttelsesgraden, og hvis interconnect ikke kan følge med, står compute i praksis stille.

Arista Networks opererer i netværkslaget, hvor east-west trafik mellem GPU’er er afgørende for performance, mens Lumentum leverer de optiske komponenter, der muliggør højhastigheds dataoverførsel mellem noder, hvor kobber ikke længere er tilstrækkeligt ved skala. Vertiv håndterer strøm og køling, hvor rack density og varmeafledning sætter de fysiske grænser for, hvor meget compute der kan pakkes sammen, og Celestica integrerer systemerne, så komponenterne fungerer som en samlet platform.

Når man bevæger sig fra enkeltstående workloads til store clusters, flytter bottlenecken sig væk fra selve chippen og over i dataflow, memory access og energitæthed, og det betyder, at det ikke er nok at have mere compute, hvis det ikke kan udnyttes effektivt.

Det er også derfor, dette lag er kapitaltungt og langsomt at skalere, fordi kapacitet bygges i megawatt, netværksarkitektur og fysisk integration, og ikke kan opdateres med software, men skal designes, bygges og implementeres over tid.

Når efterspørgslen på AI vokser hurtigere end infrastrukturen kan følge med, opstår der en reel begrænsning i systemet, og det er i den situation, man ser strukturel pricing power, ikke fordi produkterne nødvendigvis er unikke i funktion, men fordi de er nødvendige, og fordi kapaciteten er knap.

Energi er den reelle begræsning

I bunden af hele AI-stakken ligger energien, og det er i sidste ende her, systemet afgøres. AI er ikke bare software, det er strøm omsat til intelligens, og hver model, hver forespørgsel og hvert datacenter øger belastningen på et elnet, der ikke er bygget til det tempo, vi ser nu. Bloom Energy og Constellation Energy repræsenterer forskellige måder at adressere den udfordring på, men pointen er den samme. Energi kan ikke skaleres som software. Det tager tid, kræver kapital, regulering og fysisk udbygning, og netop derfor er det et af de mest undervurderede lag i hele stakken. Når resten af systemet accelererer, bliver energien ikke bare en inputfaktor, men en reel begrænsning for, hvor hurtigt AI kan vokse.

Værdien ligger i fundamentet

Applikationslaget er det mest synlige, og det er her AI materialiserer sig i produkter og forretning. Microsoft, Alphabet, Amazon og Cloudflare har skala, distribution og indtjening, mens mere fokuserede selskaber som Palantir og AppLovin allerede begynder at omsætte AI direkte til vækst. Men det er også her konkurrencen er hårdest, barrieren lavere og skift sker hurtigere.

AI udvikler sig ikke som klassisk software, hvor værdien primært ligger i applikationen. Det er et system, der bygges lag for lag, hvor hvert lag er afhængigt af det næste, og hvor begrænsninger ét sted kan definere udviklingen i hele stakken. Det betyder, at værdien ikke nødvendigvis opstår der, hvor den er mest synlig, men i de lag, der gør hele systemet muligt.

Compute, memory, infrastruktur og energi er ikke bare inputfaktorer. Det er forudsætningerne for, at AI overhovedet kan skaleres, og det er samtidig de lag, der er sværest at replikere. Det er her, vi ser den mest vedvarende strukturelle værdi.

Kagen er langt fra færdigbygget, og store dele af infrastrukturen mangler stadig at blive etableret. Men strukturen er tydelig, og det er den, vi investerer efter i Techwave.

Denne nyhed er udelukkende udarbejdet med henblik på information og skal ikke opfattes som en anbefaling om at købe eller sælge værdipapirer i de nævnte selskaber.

tech-indsigterne, før de rammer markedet

I vores ugentlige nyhedsbrev deler vi analyser af AI, datacentre og teknologiaktier, så du forstår markedets bevægelser før de bliver mainstream.


    Historisk Afkast
    This website uses cookies to improve your web experience.
    Privatlivsoverblik

    Denne hjemmeside bruger cookies for at kunne give dig den bedst mulige brugeroplevelse. Cookie-oplysninger gemmes i din browser og udfører funktioner som at genkende dig, når du vender tilbage til vores hjemmeside, og hjælper vores team med at forstå, hvilke sektioner af hjemmesiden du finder mest interessante og nyttige.

    Ved at godkende vores generelle cookie-politikker accepterer du samtidig vores privatlivspolitik, som du kan læse her: https://techwave.fund/om-techwave/privatlivspolitik/.