Generativ KI-revolusjon: Innvirkningen på NVIDIA- og TSMC-aksjene

Generativ KI-revolusjon: Innvirkningen på NVIDIA- og TSMC-aksjene

GPT-5 og Groq-4: Ett år etter lansering – Effekter på omsetning og markedsverdi for NVIDIA og TSMC

Eksplosiv økning i salg av KI-halvledere:

Etter den eksplosive etterspørselen etter KI-brikker for datasentre i GPT-4-æraen, økte NVIDIAs datasentersegment omsetningen med 112 % sammenlignet med året før, og nådde en kvartalsomsetning på 30,77 milliarder dollar. Denne omsetningen utgjør mer enn halvparten av de totale inntektene, drevet av massive investeringer fra skylagringstjenesteleverandører i ekstremt store modeller, noe som resulterte i tremannsvekst over to påfølgende kvartaler.

Samtidig har TSMC dratt nytte av boom i produksjon av KI-brikker: Omsetningen fra deres HPC-(High Performance Computing)-plattformer økte med 58 % sammenlignet med året før, og utgjør nå 51 % av den forventede årsomsetningen for 2024. TSMCs administrerende direktør uttalte at «KI-akseleratorinntektene i 2024 har tredoblet seg, og det forventes at de vil mer enn dobles i 2025».

Innføringen av GPT-5 vil ytterligere stimulere etterspørselen etter opplæring og inferens for KI-modeller, noe som vil forsterke denne omsetningsfremmende effekten. For eksempel sies det at OpenAI benyttet omtrent 25 000 NVIDIA A100 GPUer for trening av GPT-5, noe som sannsynligvis vil føre til storskala GPU-innkjøp og betydelige investeringer i datasentre.

I tillegg økte de globale CapEx-utgiftene (kapitalinvesteringer) for hyperscale-datasentre med 82 % i tredje kvartal 2024, hovedsakelig drevet av investeringer i KI-infrastruktur.

Økende markedsverdi:

Siden lanseringen av GPT-4, som utløste en eksplosiv etterspørsel etter KI-halvledere, har både NVIDIA og TSMC sett en betydelig økning i markedsverdien. NVIDIA steg fra en markedsverdi på 1,2 billioner dollar ved utgangen av 2023 til 3,28 billioner dollar ved utgangen av 2024 – en økning på over 2 billioner dollar på bare ett år – og inntok dermed den nest største posisjonen globalt. I oktober 2024 overgikk NVIDIA midlertidig Apple, og ble kort tid verdens mest verdifulle selskap.

TSMC har også dratt nytte av KI-bølgen; i oktober 2024 nådde deres markedsverdi omtrent 833 milliarder dollar, og aksjekursen steg med over 90 % i løpet av året. TSMC har befestet sin posisjon som den eksklusive produksjonspartneren for avanserte KI-brikker til ledende selskaper som NVIDIA og AMD, noe som betyr at økningen i KI-etterspørselen umiddelbart reflekteres i selskapets resultater og markedsverdi.

Ett år etter lanseringen av GPT-5 og Groq-4 forventes andelen av datasenteromsetningen hos NVIDIA (for tiden over 50 %) å øke ytterligere, mens andelen HPC/AI-brikker hos TSMC også vil vokse – noe som vil styrke den finansielle soliditeten til begge selskaper. Det er spesielt bemerkelsesverdig at 74 % av TSMCs omsetning kommer fra avanserte produksjonsprosesser med 7nm eller mindre, noe som gir dem direkte fordel i KI-æraen.

Utvidelse av servere og infrastruktur:

Innføringen av hyperskaler-modeller som GPT-5 har intensifisert konkurransen blant globale skytilbydere om å utvide datasentrene sine. I 2024 investerte de store teknologiselskapene anslagsvis 236 milliarder dollar i nye infrastrukturprosjekter – en økning på mer enn 50 % sammenlignet med året før – og selskaper som AWS og Google planlegger å investere flere hundre milliarder dollar i utvidelsen av KI-infrastrukturen i årene som kommer.

Faktisk ble 40 % av den globale CapEx for datasentre i tredje kvartal 2024 brukt til KI-infrastruktur (akseleratorservere). NVIDIA GPU-baserte KI-servere utgjør allerede opptil 40 % av OEM-serveromsetningen, og etterspørselen etter dedikerte KI-treningsservere kompenserer for nedgangen i det tradisjonelle servermarkedet, noe som driver en topptallsvekst.

Ett år etter lanseringen av GPT-5 forventes det at de ledende skytilbyderne vil etablere datasentre utstyrt med H100/H200 GPU-klynger og Groq-akseleratorer, mens økt adopsjon av KI i bedrifter vil føre til en årlig økning i etterspørselen etter KI-brikker på 30–40 % eller mer.

Sammendrag:

I æraen med GPT-5 og Groq-4 vil NVIDIA og TSMC oppnå eksepsjonelle, KI-spesifikke resultater og en betydelig økning i markedsverdien, noe som vil overgå investorenes forventninger.

GPT-6 og Groq-5: Ett år etter lansering – Utsikter for forbedret ytelse og markedsvekst

Forbedret regnekraft med GPT-6:

Det forventes at GPT-6 vil ha en betydelig høyere regnekraft og intelligens sammenlignet med sine forgjengere. Mens GPT-5 anslås å kreve omtrent 1,7×10^26 FLOPs (flyttallsoperasjoner) for trening, kan GPT-6 kreve enda større regnekapasitet eller oppnå en vesentlig høyere effektivitet gjennom en optimalisert modellarkitektur. OpenAI har tidligere understreket at «jo smartere en modell blir, desto viktigere blir høy kvalitet på data og optimalisert inferens», noe som indikerer at GPT-6 vil legge stor vekt på effektivitet.

Med økt antall parametere og utvidede multimodale evner vil GPT-6 kreve langt mer datakraft enn GPT-5. For å møte disse kravene vil NVIDIA introdusere sin nye GPU-arkitektur (etterfølgeren til Blackwell-serien), som vil forbedre både behandlinghastigheten og energieffektiviteten betydelig. Samtidig vil Groq-5-akseleratoren videreutvikle den eksisterende LPU-arkitekturen, slik at den kan oppnå ekstremt lav latenstid og høy energieffektivitet. For tiden har Groq LPU vist en generasjonsrate på 241 tokens per sekund i Meta Llama2-70B-benchmarken – mer enn dobbelt så raskt som sammenlignbare GPUer – samtidig som den oppnår ti ganger høyere energieffektivitet.

Sammenligning av regnekraft og energieffektivitet:

Ved å sammenligne neste generasjon NVIDIA GPUer med Groq-5 blir det tydelig at selv om GPUer fortsatt har fordelen når det gjelder allsidighet, vil spesialiserte brikker som LPU sannsynligvis være overlegne når det gjelder energieffektivitet. Groq hevder at deres LPU er «minst 10 ganger mer energieffektiv» enn tradisjonelle GPUer. For eksempel bruker GroqCard bare 1–3 Joule per token, mens NVIDIA GPUer bruker 10–30 Joule per token. I GPT-6-æraen vil energieffektiviteten per watt (Watt/Token) bli en kritisk måleenhet, særlig med tanke på de energibegrensningene som datasentre møter. I praksis vil GPUer primært bli brukt til trening, mens systemer basert på LPU vil bli benyttet til sanntidsinferenz.

Markedsutsikter for neste generasjon KI-akseleratorer:

Lanseringen av GPT-6 og Groq-5 forventes å drive en eksponentiell vekst i markedet for KI-akseleratorer. I 2024 estimeres det at det globale markedet for KI-brikker og akseleratorteknologi vil ligge på omtrent 11 milliarder dollar, med en prognostisert årlig vekst som vil nå over 130 milliarder dollar innen 2030 – en økning på mer enn ti ganger. NVIDIA forventes å opprettholde en markedsandel på 74 % i dette segmentet, mens Mizho Securities forutser at NVIDIAs KI-relaterte omsetning vil nå 259 milliarder dollar i 2027, mer enn fire ganger dagens nivå.

Denne veksten vil hovedsakelig bli drevet av den massive adopsjonen av GPT-6-teknologi, noe som vil føre til at selskaper ikke bare utvider sine datasentre, men også bygger sine egne interne GPU- og KI-akseleratorklynger. Parallelt med dette vil utviklingen av skreddersydde KI-ASICer (som Google TPU og AWS Inferentia) akselerere, noe som kan redusere NVIDIAs dominerende posisjon noe. Tross alt vil TSMC fortsatt dra nytte av ordrer for disse tilpassede brikkene.

Det tette partnerskapet mellom NVIDIA og TSMC forblir solid: Det forventes at NVIDIAs markedsverdi ved utgangen av 2024 vil nærme seg 3,6 billioner dollar, mens TSMC vil sette nye kvartalsrekorder takket være den økende etterspørselen etter HPC.

Analyse av GPU-etterspørsel og utvidelse av datasentre for utvikling av AGI

Sammenligning av beregningskrav: AGI vs. eksisterende modeller:

Kunstig generell intelligens (AGI) må være i stand til å utføre et bredt spekter av oppgaver på menneskelig nivå, noe som innebærer at den krever en eksponentielt høyere regnekraft enn dagens modeller som GPT-4 eller GPT-5, som allerede forbruker mellom 10^25 og 10^26 FLOPs under trening. Enkelte investorer forutser at det innen 2026 vil bli solgt GPUer som kan trene 1 000 modeller på GPT-5-nivå – basert på en antakelse om 1,7×10^26 FLOPs per modell. Siden AGI er langt mer kompleks, kan treningskostnadene nå titalls milliarder dollar. Morgan Stanley anslår at treningen av GPT-5 kostet omtrent 225 millioner dollar i NVIDIA A100 GPUer (omtrent 25 000 enheter), og det forventes at realiseringen av AGI vil kreve et multiplum av disse regneressursene. Enkelte prognoser antyder til og med at det, for å oppnå AGI innen 2030, vil kreves investeringer på 1 billion dollar og at 20 % av den totale strømforbruket i USA benyttes – noe som viser at dagens H100/H200 GPUer ikke strekker til.

Antall nødvendige GPUer og omfanget av infrastrukturen:

For å utvikle og drifte AGI vil det kreves GPU-klynger og datasenterinfrastruktur i en skala som langt overgår dagens AI-treningsklynger. De største AI-treningsklyngene i dag består av titusenvis av GPUer (for eksempel superdatamaskiner hos Microsoft og OpenAI som benytter titusenvis av A100 GPUer), men for AGI kan det være nødvendig å koble sammen hundretusenvis eller til og med millioner av høyytelses-GPUer i parallell for å skape superdatamaskiner i enestående skala. De innledende investeringskostnadene kan nå billioner av dollar, med enorme utgifter til bygging av datasentre, kjølesystemer og elektrisk infrastruktur.

Mustafa Suleyman, ansvarlig for KI hos Microsoft, uttalte at «maskinvaren i dagens generasjon (for eksempel NVIDIA Blackwell GB200 GPU) er ikke tilstrekkelig for å realisere AGI; det vil være nødvendig med 2 til 5 nye generasjoner med innovasjoner innen maskinvare», noe som antyder at betydelige teknologiske fremskritt og en substansiell økning i produksjonen av brikker vil være uunnværlig i løpet av de neste 5 til 10 årene. I tredje kvartal 2024 økte CapEx-utgiftene for hyperscale-datasentre i USA med 82 %, hvor en vesentlig andel ble investert i akseleratorservere. I utviklingsfasen for AGI kan disse investeringene vokse ytterligere, slik at det blir nødvendig å bygge og drifte flere exascale-datasentre samtidig for ett enkelt prosjekt.

Energiforbruk og krav til fysisk infrastruktur:

For å kjøre de kontinuerlige beregningsoppgavene som AGI krever, vil det være uunngåelig med et enormt energiforbruk. Selv dagens modeller, som GPT-4, forbruker betydelige mengder energi under inferens, og AGI forventes å ha et energiforbruk på nivå med superdatamaskiner. Ifølge enkelte rapporter kan KI og superintelligens innen 2030 potensielt forbruke opptil 20 % av den totale strømmen i USA – et tall som tilsvarer flere hundre TWh, nok til å dekke strømbehovet til millioner av husholdninger.

Derfor må datasentre som er designet for AGI, ikke bare kunne romme et stort antall GPUer, men også ha et robust strømnett og en infrastruktur som er optimalisert for maksimal energieffektivitet. Banebrytende teknologier som neste generasjons halvlederprosesser (3nm → 2nm → 1nm), væskekjølesystemer, modulære datasenters design og andre innovative løsninger vil spille en avgjørende rolle. NVIDIA har allerede presentert GPU-racks med væskekjøling og forbedrede PUE-(Power Usage Efficiency)-løsninger. Et datasenter dedikert til AGI, som skal huse titusenvis av GPUer, kan kreve et areal tilsvarende flere fotballbaner, samt elektriske anlegg i stor skala som sammenlignes med transformatorstasjoner.

Sammenfattende krever realiseringen av AGI investeringer i maskinvare og infrastruktur som er minst 10 ganger høyere enn for dagens GPT-4/5-systemer – en enorm utfordring for GPU-leverandører som NVIDIA, produsenter som TSMC, samt for energi- og byggebransjen.

Perspektiver for de ledende aktørene: Broadcom, SK Hynix og Samsung Electronics – Fremtiden for KI-halvledere og datasenterinfrastruktur

Broadcom:

Broadcom har lenge vært en ledende aktør innen skreddersydde brikker for datasentre og har ytterligere styrket sin posisjon i takt med KI-boomen. Siden selskapet bidro til utviklingen av Google TPU (fra TPU v1 i 2016), økte Broadcoms Google-relaterte omsetning fra 50 millioner dollar i 2015 til 750 millioner dollar i 2020.

Selskapet leverer tilpassede AI-ASICer til store skylagringstjenesteleverandører som AWS og Microsoft, og tilbyr også nettverksløsninger (svitsjer, rutere, NIC-er) for KI-datasentre. I første kvartal 2024 nådde Broadcoms halvlederomsetning 7,39 milliarder dollar, hvorav 3,3 milliarder dollar (en økning på 46 % sammenlignet med året før) kom fra nettverkssegmentet, og omsetningen fra AI-ASICer og nettverksløsninger utgjorde 2,3 milliarder dollar, tilsvarende 31 % av totalen – en firedobling sammenlignet med forrige år. Broadcom forventer at andelen inntekter knyttet til KI vil overstige 35 % i 2024, og at de årlige KI-inntektene vil overstige 10 milliarder dollar.

SK Hynix:

SK Hynix er en av de største mottakerne av KI-boomen og har etablert seg som en leder i HBM-markedet (High Bandwidth Memory). I 2024 nådde SK Hynix en omsetning på 66,2 billioner won (omtrent 46,3 milliarder dollar), en økning på 102 % sammenlignet med året før, mens driftsresultatet nådde 23,5 billioner won, med en driftsmargin på 35 %.

Takket være den økte etterspørselen etter DRAM for KI-applikasjoner, gikk SK Hynix fra tap i 2023 til betydelige overskudd i 2024, der HBM-salget utgjorde over 40 % av total DRAM-omsetning. SK Hynix leverer for eksempel HBM3 til NVIDIA H100, og sikrer seg dermed en markedsandel på 50 % i HBM-segmentet, med produksjonskapasiteten for 2024–2025 allerede fullbooket. Ledelsen forventer at veksten i KI-minneetterspørselen vil føre til ytterligere vekst i HBM-inntektene.

Samsung Electronics:

Samsung Electronics forbereder seg både innen minne og foundry for KI-æraen. På minnesiden akselererer Samsung masseproduksjonen av HBM3/3E for å forsyne viktige kunder som NVIDIA, og har utviklet den første 12-lags HBM3E-løsningen, med utsikt til at den skal benyttes i fremtidige NVIDIA-GPUer.

Selv om Samsungs markedsandel i HBM-segmentet er noe lavere enn SK Hynix (forventet HBM-markedsandel på rundt 42 % i 2024), satser Samsung på å vinne tilbake lederskapet gjennom aggressive FoU-investeringer for å utvikle HBM4 med 16 lag.

I foundry-segmentet har Samsung, for å konkurrere med TSMC, introdusert den første 3nm GAA-prosessen i verden, selv om de møtte innledende problemer med utbyttet. Etter at prosessene har stabilisert seg, har Samsung annonsert at de vil starte masseproduksjon av 2nm-prosessen i andre halvdel av 2025, og at de fra 2026 vil begynne produksjon av 2nm-brikker ved sitt anlegg i Texas, for å utvide den globale produksjonskapasiteten.

Videre forbereder Samsung seg på en fremtidig 1nm (eller 1,4nm)-æra ved å innføre banebrytende prosessteknologier, mens TSMC planlegger å lansere en 1,6nm-node (en forbedret versjon av 2nm) i 2026. Selv om Samsung for tiden ligger noe teknologisk etterslep i forhold til TSMC, kan massive investeringer og innovative teknologier bidra til å redusere dette gapet.

TSMC vs. Samsung Electronics: Utsikter for produksjonsprosesser for AGI-halvledere (1nm vs. 2nm)

Optimale prosesser for AGI:

For å utvikle brikker til kunstig generell intelligens (AGI) er det avgjørende å bruke de mest avanserte halvlederprosessene for å maksimere integrasjonstettheten og optimalisere energieffektiviteten. Ifølge dagens veikart forventes en 2nm-prosess med Gate-All-Around (GAA)-teknologi å gå i masseproduksjon rundt 2025–2026, etterfulgt av en 1.x nm-prosess (med en gate-lengde under 10Å) planlagt for 2027–2028.

Begrepet «1nm-prosess» omfatter i realiteten forbedrede varianter av 2nm-prosessen, slik som 1,4nm og 1,2nm. For eksempel planlegger TSMC å forberede en 1,6nm-node (N1.6) rundt 2026, mens Samsung sikter mot masseproduksjon av en 1,4nm-prosess i 2027.

Fra et chipdesignperspektiv vil en 1nm-prosess kunne tilby en vesentlig høyere tetthet av transistorer enn en 2nm-prosess, noe som dramatisk vil øke den parallelle beregningskapasiteten og redusere energiforbruket med 20–30 % for tilsvarende ytelse. Begge selskaper har satt seg mål om en hastighetsøkning på omtrent 10–15 % og en reduksjon i energiforbruket på 25–30 % ved overgangen til en 2nm-prosess, noe som gjør 1nm-prosessen til en nøkkelfaktor for å realisere effektiv og kostnadseffektiv AGI-maskinvare.

Utvikling og gjennomførbarhet av 1nm-prosessen:

Forskning på noder under 1nm er allerede i gang, og de ledende fonderiene sikter mot masseproduksjon i løpet av andre halvdel av 2020-tallet. TSMC har nylig kunngjort at de planlegger å produsere brikker med opptil 1 billion transistorer innen 2030, mens IMECs veikart i Belgia indikerer at forskning på noder på 0,7nm og 0,5nm også er i gang.

Selv om de tekniske utfordringene er betydelige, forventes det at overgangen fra 5nm til 3nm – muliggjort av nye materialer som nanosheets og 2D-materialer samt innovative prosessmetoder som High-NA EUV-litografi – også for 1nm-prosessen vil bli overvunnet ved hjelp av tilsvarende innovasjoner. For eksempel kan en utvidelse av GAA-FET-teknologien eller implementering av avanserte transistorstrukturer som MBCFET spille en vesentlig rolle.

Muligheter for Samsung til å redusere teknologigapet med TSMC:

Historisk sett lå Samsung omtrent 12 år bak TSMC teknologisk, men med innføringen av 3nm GAA-teknologi reduseres dette gapet gradvis, selv om TSMC fortsatt har en liten fordel. I perioden 2022–2023 tapte Samsung en betydelig andel av ordrene fra Qualcomm og NVIDIA på grunn av innledende problemer med 4nm/3nm-prosesser, mens TSMC gjennom stabil 3nm-produksjon klarte å vinne tilliten til sine viktigste kunder.

For 2nm-generasjonen kan situasjonen endres: Det blir stadig mer sannsynlig at Qualcomm vil overlate produksjonen av sine 2nm Snapdragon-brikker, planlagt for 2025–2026, til Samsung. Dette vil gi Samsung verdifull erfaring og styrke konkurranseevnen ved overgangen til en 1,4nm-node. I tillegg vil støttende tiltak fra USA og Europa skape et gunstig miljø for Samsung.

Teknisk sett markerer TSMCs 2nm-prosess den første overgangen fra FinFET til en nanosheet-basert GAA-teknologi, mens Samsungs 2nm-prosess bygger på erfaringene fra 3nm. Enkelte analyser anslår at TSMCs 2nm-prosess kan forbedre energieffektiviteten med 30 %, mens Samsung har et mål om 25 % – selv om den endelige ytelsen vil bli bestemt i en intens konkurranse. I 1nm-æraen vil begge selskaper begi seg inn i ukjent terreng, noe som gir Samsung muligheten til å fullstendig utjevne teknologigapet.

Fra et investorperspektiv vil en reduksjon av teknologigapet bety økt lønnsomhet og en potensiell økning i Samsungs markedsverdi, samtidig som det utgjør en utfordring for TSMCs teknologiske lederskap. Til syvende og sist er det sannsynlig at begge selskaper vil lykkes med å komme inn på markedet i 1nm-æraen og opprettholde et balansert konkurransemiljø på mellomlang og lang sikt, noe som vil fremme stabiliteten i produksjonskapasiteten for avanserte KI-brikker.

🔎 SEO-nøkkelord: GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, KI-halvledere, markedsverdi, datasentre, HBM, 2nm, 1nm, AGI

💡 Sammendrag:

Innføringen av GPT-5/6-generasjonene og de innovative Groq-akseleratorene driver en eksplosjon i etterspørselen etter KI-brikker for datasentre. I 2024 økte NVIDIAs inntekter fra KI-brikker fra 1 billion dollar til 3 billioner dollar, mens TSMC opplevde en økning i HPC-inntekter på 58 % og en aksjekursøkning på over 90 %. For å realisere AGI vil det kreves opptil 10 ganger flere GPUer og ultra-store datasentre, støttet av avanserte energiløsninger og kjøleanlegg. Samtidig opplever ledende aktører som Broadcom (skreddersydde AI-ASICer og nettverksløsninger), SK Hynix (HBM-minne) og Samsung Electronics (banebrytende foundry-teknologier) en betydelig vekst i omsetning og lønnsomhet. Konkurransen mellom TSMC og Samsung innen 2nm/1nm-teknologi vil være en avgjørende faktor for fremtiden til AGI og markedet for KI-halvledere, som forventes å vokse med årlige satser på over 2030 %.

Skroll til toppen