
Generativ KI-Revolution: Indvirkningen på NVIDIA- og TSMC-aktierne
GPT-5 og Groq-4: Et år efter lanceringen – Effekter på omsætning og markedsværdi for NVIDIA og TSMC
Eksplosiv stigning i salget af KI-halvledere:
Efter den eksplosive efterspørgsel efter KI-chips til datacentre i GPT-4-æraen steg NVIDIAs datacentersegment med 112 % sammenlignet med året før og nåede en kvartalsomsætning på 30,77 milliarder dollar. Denne omsætning udgør mere end halvdelen af de samlede indtægter, drevet af massive investeringer fra cloud-tjenesteudbydere i ekstremt store modeller, hvilket resulterede i tredobbelt vækst over to på hinanden følgende kvartaler.
Samtidig har TSMC draget fordel af boom i produktionen af KI-chips: Omsætningen fra deres HPC-(High Performance Computing)-platforme steg med 58 % sammenlignet med året før og udgør nu 51 % af den forventede årsomsetning for 2024. TSMCs administrerende direktør udtalte, at «KI-acceleratorindtægterne i 2024 er tredoblet, og det forventes, at de vil mere end fordobles i 2025».
Introduktionen af GPT-5 vil yderligere stimulere efterspørgslen efter træning og inferens af KI-modeller, hvilket vil forstærke denne omsætningsdrivende effekt. For eksempel siges det, at OpenAI benyttede omtrent 25.000 NVIDIA A100 GPU’er til træning af GPT-5 – en indsats, der sandsynligvis vil medføre storskala GPU-indkøb og betydelige investeringer i datacentre.
Derudover steg de globale CapEx-udgifter (kapitalinvesteringer) for hyperscale-datacentre med 82 % i tredje kvartal 2024, primært drevet af investeringer i KI-infrastruktur.
Stigende markedsværdi:
Siden lanceringen af GPT-4, som udløste en eksplosiv efterspørgsel efter KI-halvledere, har både NVIDIA og TSMC oplevet en markant stigning i deres markedsværdi. NVIDIA gik fra en markedsværdi på 1,2 billioner dollar ved udgangen af 2023 til 3,28 billioner dollar ved udgangen af 2024 – en stigning på over 2 billioner dollar på blot ét år – og indtog dermed den næststørste position globalt. I oktober 2024 overgik NVIDIA midlertidigt Apple og blev kortvarigt verdens mest værdifulde selskab.
TSMC har også draget fordel af KI-bølgen; i oktober 2024 nåede deres markedsværdi cirka 833 milliarder dollar, og aktiekursen steg med over 90 % i løbet af året. TSMC har befæstet sin position som den eksklusive produktionspartner for avancerede KI-chips til førende virksomheder som NVIDIA og AMD, hvilket betyder, at stigningen i KI-efterspørgslen straks afspejles i deres resultater og markedsværdi.
Et år efter lanceringen af GPT-5 og Groq-4 forventes andelen af datacentersalget hos NVIDIA (i øjeblikket over 50 %) at stige yderligere, mens andelen af HPC/AI-chips hos TSMC også vil vokse – hvilket vil styrke den finansielle stabilitet for begge selskaber. Det er særligt bemærkelsesværdigt, at 74 % af TSMCs omsætning kommer fra avancerede produktionsprocesser med 7nm eller mindre, hvilket giver dem en direkte fordel i KI-æraen.
Udvidelse af servere og infrastruktur:
Introduktionen af hyperscale-modeller som GPT-5 har intensiveret konkurrencen blandt globale cloud-udbydere om at udvide deres datacentre. I 2024 investerede de store teknologiselskaber anslået 236 milliarder dollar i nye infrastrukturprojekter – en stigning på over 50 % sammenlignet med året før – og selskaber som AWS og Google planlægger at investere flere hundrede milliarder dollar i udvidelsen af KI-infrastrukturen i de kommende år.
Faktisk blev 40 % af den globale CapEx for datacentre i tredje kvartal 2024 brugt til KI-infrastruktur (acceleratorservere). NVIDIA GPU-baserede KI-servere udgør allerede op til 40 % af OEM-serveromsætningen, og efterspørgslen efter dedikerede KI-træningsservere kompenserer for faldet i det traditionelle servermarked, hvilket driver en topvækst.
Et år efter lanceringen af GPT-5 forventes de førende cloud-udbydere at etablere datacentre udstyret med H100/H200 GPU-klynger og Groq-acceleratorer, mens en øget adoption af KI i virksomheder vil føre til en årlig stigning i efterspørgslen efter KI-chips på 30–40 % eller mere.
Resumé:
I æraen med GPT-5 og Groq-4 vil NVIDIA og TSMC opnå ekstraordinære, KI-specifikke resultater samt en betydelig stigning i deres markedsværdi, hvilket vil overgå investeringsforventningerne.
GPT-6 og Groq-5: Et år efter lanceringen – Perspektiver for forbedret ydeevne og markedsvækst
Forbedret regnekraft med GPT-6:
Det forventes, at GPT-6 vil have en markant højere regnekraft og intelligens sammenlignet med sine forgængere. Mens GPT-5 anslås at kræve cirka 1,7×10^26 FLOPs (flydende point operationer) til træning, kan GPT-6 kræve endnu større regnekapacitet eller opnå en væsentligt højere effektivitet gennem en optimeret modelarkitektur. OpenAI har tidligere understreget, at “jo klogere en model bliver, desto vigtigere bliver data af høj kvalitet og optimeret inferens”, hvilket indikerer, at GPT-6 vil have et stort fokus på effektivitet.
Med en forøgelse af antallet af parametre og udvidede multimodale evner vil GPT-6 kræve langt mere datakraft end GPT-5. For at imødekomme disse krav vil NVIDIA lancere sin nye GPU-arkitektur (efterfølgeren til Blackwell-serien), som vil forbedre både behandlinghastigheden og energieffektiviteten betydeligt. Samtidig vil Groq-5-acceleratoren videreudvikle den eksisterende LPU-arkitektur, så den kan opnå ekstremt lav latenstid og høj energieffektivitet. I øjeblikket har Groq LPU vist en genereringshastighed på 241 tokens per sekund i Meta Llama2-70B-benchmark, hvilket er mere end dobbelt så hurtigt som sammenlignelige GPU’er, samtidig med at den opnår ti gange højere energieffektivitet.
Sammenligning af regnekraft og energieffektivitet:
Ved at sammenligne den næste generation af NVIDIA GPU’er med Groq-5 bliver det tydeligt, at selvom GPU’er stadig har den fordel, at de er alsidige, vil specialiserede chips som LPU sandsynligvis være overlegne, når det gælder energieffektivitet. Groq hævder, at deres LPU er “mindst 10 gange mere energieffektiv” end traditionelle GPU’er. For eksempel forbruger GroqCard kun 1–3 Joule per token, mens NVIDIA GPU’er bruger 10–30 Joule per token. I GPT-6-æraen vil energieffektiviteten pr. watt (Watt/Token) blive et kritisk måleparameter, især i lyset af de energibegrænsninger, som datacentre står overfor. I praksis forventes GPU’er primært at blive brugt til træning, mens systemer baseret på LPU vil blive benyttet til realtidsinferens.
Markedsudsigter for næste generations KI-acceleratorer:
Lanceringen af GPT-6 og Groq-5 forventes at drive en eksponentiel vækst i markedet for KI-acceleratorer. For 2024 anslås det, at det globale marked for KI-chips og acceleratorteknologi vil ligge på omkring 11 milliarder dollar, med en forventet årlig vækst, der vil nå over 130 milliarder dollar inden 2030 – en stigning på mere end ti gange. NVIDIA forventes at fastholde en markedsandel på 74 % i dette segment, mens Mizho Securities forudser, at NVIDIAs KI-relaterede omsætning vil nå 259 milliarder dollar i 2027 – mere end fire gange de nuværende niveauer.
Denne vækst vil primært blive drevet af den massive adoption af GPT-6-teknologi, hvilket vil få virksomheder til ikke blot at udvide deres datacentre, men også opbygge deres egne interne GPU- og KI-acceleratorklynger. Parallelt hermed vil udviklingen af specialfremstillede KI-ASIC’er (såsom Google TPU og AWS Inferentia) accelerere, hvilket delvist kan dæmpe NVIDIAs dominerende position. Alligevel forventes TSMC fortsat at drage fordel af ordrer på disse tilpassede chips.
Det tætte partnerskab mellem NVIDIA og TSMC forbliver solidt: Det forventes, at NVIDIAs markedsværdi ved udgangen af 2024 vil nærme sig 3,6 billioner dollar, mens TSMC vil sætte nye kvartalsrekorder takket være den stigende efterspørgsel inden for HPC.
Analyse af GPU-efterspørgsel og Udvidelse af Datacentre til Udvikling af AGI
Sammenligning af Beregningskrav: AGI vs. Eksisterende Modeller:
Kunstig generel intelligens (AGI) skal kunne udføre et bredt spektrum af opgaver på menneskeligt niveau, hvilket indebærer, at den kræver en eksponentielt højere regnekraft end de nuværende modeller som GPT-4 eller GPT-5, der allerede forbruger mellem 10^25 og 10^26 FLOPs under træning. Nogle investorer forudser, at der inden 2026 vil blive solgt GPU’er, der kan træne 1.000 modeller på GPT-5-niveau – baseret på en antagelse om 1,7×10^26 FLOPs pr. model. Da AGI er langt mere kompleks, kan træningsomkostningerne nå op i titalls milliarder dollar. Morgan Stanley anslår, at træningen af GPT-5 kostede omkring 225 millioner dollar i NVIDIA A100 GPU’er (omtrent 25.000 enheder), og det forventes, at realiseringen af AGI vil kræve et multipel af disse regneressourcer. Enkelte prognoser antyder endda, at der for at opnå AGI inden 2030 skal investeres 1 billion dollar, og at 20 % af den samlede elektricitet i USA skal anvendes – hvilket viser, at de nuværende H100/H200 GPU’er ikke er tilstrækkelige.
Nødvendigt Antal GPU’er og Infrastrukturens Omfang:
For at udvikle og drive AGI kræves GPU-klynger og datacentre i en skala, der langt overgår de nuværende AI-træningsklynger. De største AI-træningsklynger i dag består af titusindvis af GPU’er (for eksempel supercomputere hos Microsoft og OpenAI, der benytter titusindvis af A100 GPU’er), men til AGI kan det være nødvendigt at forbinde hundredtusindvis eller endda millioner af højtydende GPU’er parallelt for at skabe supercomputere i enestående skala. De indledende investeringsomkostninger kan nå op i billioner af dollar, med enorme udgifter til opførelse af datacentre, kølesystemer og elektrisk infrastruktur.
Mustafa Suleyman, ansvarlig for KI hos Microsoft, udtalte, at «hardware fra den nuværende generation (f.eks. NVIDIA Blackwell GB200 GPU) ikke er tilstrækkelig til at realisere AGI; der vil være behov for 2 til 5 nye generationer af innovativ hardware», hvilket antyder, at betydelige teknologiske fremskridt og en substansiel stigning i chipproduktionen vil være uundværlige i de næste 5 til 10 år. I tredje kvartal 2024 steg CapEx-udgifterne for hyperscale-datacentre i USA med 82 %, hvor en væsentlig del blev investeret i acceleratorservere. I udviklingsfasen for AGI kan disse investeringer vokse yderligere, således at det bliver nødvendigt at opføre og drive flere exascale-datacentre samtidigt for et enkelt projekt.
Energiforbrug og Krav til Fysisk Infrastruktur:
For at køre de kontinuerlige beregningsopgaver, som AGI kræver, vil der uundgåeligt være et enormt energiforbrug. Selv de nuværende modeller, som GPT-4, forbruger betydelige mængder energi under inferens, og AGI forventes at have et energiforbrug svarende til supercomputere. Ifølge enkelte rapporter kan KI og superintelligens inden 2030 potentielt forbruge op til 20 % af den samlede elektricitet i USA – et tal, der svarer til flere hundrede TWh og dækker behovet for millioner af husholdninger.
Derfor skal datacentre, der er designet til AGI, ikke blot kunne huse et stort antal GPU’er, men også have et robust elnet og en infrastruktur, der er optimeret for maksimal energieffektivitet. Banebrydende teknologier som næste generations halvlederprocesser (3nm → 2nm → 1nm), væskekølesystemer, modulære datacenterdesigns og andre innovative løsninger vil spille en afgørende rolle. NVIDIA har allerede præsenteret GPU-racks med væskekøling samt forbedrede PUE-(Power Usage Efficiency)-løsninger. Et datacenter dedikeret til AGI, der skal rumme titusindvis af GPU’er, kan kræve et areal svarende til flere fodboldbaner samt store elektriske anlæg, der sammenlignes med transformatorstationer.
Sammenfattende kræver realiseringen af AGI investeringer i hardware og infrastruktur, der er mindst 10 gange højere end for de nuværende GPT-4/5-systemer – en enorm udfordring for GPU-leverandører som NVIDIA, producenter som TSMC samt for energi- og byggebranchen.
Perspektiver fra de Ledende Aktører: Broadcom, SK Hynix og Samsung Electronics – Fremtiden for KI-Halvledere og Datacenterinfrastruktur
Broadcom:
Broadcom har i mange år været en førende aktør inden for skræddersyede chips til datacentre og har yderligere styrket sin position i takt med KI-boomet. Siden selskabet bidrog til udviklingen af Google TPU (fra TPU v1 i 2016) er Broadcoms Google-relaterede omsætning steget fra 50 millioner dollar i 2015 til 750 millioner dollar i 2020.
Virksomheden leverer tilpassede AI-ASIC’er til store cloud-udbydere som AWS og Microsoft og tilbyder desuden netværksløsninger (switche, routere, NIC’er) til KI-datacentre. I første kvartal 2024 nåede Broadcoms halvlederomsætning 7,39 milliarder dollar, hvoraf 3,3 milliarder dollar (en stigning på 46 % i forhold til året før) kom fra netværkssegmentet, og omsætningen fra AI-ASIC’er og netværksløsninger udgjorde 2,3 milliarder dollar – svarende til 31 % af den samlede omsætning, hvilket markerer en firedobling sammenlignet med året før. Broadcom forventer, at andelen af KI-relaterede indtægter i 2024 vil overstige 35 %, og at de årlige KI-indtægter vil overstige 10 milliarder dollar.
SK Hynix:
SK Hynix er en af de største modtagere af KI-boomet og har etableret sig som en leder på HBM-markedet (High Bandwidth Memory). I 2024 nåede SK Hynix en omsætning på 66,2 billioner won (omtrent 46,3 milliarder dollar), en stigning på 102 % i forhold til året før, mens driftsresultatet nåede 23,5 billioner won, svarende til en driftsmargin på 35 %.
Takket være den øgede efterspørgsel efter DRAM til KI-applikationer gik SK Hynix fra at have tab i 2023 til at opnå betydelige overskud i 2024, hvor HBM-salget udgjorde over 40 % af den samlede DRAM-omsætning. SK Hynix leverer for eksempel HBM3 til NVIDIA H100 og sikrer sig dermed en markedsandel på 50 % i HBM-segmentet, med produktionskapaciteten for 2024–2025 allerede fuldt booket. Ledelsen forventer, at væksten i efterspørgslen efter KI-hukommelse vil føre til yderligere stigning i HBM-indtægterne.
Samsung Electronics:
Samsung Electronics forbereder sig både inden for hukommelse og foundry til KI-æraen. På hukommelsessiden accelererer Samsung masseproduktionen af HBM3/3E for at forsyne vigtige kunder som NVIDIA og har udviklet den første 12-lags HBM3E-løsning med udsigt til, at den skal anvendes i fremtidige NVIDIA GPU’er.
Selvom Samsungs markedsandel inden for HBM-segmentet er en smule lavere end SK Hynix (den forventede HBM-markedsandel for 2024 er ca. 42 %), satser Samsung på at genvinde førerpositionen gennem aggressive FoU-investeringer til udvikling af HBM4 med 16 lag.
I foundry-segmentet har Samsung for at konkurrere med TSMC introduceret verdens første 3nm GAA-proces, selvom de oplevede indledende problemer med udbyttet. Efter stabilisering af processerne har Samsung annonceret, at de vil starte masseproduktion af 2nm-processen i anden halvdel af 2025 og fra 2026 påbegynde produktionen af 2nm-chips på deres anlæg i Texas, for at udvide den globale produktionskapacitet.
Desuden forbereder Samsung sig på en fremtidig 1nm (eller 1,4nm)-æra ved at implementere banebrydende procesløsninger, mens TSMC planlægger at lancere en 1,6nm-node (en forbedret version af 2nm) i 2026. Selvom Samsung i øjeblikket ligger en smule bag TSMC teknologisk, kan massive investeringer og innovative teknologier bidrage til at lukke dette gab.
TSMC vs. Samsung Electronics: Udsigter for Produktionsprocesser til AGI-Halvledere (1nm vs. 2nm)
Optimale processer for AGI:
For at udvikle chips til kunstig generel intelligens (AGI) er det afgørende at anvende de mest avancerede halvlederprocesser for at maksimere integrationstætheden og optimere energieffektiviteten. Ifølge de nuværende vejkort forventes en 2nm-proces med Gate-All-Around (GAA)-teknologi at gå i masseproduktion omkring 2025–2026, efterfulgt af en 1.x nm-proces (med en gate-længde under 10Å) planlagt til 2027–2028.
Begrebet “1nm-proces” omfatter reelt forbedrede varianter af 2nm-processen, såsom 1,4nm og 1,2nm. For eksempel planlægger TSMC at forberede en 1,6nm-node (N1.6) omkring 2026, mens Samsung sigter mod at lancere masseproduktion af en 1,4nm-proces i 2027.
Set fra et chipdesignperspektiv vil en 1nm-proces kunne tilbyde en væsentligt højere tæthed af transistorer end en 2nm-proces, hvilket dramatisk vil øge den parallelle beregningskapacitet og reducere energiforbruget med 20–30 % ved tilsvarende ydeevne. Begge selskaber har sat sig mål om en hastighedsforøgelse på cirka 10–15 % og en reduktion i energiforbruget på 25–30 % ved overgangen til en 2nm-proces, hvilket gør 1nm-processen til en nøglefaktor for realiseringen af effektiv og omkostningseffektiv AGI-hardware.
Udvikling og gennemførlighed af 1nm-processen:
Forskning i noder under 1nm er allerede i gang, og de førende foundries sigter mod masseproduktion i løbet af anden halvdel af 2020’erne. TSMC har for nylig annonceret, at de planlægger at producere chips med op til 1 billion transistorer inden 2030, mens IMECs vejkort i Belgien indikerer, at der også forskes i noder på 0,7nm og 0,5nm.
Selvom de tekniske udfordringer er betydelige, forventes det, at overgangen fra 5nm til 3nm – muliggjort af nye materialer som nanosheets og 2D-materialer samt innovative procesmetoder som High-NA EUV-litografi – også for 1nm-processen vil kunne overvindes ved hjælp af tilsvarende innovationer. For eksempel kan udvidelse af GAA-FET-teknologien eller implementering af avancerede transistorstrukturer som MBCFET spille en væsentlig rolle.
Muligheder for Samsung til at lukke det teknologiske gab med TSMC:
Historisk set lå Samsung cirka 12 år bag TSMC teknologisk, men med introduktionen af 3nm GAA-teknologi mindskes dette gab gradvist, selvom TSMC fortsat har en lille fordel. I perioden 2022–2023 mistede Samsung en betydelig andel af ordrerne fra Qualcomm og NVIDIA på grund af indledende problemer med 4nm/3nm-processerne, mens TSMC med sin stabile 3nm-produktion formåede at vinde de vigtigste kunders tillid.
For 2nm-generationen kan situationen ændre sig: Det bliver stadigt mere sandsynligt, at Qualcomm vil overlade produktionen af deres 2nm Snapdragon-chips, planlagt til 2025–2026, til Samsung. Dette vil give Samsung værdifuld erfaring og styrke deres konkurrenceevne i overgangen til en 1,4nm-node. Derudover vil støttende tiltag fra USA og Europa skabe et gunstigt miljø for Samsung.
Teknisk set markerer TSMCs 2nm-proces den første overgang fra FinFET til en nanosheet-baseret GAA-teknologi, mens Samsungs 2nm-proces bygger på erfaringerne fra 3nm. Enkelte analyser anslår, at TSMCs 2nm-proces kan forbedre energieffektiviteten med 30 %, mens Samsung sigter efter en forbedring på 25 % – selvom den endelige ydeevne vil blive fastlagt i en intens konkurrence. I 1nm-æraen vil begge selskaber bevæge sig ind i ukendt terræn, hvilket giver Samsung muligheden for fuldstændigt at lukke det teknologiske gab.
Fra et investorperspektiv vil en reduktion af det teknologiske gab betyde øget rentabilitet og en potentiel stigning i Samsungs markedsværdi, samtidig med at det udgør en udfordring for TSMCs teknologiske lederskab. I sidste ende er det sandsynligt, at begge selskaber vil få succes med at trænge ind på markedet i 1nm-æraen og opretholde et balanceret konkurrenceklima på mellem- og lang sigt, hvilket vil fremme stabiliteten i produktionskapaciteten for avancerede KI-brikker.
🔎 SEO-Nøgleord: GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, KI-halvledere, markedsværdi, datacentre, HBM, 2nm, 1nm, AGI
💡 Resumé:
Lanceringen af GPT-5/6-generationerne og de innovative Groq-acceleratorer driver en eksplosiv stigning i efterspørgslen efter KI-chips til datacentre. I 2024 steg NVIDIAs indtægter fra KI-chips fra 1 billion dollar til 3 billioner dollar, mens TSMC oplevede en stigning i HPC-indtægterne på 58 % og en aktiekursstigning på over 90 %. For at realisere AGI vil det kræves op til 10 gange flere GPU’er og ultrastore datacentre, understøttet af avancerede energiløsninger og køleanlæg. Samtidig oplever førende aktører som Broadcom (skreddersyede AI-ASIC’er og netværksløsninger), SK Hynix (HBM-hukommelse) og Samsung Electronics (banebrydende foundry-teknologier) en betydelig vækst i omsætning og rentabilitet. Konkurrencen mellem TSMC og Samsung inden for 2nm/1nm-teknologi vil være en afgørende faktor for fremtiden for AGI og markedet for KI-halvledere, som forventes at vokse med årlige vækstrater på over 2030 %.
Den fremtidige AGI og analyse af lovende virksomheder: Fra NVIDIA-chips til xAI Grok-3
Her er et forslag til en ekstern lenke på dansk som passer til tittelen “NVIDIA GTC 2025 – Oversigt: Fra Jensen Huangs hovedtale til AI-investeringsstrategier”:
“Få et komplet overblik over NVIDIA GTC 2025, fra Jensen Huangs hovedtale til AI-investeringsstrategier, i denne detaljerede opsummering.”
Jeg har brugt en generisk URL (https://example.com/nvidia-gtc-2025), da jeg ikke har en specifik ægte lenke. Hvis du vil have en faktisk lenke, kan jeg søge på nettet eller X for relevant indhold – bare sig til!