AI-Revolutionen: GPT5, GPT-6 & Groq4/5 – Effekten på NVIDIA, TSMC, AGI och mer!

AI-Revolutionen: GPT5, GPT-6 & Groq-4/5 – Effekten på NVIDIA, TSMC, AGI och mer!

GPT-5 och Groq-4: Ett år efter lanseringen – Effekter på omsättning och marknadsvärde för NVIDIA och TSMC

Ökad försäljning av AI-halvledare:

Efter den explosiva efterfrågan på AI-chip för datacenter under GPT-4-eran har NVIDIA:s datacentersegment ökat sin kvartalsomsättning med 112% jämfört med föregående år, med en intäkt om 30,77 miljarder dollar per kvartal. Detta utgör mer än hälften av företagets totala omsättning, drivet av investeringar i superstora modeller från molnleverantörer, vilket har resulterat i tredubbel-siffrig tillväxt under två kvartal i rad.

TSMC:s HPC (High Performance Computing)-plattformar har också sett en ökning på 58% jämfört med förra året, vilket nu står för 51% av deras årliga intäkter för 2024. TSMC:s VD har uttalat att “försäljningen av AI-acceleratorer tredubblades under 2024 och förväntas öka mer än dubbelt även under 2025.”

Med lanseringen av GPT-5 förväntas ökade krav på träning och inferens av AI-modeller ytterligare driva denna försäljningseffekt. OpenAI har exempelvis investerat i cirka 25 000 NVIDIA GPU:er (A100) för GPT-5-träningen, vilket sannolikt leder till storskaliga GPU-inköp och ytterligare investeringar i datacenter.

Som en följd av detta har globala hyperscale-leverantörers kapitalutgifter (CapEx) för datacenter ökat med 82% under 3:e kvartalet 2024, där AI-infrastruktur utgjorde en huvudfaktor.

Marknadsvärdesökning:

Efter att GPT-4 lanserats och drivit en explosion i efterfrågan på AI-halvledare har både NVIDIA och TSMC sett en dramatisk ökning i sitt företagsvärde. NVIDIA steg från ett marknadsvärde på 1,2 biljoner dollar vid slutet av 2023 till 3,28 biljoner dollar i slutet av 2024 – en ökning med över 2 biljoner dollar på bara ett år – och nådde därmed den globala andraplatsen i marknadsvärde. Under oktober 2024 lyckades NVIDIA tillfälligt utmana Apple och blev världens största börsvärderade företag under en kort period.

TSMC, å sin sida, drog nytta av AI-boomen och nådde ett marknadsvärde på cirka 833 miljarder dollar i oktober 2024, med en aktieökning på över 90% under året. TSMC har positionerat sig som en exklusiv tillverkare av avancerade AI-chip, vilket omedelbart reflekteras i deras resultat och företagsvärde.

Ett år efter lanseringen av GPT-5 och Groq-4 förväntas NVIDIAs datacentersegment bidra ännu mer (nu över 50%), medan TSMCs andel av HPC/AI-chip ökar, vilket stärker båda företagens finansiella fundament. Särskilt notabelt är att TSMC:s avancerade processer under 7nm eller mindre står för 74% av deras intäkter, vilket direkt drar nytta av den pågående AI-eran.

Utbyggnad av servrar och infrastruktur:

Med introduktionen av extremt stora modeller som GPT-5 intensifieras konkurrensen bland globala molnleverantörer att utöka sina datacenter. Under 2024 har de stora teknikföretagen investerat cirka 236 miljarder dollar i anläggningar – en ökning med över 50% jämfört med föregående år – och AWS, Google med flera planerar att fortsätta investera hundratals miljarder dollar i AI-infrastruktur under de kommande åren.

Faktum är att 40% av de globala datacenterutgifterna under 3:e kvartalet har gått till AI-infrastruktur (accelererade servrar). NVIDIA GPU-baserade AI-servrar utgör nu upp till 40% av OEM-serverförsäljningen, där efterfrågan på dedikerade AI-träningsservrar motverkar nedgången på den vanliga servermarknaden och bidrar till dubbel-siffrig tillväxt.

Ett år efter lanseringen av GPT-5 förväntas de stora molnleverantörerna ha byggt datacenter utrustade med fler H100/H200 GPU-kluster och Groq-acceleratorer, medan företag utvidgar sin AI-adoption, vilket förväntas driva en årlig tillväxt på AI-halvledarförsäljningen med över 30–40%.

Sammanfattning:

I GPT-5/Groq-4-eran förväntas NVIDIA och TSMC uppleva rekordhöga AI-specifika intäkter och marknadsvärdesökningar, vilket överträffar investerarnas förväntningar.

GPT-6 och Groq-5: Ett år efter lanseringen – Förbättrad prestanda och marknadstillväxt

Ökad beräkningskapacitet med GPT-6:

GPT-6 förväntas ha en signifikant högre beräkningskapacitet och intelligens jämfört med sina föregångare. Medan GPT-5 beräknas kräva omkring 1,7×10^26 FLOPs (flyttalsoperationer) för träning, kan GPT-6 komma att kräva ännu större beräkningsresurser eller uppnå effektivitet genom optimerade modellarkitekturer. OpenAI har tidigare framhållit att “ju smartare modellerna blir, desto viktigare blir högkvalitativa data och optimerad inferens”, vilket tyder på att GPT-6 kommer att fokusera på effektivitet.

En ökning i antalet parametrar och multimodala funktioner medför att GPT-6 kommer att kräva betydligt mer beräkningskraft jämfört med GPT-5. För att möta detta kommer NVIDIA:s nästa generations GPU-arkitektur (efter Blackwell) att introduceras, vilket förväntas förbättra både beräkningshastighet och energieffektivitet. Samtidigt kommer Groq-5-acceleratorn att vidareutveckla LPU-arkitekturen för att optimera för ultralåg latens och hög energieffektivitet. Redan nu har Groq LPU visat sig generera 241 tokens per sekund i Meta Llama2-70B-benchmark, vilket är över dubbelt så snabbt som jämförbara GPU:er, samt uppnått en tiofaldigt högre energieffektivitet. Groq-5 kommer att förstärka dessa fördelar för att utföra GPT-6-inferens betydligt snabbare under samma energiförbrukning.

Jämförelse av beräkningskraft och energieffektivitet:

När man jämför nästa generations NVIDIA GPU med Groq-5 framträder att GPU:erna fortsatt har fördelen i allsidighet, medan specialiserade chip som LPU förväntas leda i energieffektivitet. Groq har till exempel hävdat att deras LPU är “minst 10 gånger mer energieffektiv” jämfört med traditionella GPU:er. Med GroqCard, som konsumerar 1–3 Joule per token, jämfört med 10–30 Joule för NVIDIA GPU:er, blir effektiviteten särskilt viktig i en tid där datacenter begränsas av energiförbrukning. I GPT-6-eran kan en kombination av GPU:er för träning och LPU-baserade system för realtidsinferens bli normen.

Marknadsutsikter för nästa generations AI-acceleratorer:

Med introduktionen av GPT-6 och Groq-5 förväntas AI-acceleratormarknaden växa exponentiellt. Endast under 2024 uppskattas den globala marknaden för AI-chip och acceleratorteknik nå 11 miljarder dollar, med en prognostiserad årlig tillväxt till över 130 miljarder dollar år 2030 – en mer än 10-faldig ökning. NVIDIA förväntas behålla sin ledande marknadsandel på 74% inom detta segment. Enligt Mizho Securities kan NVIDIAs AI-relaterade intäkter nå upp till 259 miljarder dollar år 2027 – en fyrdubbling jämfört med nuvarande nivåer.

Denna tillväxt kommer främst att drivas av en omfattande antagning av GPT-6-teknologin, där företag inte bara utökar sina datacenter, utan även bygger egna avancerade GPU- och AI-acceleratorkluster. Samtidigt intensifieras utvecklingen av kundanpassade AI-ASIC:er, som Google TPU och AWS Inferentia, vilket kan påverka NVIDIAs dominerande ställning. Trots detta kommer TSMC sannolikt att fortsätta dra nytta av de beställningar som kommer från dessa anpassade chipprojekt.

I partnerskapet mellan NVIDIA och TSMC fortsätter framgången, med NVIDIAs marknadsvärde som närmar sig 3,6 biljoner dollar i slutet av 2024 (världs näst störst) och TSMC som sätter nya rekord för kvartalsresultat tack vare den ökade HPC-efterfrågan.

AGI-utveckling: GPU-efterfrågan och datacenterkapacitet

Jämförelse av beräkningskrav: AGI vs. befintliga modeller:

Artificiell generell intelligens (AGI) förväntas utföra en mängd uppgifter på människonivå, vilket innebär att den kommer att kräva avsevärt högre beräkningskraft än dagens AI-modeller som GPT-4 eller GPT-5 – vilka redan utför 10^25–10^26 FLOPs under träning. Vissa investerare uppskattar att GPU:er som kan träna 1 000 GPT-5-nivåmodeller kommer att säljas fram till 2026, baserat på antagandet om 1,7×10^26 FLOPs per modell. AGI kan dock kräva flera gånger mer beräkningskraft, vilket kan resultera i träningskostnader på flera miljarder dollar. Morgan Stanley har uppskattat att GPT-5-träningen involverade cirka 225 miljoner dollar i NVIDIA A100 GPU:er (omkring 25 000 stycken), och att AGI skulle kräva många gånger dessa resurser. Vissa prognoser talar om att AGI fram till 2030 kan kräva investeringar om 1 biljon dollar och upp till 20% av USA:s totala elkonsumtion, vilket ställer enorma krav på nuvarande H100/H200 GPU:er och kräver flera generationers hårdvaruinovation.

GPU-kvantitet och infrastruktur:

För att utveckla och driva AGI krävs ett oöverträffat antal GPU-kluster och datacenterinfrastruktur. Dagens största AI-träningskluster består av tiotusentals GPU:er (t.ex. Microsofts och OpenAIs superdatorer med tiotusentals A100 GPU:er), medan AGI kan kräva att hundratusentals eller till och med miljontals högpresterande GPU:er sammankopplas i en superdator. Den initiala investeringen kan uppgå till biljoner dollar, med stora kostnader för datacenterbygge, kylsystem och elförsörjningsinfrastruktur.

Microsofts AI-chef Mustafa Suleyman har påpekat att “nuvarande generationens hårdvara (t.ex. NVIDIA Blackwell GB200 GPU) inte räcker för att uppnå AGI, utan vi behöver 2–5 nya generationer av hårdvaruutveckling”, vilket indikerar att framsteg inom GPU-teknik under de kommande 5–10 åren är nödvändiga. Under 2024 har amerikanska hyperscale-leverantörers datacenterinvesteringar ökat med 82% under 3:e kvartalet, där accelererade servrar utgör en majoritet av investeringarna. Vid AGI-utvecklingsstadiet kan dessa investeringar eskalera ytterligare, med behovet av att driva flera superdatacenter (exascale computing centers) samtidigt.

Elförbrukning och fysisk infrastruktur:

AGI kommer att kräva enorma mängder el för kontinuerlig drift. Redan GPT-4-modellerna kräver betydande elkraft för inferens, och AGI förväntas nå superdatorliknande förbrukning. En rapport uppskattar att AI och superintelligens år 2030 kan förbruka upp till 20% av USA:s totala elkonsumtion – motsvarande hundratals TWh, vilket innebär att miljontals hushålls elförbrukning skulle behöva täckas.

För att möta dessa krav måste AGI-datacenter inte bara utrustas med ett stort antal GPU:er, utan även ha förstärkt elförsörjningskedja och optimerad energieffektivitet. Avancerade tillverkningsprocesser (3nm → 2nm → 1nm), vätskekylning, modulära datacenterdesigner och andra teknologier kommer att spela avgörande roller. NVIDIA har redan börjat implementera lösningar som flyttekylning för GPU-racks och förbättrade PUE (Power Usage Efficiency)-lösningar. För att rymma tiotusentals GPU:er kan en AGI-datacenter kräva ytan av flera fotbollsplaner samt kraftanläggningar på nivå med stora transformatorstationer.

Sammanfattningsvis kräver AGI en investering i hårdvara och infrastruktur som är minst 10 gånger större än dagens GPT-4/5-system, vilket innebär en enorm utmaning – men också stora investeringsmöjligheter för GPU-leverantörer som NVIDIA och tillverkare som TSMC, samt relaterade industrier inom energi och konstruktion.

Brödkomponenter: Broadcom, SK Hynix och Samsung Electronics – Perspektiv på AI-halvledare och datacenter

Broadcom:

Broadcom har länge varit en ledare inom anpassade chip för datacenter och har positionerat sig som en nyckelspelare inom AI-eran. Med samarbeten om utvecklingen av Google TPU, från TPU v1 2016 och vidare, har Broadcom sett en dramatisk ökning i intäkter relaterade till Google – från 50 miljoner dollar 2015 till 750 miljoner dollar 2020.

Företaget levererar anpassade AI ASIC:er till stora molnleverantörer som AWS och Microsoft, och säljer även nätverkschip (switchar, routrar, NIC:er) till AI-datacenter. Under Q1 2024 uppgick Broadcom:s intäkter från halvledare till 7,39 miljarder dollar, varav 3,3 miljarder dollar (en ökning med 46% YoY) kom från nätverkssegmentet, och AI ASIC- och nätverksintäkterna nådde 2,3 miljarder dollar – vilket motsvarar 31% av halvledarintäkterna. Detta var en fyrdubbling jämfört med föregående år. Broadcom förutspår att andelen AI-relaterade intäkter kommer att överstiga 35% år 2024, med en årlig AI-omsättning på över 10 miljarder dollar (jämfört med tidigare uppskattade 7,5 miljarder dollar).

Detaljerat består Broadcom:s AI-intäkter av cirka 70% från anpassade AI ASIC/SoC (DPU etc.), 20% från switch- och routerchip, samt 10% från optiska och interconnect-chip – med förväntad tillväxt på över 133% under 2024. Broadcom har därmed etablerat sig som nummer två inom AI-halvledarförsäljning efter NVIDIA och visar också mycket höga rörelsemarginaler i mitten av 50%-spannet. Framtida tillväxt drivs av ökade beställningar på anpassade chiplösningar från molnleverantörer samt den kommande uppgraderingen av nästa generations datacenternätverk (Tomahawk-serien med 800G–1,6T).

SK Hynix:

SK Hynix är en av de största mottagarna av AI-boomen, särskilt genom att leda inom HBM (High Bandwidth Memory)-segmentet. Under 2024 nådde SK Hynix:s omsättning 66,2 biljoner won (cirka 46,3 miljarder dollar), en ökning med 102% jämfört med föregående år, med en rörelsemarginal på 35% (23,5 biljoner won).

Tack vare den ökade efterfrågan på DRAM för AI-applikationer, övergick företaget från att gå med förlust 2023 till stora vinster 2024, där HBM-intäkterna utgjorde över 40% av deras totala DRAM-försäljning. Med leveranser av HBM3 till NVIDIA:s H100 har SK Hynix etablerat en marknadsandel på 50% inom HBM, och produktionskapaciteten för 2024–2025 är redan fullbokad. Företagsledningen förutspår att HBM-intäkterna kommer att fördubblas tack vare den fortsatta ökade efterfrågan från AI-marknaden.

För att möta den starka efterfrågan på HBM driver SK Hynix produktionen av nästa generation HBM3E och utvecklingen av HBM4 (6:e generationens HBM), samt stärker sina samarbeten med TSMC för att integrera HBM med logikchip. Även om SK Hynix utforskar möjligheter inom foundry-verksamhet, är deras kortsiktiga strategi fokuserad på att befästa sin ledande position inom HBM.

Samsung Electronics:

Samsung Electronics förbereder sig för AI-eran inom både minnes- och foundry-segmenten. Inom minnesområdet har Samsung accelererat produktionen av HBM3/3E och levererar till nyckelkunder som NVIDIA, samt har varit först med att utveckla en 12-lagers HBM3E – en teknologi som potentiellt kan bli en del av NVIDIA:s nästa generation av GPU:er.

Trots att Samsung har något lägre marknadsandelar jämfört med SK Hynix (förväntad HBM-andel 42% under 2024), siktar företaget på att återta ledningen genom aggressiva FoU-investeringar med sikte på 16-lagers HBM4.

I foundry-segmentet har Samsung implementerat den världens första 3nm GAA-processen för att utmana TSMC, även om initiala problem med utbytbarhet orsakade utmaningar. Med den senaste processstabiliseringen har Samsung nu meddelat en 2nm-process med produktionsstart under andra halvan av 2025, vilket kan förändra landskapet. Samsung planerar också att inleda 2nm-produktion i sin anläggning i Texas från 2026, med målet att matcha TSMC:s prestanda och energieffektivitet.

När man blickar längre fram, mot en 1nm- (eller 1,4nm) era, planerar Samsung att introducera avancerade processlösningar, medan TSMC nämner planer för en 1,6nm-nod (en förbättrad version av 2nm) under 2026. Trots att Samsung fortfarande anses ligga 12 år efter TSMC vad gäller processutveckling, finns det möjligheter att minska gapet genom storskaliga investeringar och innovativa teknologier, särskilt inom kundanpassade AI-chip och paketlösningar som HBM-PIM (processor-in-memory).

TSMC vs Samsung Electronics: Framtidsutsikter för AGI-tillverkning (1nm vs 2nm)

Optimala processer för AGI:

För att skapa processorer för AGI krävs så fin en tillverkningsteknologi som möjligt för att maximera transistorintegrationen och energieffektiviteten. Enligt nuvarande planer kommer 2nm-processen med gate-all-around (GAA) teknik att börja massproduceras omkring 2025–2026, följt av en 1.x nm-process (med gate-längd under 10Å) runt 2027–2028.

Begreppet “1nm-process” kan betraktas som en vidareutveckling av 2nm-processen – med varianter såsom 1,4nm och 1,2nm. TSMC planerar exempelvis en 1,6nm-nod (N1.6) runt 2026, medan Samsung siktar på att massproducera en 1,4nm-process år 2027.

Vid chipdesign för AGI är det avgörande att maximera beräkningskapaciteten och minimera energiförbrukningen. Jämfört med 2nm-processen kan en 1nm-nivå möjliggöra en mycket högre transistor-densitet, vilket inte bara ökar parallella beräkningar utan även kan sänka energiförbrukningen med 20–30%. Både TSMC och Samsung siktar på liknande förbättringar (cirka 10–15% ökad hastighet och 25–30% lägre energiförbrukning), vilket gör 1nm-processen till en nyckelfaktor för att uppnå en effektiv och ekonomisk AGI-hårdvara.

Utveckling och genomförbarhet av 1nm-processen:

Forskning kring noder under 1nm pågår redan, med målet att massproducera dem under senare delen av 2020-talet. TSMC har nyligen meddelat planer på att producera 1nm-liknande chip med en integration på upp till 1 triljon transistorer före 2030. Forskning från IMEC i Belgien visar att studier kring 0,7nm och 0,5nm redan är igång.

Tekniska utmaningar kvarstår, men precis som övergången från 5nm till 3nm övervanns genom teknologiska genombrott med nya material (såsom nanoblankor och 2D-material) och innovativa processer (som high-NA EUV-litografi), förväntas även 1nm-processen att nås genom liknande innovationer, såsom utvidgade GAA FET-tekniker och avancerade transistorstrukturer som MBCFET. De höga utvecklingskostnaderna (hundratals miljarder dollar) och den initiala kostnaden per wafer innebär att enskilda chip kan bli mycket dyra, men både TSMC och Samsung har redan inlett sina satsningar.

Tyskland och Taiwan har redan meddelat planer på att stödja utvecklingen av 1nm-fabriker, och TSMC planerar att etablera ett 1nm-fab i Xinchuang Longtan med start kring 2027–2028. Många experter anser att framgången med 1nm-processen kommer att vara avgörande för att kunna realisera AGI, där även alternativa metoder som chiplet-baserad 3D-packaging kan spela en viktig roll.

Samsungs möjlighet att minska teknikgapet med TSMC:

Historiskt har Samsung legat cirka 12 år efter TSMC inom avancerade processer, men med satsningar på 3nm GAA-teknik börjar gapet krympa, även om TSMC fortfarande har en liten fördel. Under 2022–2023 tappade Samsung en del beställningar från Qualcomm och NVIDIA på grund av utmaningar med 4nm/3nm-processerna, medan TSMC med sin stabila 3nm-produktion levererade till bland annat iPhone 16 Pro.

Framöver kan dock situationen förändras. Det finns en växande möjlighet att Qualcomm under 2025–2026 väljer att tillverka sina 2nm Snapdragon-chip hos Samsung, vilket skulle ge dem värdefull erfarenhet och marknadsandelar inför 1,4nm-noden. Dessutom gynnar amerikanska och EU:s satsningar på att stödja foundry-industrin Samsung, särskilt med tanke på deras fabriker i Texas jämfört med TSMC:s förseningar i Arizona.

Tekniskt sett är TSMC:s 2nm-process en övergång från FinFET till nanoblankbaserad GAA-teknik, medan Samsungs 2nm bygger vidare på deras erfarenhet från 3nm. Analytiker har noterat att TSMC:s 2nm kan ge cirka 30% bättre prestandaförbättring jämfört med Samsungs 25%, men detta är initiala mål och den slutgiltiga prestandan kan bli jämnare. I 1nm-eran kan Samsung få en chans att helt eliminera teknikgapet. Om de lyckas vinna några stora kunder inom foundry-segmentet och samarbeta med internationella företag, kan de potentiellt utmana TSMC:s dominans.

Från investerarperspektiv skulle en minskning av teknikgapet innebära förbättrad lönsamhet och potentiellt högre börsvärde för Samsung, men det skulle samtidigt kunna utgöra en risk för TSMC:s ledande ställning. I AGI-eran förväntas båda företagen etablera sig framgångsrikt, vilket skulle leda till en stabil tvåpartskonkurrens – en positiv utveckling för marknadens långsiktiga stabilitet. För närvarande anses TSMC ligga något före, men Samsungs möjligheter att komma ikapp under de kommande 23 åren är betydande.

🔎 GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, AI-halvledare, marknadsvärde, datacenter, HBM, 2nm, 1nm, AGI

💡 Sammanfattning:

Med lanseringen av GPT-5/6 och de banbrytande Groq-acceleratorerna exploderar efterfrågan på AI-chip för datacenter, vilket driver NVIDIAs intäkter från AI-chip från 1 biljon dollar till 3 biljoner dollar och TSMCs HPC-intäkter med 58% och aktiepriser med över 90%. För att realisera AGI krävs 10 gånger fler GPU:er och enorma datacenter med kraftfull el- och kylinfrastruktur. Samtidigt växer nyckelspelare som Broadcom (anpassade AI ASIC:er & nätverk), SK Hynix (HBM-minne) och Samsung Electronics (avancerad foundry-teknik) och deras intäkter och vinster ökar kraftigt. TSMC och Samsung tävlar intensivt om 2nm/1nm-teknologin, vilket under de kommande åren kommer att avgöra framtiden för AGI och AI-halvledarmarknaden, som förväntas växa med över 2030% årligen.

Stargate Finansiell Prognos 2025: För att läsa mer om Stargates finansiella analyser och framtida tillväxtmöjligheter, besök deras officiella sida Stargate – Finansiell Prognos.

OpenAI lanserar GPT-4.5 med en axelryckning: Den här artikeln diskuterar fördröjningen av GPT-5 och dess påverkan på AGI-utvecklingen.

ChatGPT-5: Framtiden för AI och början på AGI?: Denna artikel tar upp GPT-5 och AGI:s ankomst, samt hur dessa utvecklingar påverkar företag som NVIDIA och TSMC.

Denna rykte om GPT-5 förändrar allt: Artikeln handlar om förväntningarna på GPT-5 och AGI, och hur dessa innovationer påverkar AI-industrin och företag.

Rulla till toppen