Generatieve AI-Revolutie: De Impact op de Aandelenkoersen van NVIDIA en TSMC

Generatieve AI

GPT-5 en Groq-4: Een jaar na de lancering – Invloed op omzet en marktkapitalisatie van NVIDIA en TSMC

Toegenomen verkoop van AI-halfgeleiders:

Na de explosieve vraag naar AI-chips voor datacenters in de GPT-4-periode is de omzet van NVIDIA’s datacentersegment met 112% gestegen ten opzichte van vorig jaar, met een kwartaalomzet van 30,77 miljard dollar. Deze omzet vertegenwoordigt meer dan de helft van de totale inkomsten, aangedreven door investeringen in hypergrote modellen door cloudproviders, wat resulteerde in een groei met drie cijfers gedurende twee opeenvolgende kwartalen.

TSMC heeft eveneens geprofiteerd van de bloeiende productie van AI-chips: de omzet van hun HPC-platformen (High Performance Computing) is met 58% gestegen vergeleken met vorig jaar, en deze omzet vertegenwoordigt nu 51% van de jaarlijkse inkomsten voor 2024. De CEO van TSMC verklaarde dat “de omzet uit AI-versnellers in 2024 verdrievoudigd is en in 2025 met meer dan twee keer zal toenemen.”

De introductie van GPT-5 zal de vraag naar training en inferentie van AI-modellen verder stimuleren, wat een nog sterker omzeteffect teweegbrengt. Zo heeft OpenAI naar verluidt ongeveer 25.000 NVIDIA A100 GPU’s ingezet voor de training van GPT-5, wat waarschijnlijk zal leiden tot omvangrijke aankopen van GPU’s en aanzienlijke investeringen in datacenters.

Daarnaast is de wereldwijde CapEx (kapitaaluitgaven) voor datacenters bij hyperscale-ondernemingen in het derde kwartaal van 2024 met 82% gestegen, waarbij AI-infrastructuur een centrale rol speelde.

Marktkapitalisatie stijging:

Sinds de introductie van GPT-4, die een explosieve toename in de vraag naar AI-halfgeleiders veroorzaakte, zijn zowel NVIDIA als TSMC enorm in marktkapitalisatie gestegen. NVIDIA steeg van een marktkapitalisatie van 1,2 biljoen dollar eind 2023 naar 3,28 biljoen dollar eind 2024 – een stijging van meer dan 2 biljoen dollar in slechts één jaar – en verwierf zo de tweede plaats wereldwijd op basis van marktkapitalisatie. In oktober 2024 wist NVIDIA zelfs tijdelijk Apple te passeren en werd het wereldwijde nummer één bedrijf.

TSMC profiteerde eveneens van de AI-boom; in oktober 2024 bereikte hun marktkapitalisatie ongeveer 833 miljard dollar, met een aandelenstijging van meer dan 90% in dat jaar. TSMC is uitgegroeid tot een exclusieve producent van geavanceerde AI-chips voor topbedrijven zoals NVIDIA en AMD, waardoor de toegenomen vraag naar AI direct weerspiegeld wordt in hun bedrijfsresultaten en marktkapitalisatie.

Een jaar na de lancering van GPT-5 en Groq-4 wordt verwacht dat het aandeel van de datacenteromzet van NVIDIA nog verder zal toenemen (momenteel meer dan 50%), terwijl het aandeel van HPC/AI-chips in de omzet van TSMC eveneens zal stijgen. Vooral TSMC’s geavanceerde processen op 7nm of lager vertegenwoordigen 74% van hun omzet, waarmee zij direct profiteren van het AI-tijdperk.

Uitbreiding van servers en infrastructuur:

De komst van hypergrote modellen zoals GPT-5 heeft de concurrentiestrijd onder wereldwijde cloudbedrijven om datacenters uit te breiden aanzienlijk versneld. In 2024 investeerden de grote techbedrijven naar schatting ongeveer 236 miljard dollar in faciliteiten – een stijging van meer dan 50% ten opzichte van het voorgaande jaar – en bedrijven als AWS en Google zijn van plan om de komende jaren honderden miljarden dollars te investeren in AI-infrastructuur.

In feite werd in het derde kwartaal van 2024 maar liefst 40% van de wereldwijde CapEx voor datacenters besteed aan AI-infrastructuur (versnelde servers). NVIDIA GPU-gebaseerde AI-servers vertegenwoordigen inmiddels tot wel 40% van de OEM-serververkopen, en de vraag naar speciale AI-trainingsservers compenseert de daling in de traditionele servermarkt, wat bijdraagt aan een groei in dubbele cijfers.

Een jaar na de lancering van GPT-5 zullen toonaangevende cloudproviders naar verwachting datacenters opzetten met meer H100/H200 GPU-clusters en Groq-versnellers, terwijl bedrijven hun AI-adoptie verder uitbreiden, waardoor de vraag naar AI-halfgeleiders naar verwachting jaarlijks met 30–40% of meer zal groeien.

Samenvatting:

In het tijdperk van GPT-5 en Groq-4 zullen zowel NVIDIA als TSMC ongekende AI-specifieke prestaties en stijgende marktkapitalisaties ervaren, die de verwachtingen van investeerders ruimschoots overtreffen.

GPT-6 en Groq-5: Een jaar na de lancering – Vooruitzichten voor prestatieverbetering en marktgroei

Verbeterde rekenkracht van GPT-6:

GPT-6 wordt verwacht een aanzienlijk hogere rekenkracht en intelligentie te bezitten vergeleken met voorgaande generaties. Terwijl GPT-5 naar schatting ongeveer 1,7×10^26 FLOPs (floating point operations) vereist voor training, kan GPT-6 nog veel meer rekenkracht nodig hebben of de efficiëntie verhogen via optimalisatie van de modelarchitectuur. OpenAI benadrukte eerder dat “hoe slimmer een model wordt, hoe belangrijker hoogwaardige data en geoptimaliseerde inferentie worden,” wat erop wijst dat GPT-6 zich zal richten op efficiëntieverbetering.

Met een toename in het aantal parameters en multimodale verwerkingsmogelijkheden zal GPT-6 aanzienlijk meer computercapaciteit vereisen dan GPT-5. Om dit mogelijk te maken, zal NVIDIA zijn volgende generatie GPU-architectuur (de opvolger van Blackwell) introduceren, die zowel de verwerkingssnelheid als de energie-efficiëntie verbetert. Tegelijkertijd zal de Groq-5-versneller de LPU-architectuur verder ontwikkelen om ultralage latentie en hoge energie-efficiëntie te realiseren. Op dit moment heeft de Groq LPU al aangetoond in de Meta Llama2-70B-benchmark 241 tokens per seconde te genereren – meer dan twee keer zo snel als vergelijkbare GPU’s – en een tienvoudig hogere energie-efficiëntie behaald.

Vergelijking van rekenkracht en energie-efficiëntie:

Wanneer men de volgende generatie NVIDIA GPU’s vergelijkt met de Groq-5, blijkt dat hoewel GPU’s veelzijdigheid behouden, gespecialiseerde chips zoals de LPU naar verwachting superieur zullen zijn in energie-efficiëntie. Zo beweert Groq dat hun LPU “minstens 10 keer energie-efficiënter” is dan traditionele GPU’s. Zo verbruikt de GroqCard slechts 1–3 Joule per token, vergeleken met 10–30 Joule voor NVIDIA GPU’s. In het GPT-6-tijdperk zal de efficiëntie per watt (Watt/Token) des te crucialer worden, gezien de beperkingen in de energievoorziening van datacenters. Naar verwachting zullen in de praktijk GPU’s voornamelijk worden ingezet voor training, terwijl LPU-gebaseerde systemen de voorkeur krijgen voor realtime inferentie.

Marktvooruitzichten voor de volgende generatie AI-versnellers:

Met de introductie van GPT-6 en Groq-5 wordt verwacht dat de markt voor AI-versnellers exponentieel zal groeien. Alleen al in 2024 wordt de wereldwijde markt voor AI-chips en versnellertechnologie geschat op 11 miljard dollar, met een voorspelde jaarlijkse groei tot meer dan 130 miljard dollar in 2030 – een meer dan tienvoudige toename. NVIDIA wordt verwacht een marktaandeel van 74% te behouden in dit segment, terwijl Mizho Securities voorspelt dat de AI-gerelateerde omzet van NVIDIA in 2027 zal oplopen tot 259 miljard dollar – meer dan vier keer de huidige niveaus.

Deze groei zal voornamelijk worden aangedreven door de massale adoptie van GPT-6-technologie, waarbij bedrijven niet alleen hun datacenters uitbreiden maar ook eigen GPU- en AI-versnellersclusters opzetten. Tegelijkertijd versnelt de ontwikkeling van op maat gemaakte AI-ASIC’s (zoals Google TPU en AWS Inferentia), wat de dominantie van NVIDIA enigszins zou kunnen verminderen. Desondanks blijft TSMC waarschijnlijk profiteren van de bestellingen voor deze aangepaste chips.

De samenwerking tussen NVIDIA en TSMC blijft robuust, met NVIDIA’s marktkapitalisatie die eind 2024 naar verwachting de 3,6 biljoen dollar nadert (tweede grootste wereldwijd), en TSMC die dankzij de toegenomen vraag naar HPC nieuwe kwartaalrecords haalt.

Analyse van GPU-vraag en datacenteruitbreiding voor de ontwikkeling van AGI

Vergelijking van rekenvereisten: AGI versus bestaande modellen:

Kunstmatige algemene intelligentie (AGI) wordt geacht taken op menselijk niveau uit te voeren, wat betekent dat de rekenkracht die nodig is exponentieel hoger zal zijn dan die van de huidige AI-modellen zoals GPT-4 of GPT-5, die al tijdens de training tussen de 10^25 en 10^26 FLOPs verbruiken. Sommige investeerders voorspellen dat er tegen 2026 GPU’s verkocht zullen worden die in staat zijn om 1.000 modellen op GPT-5-niveau te trainen – uitgaande van 1,7×10^26 FLOPs per model. AGI zal echter aanzienlijk complexer zijn, wat betekent dat de trainingskosten in de orde van tientallen miljarden dollars kunnen lopen. Morgan Stanley schatte dat voor de training van GPT-5 ongeveer 225 miljoen dollar werd besteed aan NVIDIA A100 GPU’s (ongeveer 25.000 stuks), en dat AGI vele malen meer rekenkracht zal vereisen. Sommige prognoses suggereren zelfs dat voor de realisatie van AGI tot 2030 een investering van 1 biljoen dollar en het gebruik van 20% van de elektriciteit in de VS nodig zou kunnen zijn – een scenario waarbij de huidige H100/H200 GPU’s verre van toereikend zijn.

Benodigde GPU-aantallen en infrastructuur:

Het realiseren en exploiteren van AGI vereist ongekende schaal van GPU-clusters en datacenterinfrastructuur. De grootste AI-trainingsclusters van vandaag bestaan uit tienduizenden GPU’s (bijvoorbeeld, supercomputers van Microsoft en OpenAI met tienduizenden A100 GPU’s), terwijl voor AGI wellicht honderdduizenden tot miljoenen high-performance GPU’s in parallelle configuraties nodig zijn. De initiële investeringskosten kunnen oplopen tot biljoenen dollars, met enorme kosten voor de bouw van datacenters, koelsystemen en energievoorzieningsinfrastructuur.

Mustafa Suleyman, hoofd AI bij Microsoft, stelde dat “de huidige generatie hardware (zoals de NVIDIA Blackwell GB200 GPU) niet voldoende is om AGI te realiseren; we zullen 2 tot 5 nieuwe generaties hardware-innovaties nodig hebben,” wat impliceert dat de technologische vooruitgang in de komende 5 tot 10 jaar en een enorme toename in de chiplevering noodzakelijk zullen zijn. In het derde kwartaal van 2024 steeg de CapEx van hyperscale-datacenters in de VS met 82%, waarbij versnelde servers een aanzienlijk deel van de investeringen vertegenwoordigden. In de fase van AGI-ontwikkeling zullen deze investeringen verder escaleren, mogelijk leidend tot de bouw en exploitatie van meerdere exascale computing centers voor een enkel project.

Energieverbruik en fysieke infrastructuurvereisten:

Het continu uitvoeren van rekenintensieve AGI-taken vergt een enorme hoeveelheid energie. Zelfs de huidige GPT-4-modellen verbruiken al aanzienlijke hoeveelheden energie tijdens inferentie, en AGI zal naar verwachting een energieverbruik hebben dat vergelijkbaar is met dat van supercomputers. Een rapport schat dat AI en superintelligentie rond 2030 tot 20% van de totale elektriciteitsconsumptie van de VS zouden kunnen verbruiken – wat neerkomt op honderden TWh, voldoende om miljoenen huishoudens te bekostigen.

Daarom vereisen AGI-datacenters niet alleen een groot aantal GPU’s, maar ook een versterkte energievoorziening en een infrastructuur die geoptimaliseerd is voor maximale energie-efficiëntie. Geavanceerde halfgeleiderprocessen (van 3nm naar 2nm naar 1nm), vloeistofkoeling, modulair ontworpen datacenters en andere baanbrekende technologieën zullen een cruciale rol spelen. NVIDIA heeft al GPU-racks met vloeistofkoeling geïntroduceerd en oplossingen voor verbeterde PUE (Power Usage Efficiency) gepresenteerd. Om tienduizenden GPU’s te huisvesten, zal een AGI-datacenter wellicht de oppervlakte van meerdere voetbalvelden en transformatorstations op grote schaal vereisen.

Kortom, voor de realisatie van AGI is een investering in hardware en infrastructuur nodig die minstens 10 keer hoger ligt dan de huidige GPT-4/5-systemen, wat niet alleen een enorme uitdaging vormt voor GPU-leveranciers zoals NVIDIA en fabrikanten als TSMC, maar ook voor de energie- en constructiesector.

Belangrijke spelers: Broadcom, SK Hynix en Samsung Electronics – Vooruitzichten voor AI-halfgeleiders en datacenteractiviteiten

Broadcom:

Broadcom is al lange tijd een toonaangevende speler in de markt van op maat gemaakte chips voor datacenters en heeft zich in de recente AI-boom als een belangrijke factor gemanifesteerd. Sinds de samenwerking aan de ontwikkeling van de Google TPU (vanaf TPU v1 in 2016) is de gerelateerde omzet van Broadcom geëxplodeerd, van 50 miljoen dollar in 2015 tot 750 miljoen dollar in 2020.

Het bedrijf levert op maat gemaakte AI-ASIC’s aan grote cloudproviders zoals AWS en Microsoft, en verkoopt daarnaast netwerkchips (switches, routers, NIC’s) aan AI-datacenters. In het eerste kwartaal van 2024 bedroeg de halfgeleideromzet van Broadcom 7,39 miljard dollar, waarvan 3,3 miljard dollar (een stijging van 46% YoY) afkomstig was uit het netwerksegment, en bedroeg de omzet uit AI ASIC’s en netwerken 2,3 miljard dollar – goed voor 31% van de totale halfgeleideromzet. Dit vertegenwoordigt een verviervoudiging ten opzichte van het voorgaande jaar. Broadcom voorspelt dat het aandeel van AI-gerelateerde omzet in 2024 de 35% zal overschrijden en dat de jaarlijkse AI-omzet meer dan 10 miljard dollar zal bedragen.

SK Hynix:

SK Hynix is een van de grootste begunstigden van de AI-boom, vooral door hun leidende positie in de markt van HBM (High Bandwidth Memory). In 2024 bereikte de omzet van SK Hynix 66,2 biljoen won (ongeveer 46,3 miljard dollar), een stijging van 102% ten opzichte van vorig jaar, met een operationele winst van 23,5 biljoen won en een winstmarge van 35%.

Dankzij de toegenomen vraag naar DRAM voor AI-toepassingen is het bedrijf van verlies in 2023 overgestapt naar grote winsten in 2024, waarbij HBM-omzet meer dan 40% van de totale DRAM-omzet vertegenwoordigt. SK Hynix levert HBM3 aan bijvoorbeeld NVIDIA’s H100, waardoor het een marktaandeel van 50% in de HBM-markt heeft veroverd, en de productiecapaciteit voor 2024–2025 is reeds volledig gereserveerd. Het management voorspelt dat de HBM-omzet verder zal verdubbelen door de aanhoudende groei van de AI-marktvraag.

Samsung Electronics:

Samsung Electronics bereidt zich zowel in de geheugen- als foundry-sector voor op het AI-tijdperk. Op het gebied van geheugen versnelt Samsung de massaproductie van HBM3/3E en levert het aan belangrijke klanten zoals NVIDIA, en het bedrijf heeft als eerste een 12-laags HBM3E ontwikkeld, dat mogelijk in de volgende generatie GPU’s van NVIDIA wordt geïntegreerd.

Hoewel Samsung qua marktaandeel iets achterloopt op SK Hynix (verwachte HBM-marktaandeel van 42% in 2024), streeft Samsung ernaar met agressieve R&D-investeringen in 16-laags HBM4 de leiding terug te winnen.

In de foundry-sector heeft Samsung, in een poging TSMC in te halen, als eerste ter wereld een 3nm GAA-proces ingevoerd, hoewel initiële yield-problemen voor uitdagingen zorgden. Met de recente stabilisatie van hun processen heeft Samsung aangekondigd dat het in de tweede helft van 2025 een 2nm-proces in massaproductie zal brengen, en in 2026 in hun fabriek in Texas zal starten met 2nm-productie, om zo de wereldwijde productiecapaciteit te vergroten.

Verder plant Samsung om zich voor te bereiden op een 1nm (of 1,4nm) era door geavanceerde procesoplossingen te implementeren, terwijl TSMC plannen heeft voor een 1,6nm-node (een verbeterde versie van 2nm) in 2026. Hoewel Samsung momenteel nog een technologische achterstand heeft ten opzichte van TSMC, is er een reëel potentieel om deze kloof te verkleinen door grote investeringen en innovatieve technologieën.

TSMC versus Samsung Electronics: Vooruitzichten voor halfgeleiderfabricage voor AGI (1nm vs. 2nm)

Optimale processen voor AGI:

Voor de ontwikkeling van AGI-chips is het essentieel om gebruik te maken van de meest verfijnde halfgeleiderprocessen om de integratiedichtheid te maximaliseren en de energie-efficiëntie te optimaliseren. Volgens de huidige roadmap zal een 2nm-proces met gate-all-around (GAA)-technologie rond 2025–2026 in massaproductie gaan, gevolgd door een 1.x nm-proces (met een gate-lengte van minder dan 10Å) rond 2027–2028.

Het begrip “1nm-proces” omvat in feite verbeterde varianten van het 2nm-proces, zoals 1,4nm en 1,2nm nodes. Zo bereidt TSMC zich voor op een 1,6nm-node (N1.6) tegen 2026, terwijl Samsung van plan is om in 2027 een 1,4nm-proces in massaproductie te nemen.

Bij chipontwerp is het cruciaal dat een 1nm-proces een veel hogere transistor-dichtheid mogelijk maakt, waardoor meer parallelle berekeningen kunnen worden uitgevoerd en bij gelijke prestaties de energieconsumptie met 20–30% kan worden verminderd. Zowel TSMC als Samsung streven naar een snelheidstoename van ongeveer 10–15% en een energiebesparing van 25–30% bij de overgang naar een 2nm-proces, wat impliceert dat een 1nm-proces een key enabler zal zijn voor de realisatie van efficiënte en kosteneffectieve AGI-hardware.

Ontwikkeling en haalbaarheid van een 1nm-proces:

Onderzoek naar nodes onder 1nm is al in volle gang, en de belangrijkste foundry’s mikken op massaproductie in de tweede helft van de jaren 2020. TSMC heeft recent aangekondigd van plan te zijn om een chip met een integratie van tot wel 1 biljoen transistoren tegen 2030 te produceren, terwijl het IMEC-roadmap in België aangeeft dat onderzoek naar 0,7nm en 0,5nm nodes al loopt.

Hoewel de technische uitdagingen aanzienlijk zijn, lijkt het waarschijnlijk dat, net zoals de overgang van 5nm naar 3nm werd overwonnen door nieuwe materialen (zoals nanosheets en 2D-materialen) en innovatieve procesmethoden (zoals high-NA EUV-lithografie), ook de 1nm-technologie bereikt zal worden door vergelijkbare doorbraken – bijvoorbeeld door het uitbreiden van GAA-FET-technologie of de implementatie van geavanceerde transistorstructuren zoals MBCFET.

De kans voor Samsung om de technologische achterstand met TSMC in te halen:

Historisch gezien liep Samsung ongeveer 12 jaar achter op TSMC op het gebied van geavanceerde processen, maar door de invoering van 3nm GAA-technologie begint deze kloof te krimpen, al blijft TSMC op dit moment een kleine voorsprong houden. Tijdens de jaren 2022–2023 verloor Samsung een aanzienlijk aantal bestellingen van Qualcomm en NVIDIA vanwege uitdagingen met 4nm/3nm-processen, terwijl TSMC met een stabiele 3nm-productie onder andere de iPhone 16 Pro succesvol van stroom voorzag.

Voor de 2nm-generatie lijkt de situatie echter te kunnen veranderen, aangezien de kans toeneemt dat Qualcomm hun 2nm Snapdragon-chips, die gepland staan voor 2025–2026, aan Samsung zal toevertrouwen. Dit zou Samsung niet alleen waardevolle ervaring opleveren maar ook hun concurrentievermogen versterken richting de 1,4nm-node. Daarnaast zorgen de stimuleringsmaatregelen vanuit de VS en de EU voor een gunstiger klimaat voor Samsung.

Technisch gezien is TSMC’s 2nm-proces een eerste overgang van FinFET naar nanosheet-gebaseerde GAA-technologie, terwijl Samsung’s 2nm-proces een verbetering is op basis van hun ervaringen met 3nm. Sommige analyses suggereren dat TSMC’s 2nm naar verwachting een prestatieverbetering van 30% in energie-efficiëntie zal bieden ten opzichte van een verbetering van 25% bij Samsung, maar dit betreft voorlopige doelstellingen en de uiteindelijke prestaties kunnen in een felle concurrentiestrijd uitmonden. In de 1nm-era krijgen beide bedrijven de kans om de lat verder te leggen, en voor Samsung zou dit een kans kunnen zijn om de achterstand volledig in te halen.

Vanuit het perspectief van investeerders betekent een verkleining van het technologische gat dat de winstgevendheid van de foundry-activiteiten en de marktkapitalisatie van Samsung zal verbeteren, maar het vormt tegelijkertijd ook een bedreiging voor de technologische dominantie van TSMC. Uiteindelijk zal in de 1nm-era naar verwachting een evenwichtige concurrentie ontstaan tussen beide bedrijven, wat op de lange termijn zal bijdragen aan de stabiliteit van de productiecapaciteit voor geavanceerde AI-chips.

🔎 SEO-keywords: GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, AI-halfgeleiders, marktkapitalisatie, datacenters, HBM, 2nm, 1nm, AGI

💡 Samenvatting:

Dankzij de lancering van GPT-5/6 en baanbrekende Groq-versnellers stijgt de vraag naar AI-chips voor datacenters explosief. NVIDIA’s omzet in AI-chips is in 2024 gestegen van 1 biljoen naar 3 biljoen dollar, terwijl TSMC een stijging van 58% in HPC-omzet en een aandelenstijging van meer dan 90% heeft doorgemaakt. Voor de realisatie van AGI zijn tot wel 10 keer meer GPU’s en supergrote datacenters met geavanceerde energie- en koelinfrastructuren noodzakelijk. Tegelijkertijd groeien toonaangevende spelers zoals Broadcom (maatwerk AI-ASIC’s en netwerken), SK Hynix (HBM-geheugen) en Samsung Electronics (geavanceerde foundry-technologie) aanzienlijk, wat resulteert in een sterke stijging van hun omzet en winstgevendheid. De concurrentie tussen TSMC en Samsung op het gebied van 2nm/1nm-technologie zal in de komende jaren bepalend zijn voor de toekomst van AGI en de AI-halfgeleidersector, die naar verwachting een jaarlijkse groei van meer dan 2030% zal doormaken.

“Hoe Generatieve AI de Aandelen van NVIDIA en TSMC Beïnvloedt”
Dit artikel bespreekt hoe de opkomst van generatieve AI de aandelen van belangrijke technologiebedrijven zoals NVIDIA en TSMC beïnvloedt en wat de vooruitzichten zijn.
Länk: Generatieve AI en Aandelen

“De Toekomst van NVIDIA en TSMC in het Tijdperk van Generatieve AI”
Hier wordt de toekomstige rol van NVIDIA en TSMC besproken in het licht van de groeiende impact van generatieve AI op de wereldwijde technologie- en chipindustrie.
Länk: NVIDIA en TSMC in Generatieve AI

Framtiden för AGI och analys av lovande företag från Nvidia chip till xAI Grok 3
För att läsa mer om framtiden för AGI och företagsanalys relaterad till Nvidia, XAI och Grok 3, besök den detaljerade analysen här: Framtiden för AGI och analys av lovande företag från Nvidia chip till xAI Grok 3.

TSMC, de belangrijkste fabrikant van NVIDIA’s chips, heeft ook geprofiteerd van deze trend. In oktober 2024 steeg de marktwaarde van TSMC met 6,5% tot $832,8 miljard.

로이터 Daarnaast heeft TSMC in het vierde kwartaal van 2024 een recordomzet behaald, voornamelijk gedreven door sterke AI-gerelateerde chipvraag. Het bedrijf voorspelt een verkoopgroei van 20% in 2025, met een verdubbeling van de omzet uit AI-servers en processors.

wsj.com

Deze ontwikkelingen benadrukken de cruciale rol van zowel NVIDIA als TSMC in de groeiende AI-markt en hun wederzijdse afhankelijkheid bij het ondersteunen van de wereldwijde vraag naar geavanceerde AI-chips.

Recente ontwikkelingen in de AI-chipmarkt

Barron’s

Nvidia Stock Rises as New Evidence Emerges Showing the AI Trade Is Alive and Well

vandaag

Nvidia Stock Rises as New Evidence Emerges Showing the AI Trade Is Alive and Well

wsj.comTSMC Expects Continued AI-Driven Growth After Ending 2024 Strong57 dagen geleden

Bronnen

Favicon
Favicon
Scroll naar boven