
Die Zukunft von AGI und Analyse vielversprechender Unternehmen: Von NVIDIA-Chips bis xAI Grok-3
Zukunftsaussichten für AGI und Analyse von Schlüsselunternehmen
AGI (Artificial General Intelligence, allgemeine künstliche Intelligenz) bezeichnet eine Art von Intelligenz, die in der Lage ist, alle intellektuellen Aufgaben auf einem Niveau auszuführen, das mit dem eines Menschen vergleichbar oder sogar darüber liegt. In jüngster Zeit hat das Interesse an AGI durch den Aufstieg von Tools wie ChatGPT stark zugenommen, und eine Reihe globaler Unternehmen hat begonnen, im Rennen um die Erreichung von AGI anzutreten. Dieser Analysebericht untersucht die Zukunftsaussichten von AGI, stellt die wichtigsten Unternehmen vor, die die Entwicklung vorantreiben, diskutiert die vielversprechendsten Akteure aus langfristiger Investitionssicht und beleuchtet die enormen Rechenressourcen (GPUs), die zur Umsetzung von AGI erforderlich sind.
Führende Unternehmen in der AGI-Entwicklung
Die folgenden Unternehmen gelten bereits als Vorreiter oder werden voraussichtlich einen großen Einfluss im Rennen um AGI haben:
OpenAI
Im Zentrum der Popularisierung des Begriffs AGI steht OpenAI. Ihre Mission wird als die Entwicklung von AGI zum Wohle der gesamten Menschheit formuliert. Mit erfolgreichen Lancierungen großskaliger Sprachmodelle wie GPT-3 und GPT-4 haben sie einen wichtigen Schritt in Richtung der Realisierung von AGI gemacht. Mit Unterstützung von Microsoft haben sie einen spezialisierten Supercomputer für KI aufgebaut, bei dem über 10.000 NVIDIA A100 GPUs zum Training von GPT-4 verwendet wurden – und für das nächste Modell, GPT-5, ist eine Skalierung auf etwa 25.000 GPUs geplant. OpenAI stützt sein Ziel, eine sichere und kontrollierbare AGI zu erreichen, auf diese enormen Rechenressourcen.
Google DeepMind
DeepMind, bekannt durch seine Go-spielende KI AlphaGo, ist nun Teil von Google und operiert unter dem Namen Google DeepMind. CEO Demis Hassabis hat einen Fahrplan vorgestellt, um innerhalb der nächsten 10 Jahre AGI zu erreichen, wobei er die Bedeutung schrittweiser Fortschritte betont, anstatt übermäßigen Optimismus zu verbreiten. Besonders fokussiert man sich auf multimodale KI – Modelle, die nicht nur Text, sondern auch Bilder, Ton und Video verstehen – mit der Entwicklung des kommenden Modells „Gemini“. Google DeepMind hat auch Bard lanciert, einen Konkurrenten zu den Modellen von OpenAI, und mit nur wenigen weiteren Innovationen könnte man ein menschliches Intelligenzniveau erreichen. Google investiert aggressiv in seine Infrastruktur mit eigenen TPUs und großen Mengen an NVIDIA GPUs sowie strategischen Investitionen in Konkurrenten wie Anthropic.
xAI
Das neu gegründete Unternehmen xAI, das 2023 von Elon Musk (CEO von Tesla und SpaceX) ins Leben gerufen wurde, tritt als Außenseiter im AGI-Wettbewerb hervor. Als ehemaliger Mitbegründer von OpenAI hat Musk einen eigenen Weg eingeschlagen. xAI präsentierte kürzlich den Chatbot „Grok“, der in Verbindung mit X (ehemals Twitter) schnelle, zeitgerechte Antworten und einen humorvollen Stil bietet. Musk wirbt nun für das neueste Modell des Unternehmens, Grok-3, und behauptet, dass es die allerneuesten Modelle der Konkurrenz übertrifft. Er gibt an, dass für das Training von Grok-3 über 100.000 NVIDIA H100 GPUs eingesetzt werden – das Fünffache dessen, was für Grok-2 verwendet wurde. Bei einem Preis von etwa 30.000–40.000 Dollar pro H100 sind die Investitionen enorm, was darauf hindeutet, dass Grok-3, das für Ende des Jahres geplant ist, etwas ganz Besonderes sein könnte. xAI testet bereits intern Grok-1.5 und plant die Veröffentlichung von Grok-2 im August 2024 sowie Grok-3 später im Jahr. Angesichts von Musks aggressiven Investitionen und schnellen Entwicklungszyklen ist es nicht unwahrscheinlich, dass xAI bald eine deutliche Rolle im AGI-Wettbewerb spielt.
Anthropic
Anthropic, ein von ehemaligen OpenAI-Mitarbeitern gegründetes KI-Startup, konzentriert sich auf KI-Sicherheit und entwickelt die nächste Generation großskaliger Sprachmodelle. Das Unternehmen hat die Claude-Serie vorgestellt, einen Konkurrenten von ChatGPT, und große Investitionen von Google erhalten. Das Ziel ist die Entwicklung eines neuen Modells mit dem Codenamen „Claude-Next“, das zehnmal leistungsfähiger als GPT-4 sein soll. Um dies zu erreichen, plant Anthropic, in den nächsten 2–4 Jahren über 5 Milliarden Dollar (etwa 6 Billionen KRW) in das Training eines enormen Modells zu investieren. Trotz hoher Ambitionen und der Betrachtung als eine „göttliche Gamechanger“ hat das Unternehmen seine Modelle bereits kommerziell eingesetzt und strebt danach, ein führender Akteur in der AGI-Ära zu werden, indem es Sicherheit und Leistung in Einklang bringt.
Microsoft
Microsoft spielt eine entscheidende Rolle, nicht nur als Entwickler, sondern vor allem als Unterstützer und Anwender. Nachdem sie 2019 1 Milliarde Dollar in OpenAI investiert haben, haben sie sich verpflichtet, in den kommenden Jahren bis zu 10 Milliarden Dollar in einer engen Zusammenarbeit mit OpenAI zu investieren. Als Hardwarepartner stellt Microsoft Azure die notwendige Cloud-Infrastruktur für die KI-Entwicklung bereit. Microsoft verfügt bereits über einen Supercomputer mit mehr als 10.000 GPUs zum Training von GPT-4 und plant, ein Cluster mit über 25.000 GPUs für zukünftige Modelle vorzubereiten, während sie auch die Entwicklung eigener KI-Chips in Erwägung ziehen. Zudem integriert Microsoft schnell KI in seine Produkte – von Bing über Office 365 bis hin zu Windows – was sie zu einem zentralen Akteur beim Vorantreiben von AGI macht.
Meta (Facebook)
Meta ist ein weiterer großer Akteur, der vor allem für seine massiven Investitionen in die KI-Infrastruktur bekannt ist. Obwohl Meta offiziell AGI nicht als Ziel definiert hat, ist ihr Engagement in der KI-Forschung und -Infrastruktur unbestreitbar. Durch die Veröffentlichung großskaliger Sprachmodelle wie LLaMA hat Meta sowohl in der akademischen als auch in der industriellen Welt für Aufsehen gesorgt und investiert auch in bildgenerierende KI (z. B. Imagen) und multimodale KI. Meta plant, bis 2024 über 350.000 NVIDIA H100 GPUs und insgesamt 600.000 KI-Chips zu sichern, was zur größten je gesehenen KI-Rechenleistung führen könnte. Diese Investitionen machen Meta zu einem starken Akteur, insbesondere wenn sie in der Lage sind, eigene AGI-ähnliche Modelle in ihre Social-Media- und Metaverse-Plattformen zu integrieren.
(Weitere Akteure wie Baidu und Alibaba werden ebenfalls erwähnt, aber dieser Bericht konzentriert sich hauptsächlich auf US-Beispiele.)
Vielversprechende Investitionsmöglichkeiten in der AGI-Ära (langfristige Perspektive)
Die Entwicklung von AGI beeinflusst nicht nur Forschungseinrichtungen und Softwareunternehmen, sondern wirkt sich umfassend auf die gesamte Industrie aus, einschließlich Hardware, Halbleiter und Cloud-Services. Aus langfristiger Investitionssicht werden die folgenden Unternehmen häufig als potenzielle Gewinner in der AGI-Ära genannt:
- Nvidia:
Ein führendes Unternehmen im GPU-Design und der größte Nutznießer des ChatGPT-Booms. Fast alle Unternehmen, darunter OpenAI, Google und Meta, sind auf Nvidia’s A100/H100 GPUs angewiesen, um ihre fortschrittlichen Modelle zu trainieren. Trotz hoher Preise (30.000–40.000 Dollar pro H100) ist die Nachfrage explodiert, was zu rekordhohen Umsätzen im Bereich der AI-Chips für Rechenzentren geführt hat. - AMD:
Als Hauptkonkurrent von Nvidia im GPU-Markt wächst AMD durch die Entwicklung der MI300-Serie und KI-Beschleuniger. Mit Plänen, GPUs der Instinct-Serie in großen Mengen von Google zu beziehen, ist der Markt überzeugt, dass eine zuverlässige Versorgung mit GPUs – unabhängig von der Marke – entscheidend ist. - TSMC:
Die weltweit größte Foundry produziert fortschrittliche AI-Chips wie NVIDIA H100, AMD MI300 und Googles TPU. Die steigende Nachfrage nach AI-Chips treibt die Auslastung und Umsätze von TSMC in die Höhe und macht das Unternehmen zu einem zentralen Akteur in der AI-Halbleitertechnologie. - Microsoft:
Als enger Partner von OpenAI und mit der eigenen Azure-Cloud-Plattform wird Microsoft voraussichtlich enorm von der globalen Umstellung auf KI profitieren. Ihre schnelle Integration von KI in Produkte wie Bing, Office und Windows verschafft ihnen einen strategischen Vorteil. - Google:
Google besitzt ein massives Ökosystem, das Suchdienste, Cloud-Services und mobile Plattformen umfasst. Durch Google DeepMind und weitere Initiativen investieren sie in die Entwicklung eigener AGI-Technologien, was die Erlösmodelle in den Bereichen Suche und Werbung neu definieren könnte. - Meta:
Durch aggressive Investitionen in KI-Forschung und -Infrastruktur positioniert sich Meta als potenzieller Gewinner in der zukünftigen KI-Ära, auch wenn ihre AGI-Ziele weniger klar definiert sind.
Rechenleistung für AGI (GPU-Skalenanalyse)
Um AGI zu entwickeln, ist enorme Rechenleistung erforderlich. Zum Beispiel kamen etwa 20.000 NVIDIA GPUs zum Einsatz, um GPT-4 in 90–100 Tagen zu trainieren – dies führte zu ca. 2,15×10^25 Operationen und einer Leistung, die nahe an der menschlichen Sprachkompetenz liegt. Zukünftige Modelle wie Grok werden voraussichtlich noch weitaus größere Mengen an Rechenressourcen benötigen:
- OpenAI GPT-3: Schätzungen zufolge kamen Tausende von NVIDIA V100 GPUs zum Einsatz (etwa 36,4 Millionen GPU-Stunden).
- OpenAI GPT-4: Nutzt Zehntausende NVIDIA A100 GPUs.
- xAI Grok-2: Ist geplant, ca. 20.000 NVIDIA H100 GPUs einzusetzen (voraussichtlicher Abschluss: Mai 2024).
- xAI Grok-3: Ist vorgesehen, über 100.000 NVIDIA H100 GPUs zu verwenden (Ziel: Ende 2024).
- Meta AI Research SuperCluster: Plant, bis zu 350.000 NVIDIA H100 GPUs zu sichern.
- Anthropic Claude-Next: Schätzungen zufolge werden Hunderttausende von GPUs benötigt, um die Leistung von GPT-4 um das Zehnfache zu steigern.
- Google DeepMind Gemini: Nutzt eine Kombination aus eigenen TPUs (in Tausenden) und zusätzlichen NVIDIA GPUs (exakte Zahlen sind vertraulich).
Diese Zahlen verdeutlichen, dass das Training fortschrittlicher KI-Modelle Rechenressourcen in großem Maßstab erfordert – von Zehntausenden bis hin zu potenziell über einer Million GPUs in der Zukunft. Dies erfordert nicht nur enorme Investitionen in Hardware, sondern auch beträchtliche Infrastruktur in Bezug auf Stromversorgung, Rechenzentrumsraum und Netzwerkkonnektivität. Letztendlich ist der Wettkampf um diese Rechenleistung zentral im Streben nach AGI, weshalb führende Unternehmen ihre Supercomputerparks und GPU-Reserven aggressiv ausbauen.
Quellen:
- OpenAI, “Planning for AGI and beyond” (2023)
- Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023)
- Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023)
- Reddit (Zusammenfassung von TechCrunch), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023)
- Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)
- TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024)
- SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024)
- AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024)