“AGI(범용 인공지능)의 미래와 유망 기업 분석: NVIDIA 칩부터 xAI Grok-3까지”

AGI(범용 인공지능)의 미래 전망과 주요 기업 분석

AGI(Artificial General Intelligence, 범용 인공지능)은 인간과 동등하거나 그 이상 수준의 모든 지적 과제를 수행할 수 있는 인공지능을 말합니다. 최근 ChatGPT 등의 등장으로 AGI에 대한 관심이 급증하면서, 여러 글로벌 기업들이 AGI 달성을 위한 경쟁에 뛰어들고 있습니다. 본 분석 보고서에서는 AGI의 미래 전망과 함께 AGI 개발을 선도할 주요 기업들, 장기 투자 관점에서 유망한 관련 기업들, 그리고 **AGI 구현에 필요한 방대한 컴퓨팅 자원(GPU)**에 대해 살펴보겠습니다.

AGI 개발을 선도하는 유력 기업

현재 AGI를 향한 경쟁에서 앞서가고 있거나 큰 영향을 미칠 것으로 기대되는 기업들은 다음과 같습니다.

OpenAI (오픈AI)

AGI라는 용어를 대중화시킨 중심에는 OpenAI가 있습니다. OpenAI의 미션 자체가 “인류 전체에 이로운 AGI를 개발하는 것”이라고 명시되어 있을 정도입니다 . GPT-3와 GPT-4와 같은 거대 언어모델(LLM)을 연이어 성공시키며 AGI 가능성에 한 발 다가섰다는 평가를 받습니다. 마이크로소프트의 지원으로 초대형 AI 전용 슈퍼컴퓨터를 구축하여 GPT-4를 훈련했는데, 약 1만 개 이상의 NVIDIA A100 GPU가 사용되었고 , 차기 모델인 GPT-5를 위해서는 2만 5천 개 규모의 GPU까지 준비 중인 것으로 알려졌습니다 . OpenAI는 이러한 막대한 연산 자원을 기반으로 안전하고 통제 가능한 AGI를 달성하겠다는 목표를 내세우고 있습니다.

Google DeepMind (구글 딥마인드)

딥마인드는 바둑 AI 알파고로 유명한 기업으로, 현재 구글에 인수되어 Google DeepMind라는 이름으로 구글의 AI 연구개발을 이끌고 있습니다. 구글 딥마인드의 CEO 데미스 허사비스(Demis Hassabis)는 향후 10년 내 AGI 달성을 위한 청사진을 제시하며, 지나친 낙관을 경계하면서도 단계적 발전을 강조했습니다 . 특히 멀티모달(multimodal) AI에 주목하고 있는데, 텍스트뿐 아니라 이미지, 음성, 영상 등을 통합 이해하는 차세대 모델 **“Gemini(제미니)”**를 개발 중입니다  . Google DeepMind는 거대 언어모델 PaLM2를 기반으로 한 Bard를 공개하는 등 OpenAI에 대응하고 있으며, AGI 실현에 필요한 두세 가지 핵심 혁신만 더 이뤄진다면 인간 수준 지능에 도달할 수 있다고 전망합니다  . 구글은 자체 TPU(Tensor Processing Unit) 슈퍼컴퓨터를 보유함과 동시에 세계 최고 수준으로 NVIDIA GPU를 대량 구매하는 등 , 인프라 투자에서도 공격적인 행보를 보이고 있습니다. 또한 구글은 경쟁사인 Anthropic에도 전략 투자를 단행하여 지분을 확보 하고 자사 클라우드를 제공하는 등, AGI 경쟁에서 다각도로 앞서나가려 하고 있습니다.

xAI (엘론 머스크의 X.AI)

테슬라와 스페이스X의 CEO인 **엘론 머스크(Elon Musk)**가 2023년 설립한 신규 AI 기업 xAI 역시 AGI 경쟁의 다크호스로 떠올랐습니다. 머스크는 OpenAI 초기 설립자이기도 했으나 현재는 결별하고 독자 노선을 추구하고 있습니다. xAI는 최근 챗봇 **“그록(Grok)”**을 선보였는데, 이는 X(옛 트위터) 플랫폼과 연계되어 시의성 있는 응답과 유머러스한 스타일로 화제가 되었습니다. 머스크는 xAI의 최신 모델인 Grok-3에 대해 “경쟁사들의 최첨단 모델들을 능가한다”고 크게 홍보하고 있으며 , 무엇보다도 막대한 컴퓨팅 투자로 주목받고 있습니다. 그는 “Grok-3를 훈련시키는 데 NVIDIA H100 GPU 10만 개를 활용할 것”이라고 언급했는데 , 이는 이전 버전인 Grok-2의 약 2만 개 GPU 대비 5배에 달하는 규모입니다 . 10만 장의 H100은 장비 비용만 **약 3040억 달러(34조 원)**에 달할 정도로 엄청난 수준이며 , 이러한 투자를 통해 연말 공개될 Grok-3는 “정말 특별한 무언가”가 될 것이라고 자신하고 있습니다 . xAI는 현재 Grok-1.5까지 내부 테스트 중이며, 2024년 8월에 Grok-2, 연말에 Grok-3 출시를 예고한 상태입니다 . 머스크의 공격적인 투자와 빠른 개발 사이클로 미루어볼 때, xAI가 AGI 개발 레이스에서 단기간에 존재감을 드러낼 가능성도 무시할 수 없습니다.

Anthropic (앤트로픽)

Anthropic은 OpenAI 출신 인력들이 설립한 AI 스타트업으로, AI 안전성을 강조하며 차세대 대형 언어모델을 개발하고 있습니다. 현재 챗GPT의 경쟁 모델인 Claude(클로드) 시리즈를 출시하여 성능을 높여가고 있으며, 구글로부터 거액의 투자를 유치해 화제가 되었습니다 . Anthropic의 목표는 **“Claude-Next”**라는 코드명의 차세대 프런티어 모델을 개발하는 것으로, 이 모델은 GPT-4보다 10배 더 능력이 뛰어난 AI가 될 것이라고 합니다 . 이를 위해 향후 2~4년간 50억 달러(약 6조 원) 이상의 자금을 투자하여 초거대 모델을 훈련시키겠다는 계획을 세워두고 있습니다 . 사실상 AGI에 버금가는 “신의 한 수”급 AI를 만들겠다는 포부로 해석되며, **“2025/26년에 최고의 모델을 가진 회사는 이후 경쟁에서 누구도 따라잡을 수 없을 것”**이라는 자신감을 내비치고 있습니다  . Anthropic 역시 단순 연구에 머무르지 않고 점차 상용화와 산업 적용에 나서고 있으며  , AGI 시대의 선두주자가 되기 위해 안전과 성능 모두를 잡는 전략을 추구하고 있습니다.

Microsoft (마이크로소프트)

마이크로소프트는 AGI의 직접 개발자라기보다는 최대 지원자이자 활용자로서 핵심적인 역할을 하고 있습니다. 2019년 OpenAI에 10억 달러를 투자한 데 이어 2023년에는 향후 수년에 걸쳐 최대 100억 달러 규모 투자를 약속하며 OpenAI와 밀착 협력하고 있습니다. 사실상 OpenAI의 기술 개발에 필요한 애저(Azure) 클라우드 인프라를 제공하는 하드웨어 파트너로서, AGI 개발의 물적 기반을 구축해주는 셈입니다 . 마이크로소프트는 자사 데이터센터에 1만 개 이상의 GPU로 이루어진 초거대 AI 슈퍼컴퓨터를 이미 갖추었고, 이를 통해 OpenAI의 GPT-4를 훈련했습니다 . 더 나아가 OpenAI와 공동으로 차세대 GPT-5 훈련을 위한 2.5만개 이상의 GPU 클러스터를 준비 중이며 , 필요하다면 자체 AI 전용 칩 개발도 고려하고 있습니다. MS는 이러한 기술을 제품화하는 데에도 앞서 있는데, Bing 검색에 GPT-4 기반 챗봇을 접목하고 Office 365에 Copilot 기능을 넣는 등 상용 서비스에서 가장 먼저 최첨단 AI를 활용하고 있습니다. 또한 MS와 OpenAI는 **“프로젝트 스타게이트(Project Stargate)”**라는 이름으로 2028년까지 1000억 달러 규모의 AI 슈퍼컴퓨터를 구축해 AGI를 실현하는 원대한 계획까지 논의 중인 것으로 알려져 있습니다  . 이렇듯 마이크로소프트는 AGI 시대의 필수 인프라 제공자이자, AGI 혜택을 가장 먼저 제품에 녹여낼 기업으로 주목받고 있습니다.

Meta (메타, 페이스북)

메타는 공식적으로 “AGI를 목표로 한다”고 표방하지는 않았지만, AI 연구와 인프라 측면에서 빼놓을 수 없는 거대 플레이어입니다. 메타는 2022년 공개한 LLaMA 등의 대형 언어모델을 오픈소스로 풀어 학계와 업계에 파장을 일으켰고, 이미지 생성 AI(Imagen 등)과 멀티모달 AI 연구도 활발히 진행 중입니다. 특히 하드웨어 투자 규모에서 메타는 타사를 압도하는데, 2024년 말까지 최신 NVIDIA H100 GPU를 35만 개 이상 확보하고, 기타 GPU를 포함해 총 60만 개 규모의 AI 칩을 보유할 계획이라고 마크 저커버그 CEO가 밝혔습니다 . 이는 단일 기업으로서 사상 최대 규모의 AI 컴퓨팅 자원으로, 메타가 향후 방대한 AI 모델들을 개발하거나 운영하는 데 사용될 전망입니다. 이처럼 공격적인 인프라 투자(약 180억 달러 규모) 를 통해 메타는 추천시스템이나 생성형 AI 기능을 자사 소셜미디어와 메타버스 플랫폼 전반에 적용하려 하고 있습니다. 거대 언어모델을 캐릭터화한 AI 챗봇을 인스타그램 등에 도입하고, 향후 개인 맞춤형 AI 비서 등을 제공할 것이라는 계획도 밝혔습니다. 메타의 이러한 행보는 AGI에 직접 도전하기보다는 AGI 기술의 응용과 보편화에 초점이 맞춰져 있지만, 그 기반이 되는 AI 연구 역량과 컴퓨팅 파워 측면에서는 최상위권이므로 향후 AGI 개발 경쟁에 충분히 영향력을 행사할 수 있는 플레이어입니다.

(※ 이밖에도 Baidu(바이두), Alibaba(알리바바)와같은중국의빅테크기업들도자체적인거대 AI 모델개발과슈퍼컴퓨터구축에나서며 AGI 경쟁에참여하고있으나, 본문서에서는미국중심의주요사례에집중합니다.)

AGI 시대를 대비한 유망 투자 기업 (장기 관점)

AGI 기술의 발전은 특정 연구소나 소프트웨어 기업뿐만 아니라 하드웨어, 반도체, 클라우드 등 관련 산업 전반에 걸쳐 파급 효과를 미치게 됩니다. 장기 투자 관점에서 AGI 수혜주로 거론되는 주요 기업들은 다음과 같습니다.

엔비디아(Nvidia): 세계적인 GPU 설계 기업으로, ChatGPT 열풍의 최대 수혜주입니다. OpenAI, 구글, 메타 등 거의 모든 기업이 AGI 수준 AI를 훈련하기 위해 엔비디아의 A100/H100 GPU에 의존하고 있습니다. 최첨단 칩인 H100 한 장의 가격이 약 3만~4만 달러에 이를 정도로 고가임에도 불구하고 , 수요가 폭발적으로 증가하여 품귀 현상까지 빚어졌습니다. 메타는 2024년까지 H100을 35만 개 이상 구매할 계획이고, 총 60만 개의 GPU를 보유하게 될 것이라고 밝혔습니다 . 이러한 시장 흐름 덕분에 엔비디아는 데이터센터용 AI칩 매출이 사상 최대를 기록하며 주가도 급등했습니다. AGI를 향한 경쟁이 계속되는 한 엔비디아의 성장세는 지속될 전망입니다.

AMD(에이엠디): 엔비디아의 유일한 대형 경쟁 GPU 업체인 AMD도 주목됩니다. 아직 AI GPU 시장점유율은 낮지만, 최근 MI300 시리즈 등 AI 가속기 개발에 박차를 가하고 있습니다. 구글은 엔비디아 GPU 부족에 대비해 AMD의 Instinct GPU도 대량 구매할 계획일 정도로, 시장에서는 “일단 NVIDIA든 AMD든 GPU 물량을 확보하는 것이 관건”이라는 분위기입니다 . AMD는 CPU와 FPGA(Xilinx 인수) 역량도 보유하여 종합 AI 솔루션 제공을 모색하고 있어, 향후 AGI 시대에 하드웨어 다변화를 이끌 가능성이 있습니다.

TSMC(티스엠씨, 대만 반도체 제조): 세계 최대 파운드리(반도체 위탁생산) 기업인 TSMC도 간접적인 AGI 수혜 기업입니다. 엔비디아 H100, AMD MI300, 구글 TPU 등 첨단 AI 칩들은 모두 TSMC의 최신 공정에서 생산되고 있습니다. AGI 개발 경쟁으로 AI 칩 수요가 늘어나면 TSMC의 가동률과 수익도 함께 상승할 것입니다. 이미 TSMC는 NVIDIA의 차세대 GPU(코드명 Blackwell) 생산을 위해 3나노 공정 캐파를 확보하고 있으며, 대규모 데이터센터용 칩 수요에 대응하기 위해 지속적인 설비 투자를 단행하고 있습니다. 장기적으로 AI 반도체의 폭발적 성장이 예견되므로, TSMC는 반도체 제조 부문의 핵심 투자처로 꼽힙니다.

마이크로소프트(Microsoft): 앞서 살펴본 대로 MS는 OpenAI와 함께 AGI 발전을 선도하고 있으며, 클라우드 인프라 부문에서 가장 확실한 수혜가 예상됩니다. 전 세계 기업들이 초거대 AI를 개발하거나 활용하려면 결국 Azure, AWS, 구글클라우드 같은 곳에서 서버를 임대해야 하는데, MS Azure는 OpenAI와의 협업을 통해 AI 친화적 클라우드 이미지를 굳혔습니다. MS는 투자자로서 OpenAI 지분도 보유하고 있어, 향후 AGI가 상용화되었을 때 지분 수익도 기대됩니다. 또한 MS 자체적으로 Bing, Office, Windows 등에 AI를 빠르게 접목하여 제품 경쟁력 향상과 **새로운 수익원(예: GitHub Copilot 유료화)**을 만들고 있습니다. AGI가 현실화될 경우 이를 가장 먼저 적용하고 널리 배포할 수 있는 채널을 가진 기업이 MS라는 점에서, AGI 시대의 플랫폼 지배자로 투자 매력이 높습니다.

구글(Google): 구글은 검색, 클라우드, 모바일(OS) 등 다방면에서 AI 기술을 활용할 거대한 생태계를 갖고 있습니다. 앞서 언급한 Google DeepMind를 통해 AGI 핵심기술을 직접 개발함과 동시에, 안드로이드부터 지메일, 지능형 비서까지 자사 서비스 전반에 AI를 확산시킬 것입니다. 구글이 성공적으로 GPT-4를 능가하는 모델 (예: Gemini)을 내놓는다면 검색 광고비즈니스의 수성은 물론, 새로운 AI 서비스 시장도 선점할 가능성이 큽니다. 또한 구글은 Anthropic 등 경쟁 스타트업에 투자하고 협력함으로써 AI 패권을 놓치지 않으려는 전략적 행보를 보이고 있습니다 . 클라우드 부문에서도 구글은 자사 TPU 인프라를 Anthropic에 제공하는 등 AGI 수요를 흡수하고 있어, AI 시대에도 견고한 기술력과 인프라로 이익을 볼 회사로 평가됩니다.

메타(Meta): 메타는 막대한 설비 투자를 통해 AI 역량을 키우고 있는 점에서 투자자들의 관심을 모읍니다. 2023년에만 AI 연구개발과 인프라에 약 300~330억 달러를 투자할 것이라고 발표했을 정도로 (이는 동년도 총매출의 약 30%에 해당), 미래를 내다본 베팅을 하고 있습니다. 메타는 향후 수년간 AI 모델 오픈소스화 전략을 지속하면서 업계를 주도하고, 동시에 자사 플랫폼에 AI 기능을 심어 사용자 경험 혁신을 노리고 있습니다. 만약 메타가 보유한 60만 개의 GPU 중 일부를 활용해 독자적인 AGI 수준 모델을 만들거나, 오픈소스 커뮤니티와 협력해 범용 AI 플랫폼을 구축한다면 게임체인저가 될 수 있습니다. 다만 메타의 AI 투자는 현재까지는 광고 추천 고도화메타버스 구현 등 특정 목적에 맞춰져 있어, 직접적 AGI 달성 여부는 불투명합니다. 그럼에도 불구하고 이처럼 AI 시대 인프라를 선점하는 기업이라는 점에서 중장기 투자 가치가 있습니다.

(※ 이외에, AI 반도체스타트업(: 그래프코어, 세레브라스)이나클라우드기업(아마존 AWS) AGI 수혜가능성이있지만, 본문서에서는대표적인상장기업위주로다루었습니다.)

AGI 개발에 필요한 방대한 컴퓨팅 자원 (GPU 규모 분석)

AGI를 개발하기 위해서는 어느 정도의 컴퓨팅 파워가 필요할까요? 현재 공개된 최첨단 AI 모델들의 사례를 보면 그 힌트를 얻을 수 있습니다. 거대 언어모델 GPT-4의 학습에는 대략 20,000개 규모의 NVIDIA GPU가 투입되어 90~100일간 훈련이 이뤄졌다고 알려져 있습니다 . 이를 통해 약 2.15×10^25회의 연산을 수행했고, 인간 수준 언어이해에 근접하는 성능을 달성했습니다 . 반면 그로크(Grok)와 같은 차세대 모델들은 이보다 훨씬 큰 연산을 계획하고 있습니다. 일론 머스크는 Grok-3 훈련에 100,000개 이상의 GPU를 투입할 것이라고 밝혔는데 , 이는 단일 모델 학습 규모로 사상 최대치입니다. 이처럼 AI 모델 훈련에 투입되는 GPU 수는 기하급수적으로 증가하고 있습니다:

OpenAI GPT-3 (1750억 파라미터): NVIDIA V100 GPU 수천 개 규모(추정) – 약 3640만 GPU-시간 소요 (추산치)

OpenAI GPT-4 (파라미터 비공개): NVIDIA A100 GPU 만여 개 사용 – 약 2.15×10^25 FLOPs 연산 수행  (약 2천만 ExaFLOP)

xAI Grok-2: NVIDIA H100 GPU 약 20,000개 사용  – (2024년 5월 완료 예정)

xAI Grok-3: NVIDIA H100 GPU 100,000개 투입 예정  – (2024년 말 목표)

Meta AI Research SuperCluster: NVIDIA H100 GPU 최대 350,000개 확보 계획  – (복수의 모델 개발 및 운영에 활용)

Anthropic Claude-Next: 정확한 GPU 수치는 미확인이나, “GPT-4의 10배 능력” 목표로 수십만 개 규모 연산 추정

Google DeepMind Gemini: 자체 TPUv4 팟 수만 개 + 추가 NVIDIA GPU 병용 (규모는 기밀)

위 수치들에서 보듯, 최신 AI 모델의 학습에는 수만~수십만 대의 GPU가 필요합니다. 그렇다면 진정한 AGI를 위해서는 100만 장 이상의 GPU가 필요할까요? 이에 대해 명확한 답을 알 수는 없지만, 업계에서는 “현재 GPT-4 수준의 모델들은 모두 비슷한 연산량 한계에 머물러 있으므로 근본적으로 한 단계 도약하려면 최소 10배 이상의 컴퓨팅 증가가 필요”하다는 견해가 있습니다 . 실제로 OpenAI와 마이크로소프트는 2028년까지 1000억 달러를 투자해 기존 대비 100배 이상의 AI 컴퓨팅 인프라를 구축하려는 계획을 논의 중인데 , 이는 결과적으로 수백만 개에 달하는 최신 GPU 또는 그에 상응하는 성능의 AI 칩이 요구됨을 의미합니다. 100만 개의 GPU는 전례없는 규모이지만, 이미 메타 등이 60만 개 수준까지 확보하고 있는 만큼 머지않은 미래에 현실화될 수도 있습니다 . 다만 이 정도의 자원을 단일 AI에 투입하려면 전력(수백 메가와트 규모)과 데이터센터 공간 확보, 네트워크 안정성 등 복잡한 공학적 도전도 뒤따릅니다 . 결국 AGI 달성은 막대한 연산량 확보 경쟁과도 직결되어 있으며, 현재 선두를 달리는 기업들이 앞다투어 슈퍼컴퓨터 증설 및 GPU 확보에 나서는 이유도 여기에 있습니다.

출처:

1. OpenAI, “Planning for AGI and beyond” (2023) 

2. Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023) 

3. Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023) 

4. Reddit (TechCrunch 요약), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023) 

5. Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)  

6. TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024) 

7. SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024) 

8. AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024) 

  1. AGI 시대, NVIDIA 칩과 xAI Grok-3의 역할 – 매일경제
  2. 범용 인공지능(AGI) 개발 현황과 유망 기업 분석 – 한국경제
  3. NVIDIA, xAI Grok-3와 AGI 혁신 전망 – 전자신문

엔비디아
G
T
C
엔비디아 GTC

#AGI 

#인공지능 

#범용인공지능 

#AI투자 

#NVIDIA 

#OpenAI 

#xAI 

#Grok3 

#미래기술 

#엔비디아칩 

위로 스크롤