

엔비디아의 지배력 의문에 대한 명확한 반박
인공지능 시대의 핵심 주자인 엔비디아의 지배력에 대한 의문이 제기되는 시점에서 열린 GTC 2025가 어느 때보다 큰 관심을 모았다. 특히 AI 개발 및 운영에 수백, 수천 대의 AI 가속기를 투입하는 방식이 더 이상 유효하지 않을 것이라는 시장의 의문에 대해, 젠슨 황 엔비디아 CEO는 AI 인프라의 지속적인 확장이 필요한 명확한 이유를 제시했다.
현재 AI 업계에서는 추론 서비스의 확대와 효율적이고 저렴한 AI 모델 개발 방식의 등장으로 엔비디아 같은 고성능 GPU의 수요가 감소할 것이라는 전망이 있었다. 그러나 젠슨 황은 이번 GTC에서 여전히 엔비디아의 칩이 필요한 이유와 AI 기업들이 이를 통해 무엇을 할 수 있는지에 대한 로드맵을 명확히 제시하며 이러한 의문을 정면으로 반박했다.
젠슨 황은 AI가 현재 인식 AI, 생성형 AI 단계를 거쳐 에이전틱 AI(주체성을 갖고 맥락을 이해하며 계획을 세워 실행하고 도구를 사용)와 피지컬 AI(물리적 세계를 이해하며 인과 관계까지 파악) 단계로 나아가고 있다고 설명했다. 그는 이러한 AI 발전의 핵심이 논리적 추론(Reasoning) 능력에 있다고 강조했으며, 이 추론 능력을 구현하기 위해서는 현재보다 훨씬 더 많은 컴퓨팅 파워가 필요하다고 주장했다.
100배 증가하는 연산량, 추론의 힘이 가져올 변화
GTC 2025의 가장 중요한 메시지 중 하나는 AI가 단순히 답변을 생성하는 수준을 넘어 추론할 때 필요한 컴퓨팅 파워에 대한 인식 전환이었다. 젠슨 황은 흔히 추론(Inference)이 트레이닝보다 컴퓨팅 파워가 적게 든다는 견해가 잘못되었다고 지적했다. 생성형 AI의 단순 응답을 위한 추론이 아닌, 에이전틱 AI의 논리적 사고나 딥 서치를 위한 추론(Reasoning)은 트레이닝 못지않은 컴퓨팅 파워를 필요로 한다는 것이다.
추론형 AI는 체인 오브 소트 등 다양한 기술을 활용해 답을 도출하고 검증하는 단계적 사고 과정을 거친다. 이 과정에서 연산량이 크게 증가하는데, 젠슨 황은 검증을 위해 연산량이 10배 늘어나고, 응답 속도를 유지하기 위해 다시 10배 더 많은 연산이 필요해 기존 대비 연산량이 총 100배 증가할 수 있다고 설명했다.
이러한 주장을 뒷받침하기 위해 젠슨 황은 메타의 라마(생성형)와 딥마인드의 R1(추론형) 모델 비교 결과를 제시했다. R1은 라마 대비 20배 가까이 많은 토큰을 생성하고 150배 더 많은 연산을 수행했지만, 훨씬 정확한 결과를 도출했다. 이는 AI가 제대로 된 답을 내놓기 위해서는 방식에 따라 컴퓨팅 파워 소모량이 크게 늘어날 수 있으며, AI 성능 향상과 추론 기능의 자연스러운 사용을 위해 지속적인 스케일업이 필요하다는 엔비디아의 주장을 뒷받침한다.
추론이란 단순히 답을 생성하는 것이 아니라, 문제를 단계적으로 분석하고, 가능한 해결책을 탐색하며, 결과를 검증하는 과정입니다. 이러한 복잡한 인지 과정을 구현하기 위해서는 기존보다 훨씬 더 많은 컴퓨팅 파워가 필요합니다. - 젠슨 황, 엔비디아 CEO
엔비디아의 야심찬 하드웨어 로드맵
엔비디아는 이번 GTC에서 향후 수년간의 하드웨어 로드맵을 상세히 공개했다. 이는 더 높은 성능의 AI 가속기에 대한 지속적인 수요를 반영하는 동시에, 엔비디아가 미래 AI 인프라의 핵심 공급자로서의 지위를 공고히 하겠다는 의지를 보여준다.
-
블랙웰 울트라 (GV300)
2025년 하반기 출시 예정, GB300 슈퍼칩 기반 (블랙웰 GPU 2장 + 그레이스 CPU 1장), GV300 MVL 72 서버는 GB200 대비 1.5배, H100 대비 68배 성능 향상 제공
-
루빈 (Rubin)
2026년 하반기 출시 예정, 자체 설계 CPU인 베라와 결합, 블랙웰 대비 2.5배 성능 향상 목표, 베라 루빈 MVL 144는 GV300 MVL 72 대비 3.3배 성능 향상, 제품당 GPU 칩 4장 탑재 (총 144개 칩)
-
루빈 울트라 (Rubin Ultra MVL 576)
2027년 하반기 출시 예정, 제품당 GPU 칩 8장 탑재, 15 엑사플롭스급 성능 목표
-
파인만 (Feynman)
2028년 출시 예정인 새로운 GPU 아키텍처
이러한 스케일업 전략을 통해, H100 대비 블랙웰은 68배, 루빈은 900배의 성능을 내면서도, 같은 성능을 내는 데 드는 비용은 블랙웰이 H100의 13%, 루빈이 H100의 3% 수준으로 크게 절감될 것으로 예상된다. 이는 AI 성능과 경제성을 동시에 개선하는 엔비디아의 전략을 보여준다.
엔비디아는 대규모 데이터 센터뿐만 아니라 개인용 워크스테이션에서도 스케일업을 진행하고 있다. 블랙웰 울트라 기반의 DGX 스테이션과 블랙웰 기반의 DGX 스파크 실물 제품을 공개해 엔터프라이즈 및 연구소 규모의 AI 컴퓨팅 수요도 적극 공략하고 있다.
소프트웨어와 플랫폼: 수직적, 수평적 확장 전략
엔비디아는 하드웨어 스케일업뿐만 아니라 소프트웨어와 모델을 통한 수평적 확장(스케일 아웃) 전략도 강조했다. 젠슨 황은 엔비디아가 단순히 칩만 만드는 회사가 아니라 종합 AI 인프라를 제공하는 회사로서, 데이터 센터를 AI가 답을 만들어내는 'AI 팩토리'로 정의했다.
이러한 비전을 실현하기 위한 핵심 소프트웨어로 엔비디아 다이나모(Dynamo)를 공개했다. 다이나모는 추론형 AI 모델 배포 효율성을 극대화하는 AI 추론 서빙 소프트웨어로, 연산 수요를 최적화하고 여러 GPU에 작업을 분배하여 병목 현상을 해결하고 효율성을 높인다. 이를 통해 동일 GPU 개수로도 처리량을 두 배까지 늘릴 수 있다고 엔비디아는 주장한다.
또한 엔비디아는 피지컬 AI 관련 소프트웨어 플랫폼도 확장했다. 휴머노이드 로봇 및 AI 로봇 개발을 위한 범용 모델인 그루트 N1(GR00T N1)을 오픈 소스로 제공해 로봇공학 분야에서의 AI 적용을 가속화하고 있다.
마지막으로 엔비디아는 하드웨어에서 작동하는 개발 생태계인 쿠다(CUDA) X 라이브러리를 900개 이상의 산업 영역으로 확장했다. 이를 통해 천문학, 양자 물리학, 반도체 설계 등 다양한 분야에서 AI 기술을 활용해 산업 발전을 가속할 수 있도록 지원하고 있다.
엔비디아의 미래 비전과 시장 반응
이번 GTC 2025는 초고성능 AI 반도체 필요성에 대한 의문에 대해 논리적인 답을 제시하고, 하드웨어의 지속적인 스케일업과 더불어 소프트웨어 및 플랫폼 확장을 통한 스케일 아웃 전략을 동시에 보여줬다. 이는 AI 산업에서 수직적, 수평적 모두를 장악하려는 엔비디아의 의지를 분명히 드러냈다.
엔비디아의 주장을 뒷받침하듯, 아마존, 마이크로소프트, 구글, 오라클 등 4대 클라우드 기업은 여전히 엔비디아 칩 구매를 늘리고 있다. 블랙웰(Blackwell) 칩 판매량은 전작 호퍼(Hopper, H100/H200) 대비 세 배에 달하며, 블랙웰 기반 시스템(GB200)은 호퍼 기반 시스템(H100) 대비 칩 수는 약 2배 증가했지만, 초당 토큰 생산량은 40배 증가하는 엄청난 성능 향상을 제공한다.
데이터 센터 투자 역시 지속될 것으로 전망되며, 2028년까지 1조 달러에 달할 것으로 예상된다. 기존 생성형 AI보다 훨씬 더 많은 컴퓨팅 파워를 필요로 하는 추론형 AI, 에이전틱 AI, 피지컬 AI로의 발전 흐름 속에서 엔비디아의 하드웨어와 소프트웨어 통합 전략은 AI 시대의 핵심 인프라 공급자로서의 지위를 더욱 공고히 할 것으로 보인다.