[아이뉴스24 권서아 기자] 엔비디아가 인공지능(AI) 추론 연산에 특화된 반도체와 새로운 중앙처리장치(CPU)를 공개하며 차세대 데이터센터 아키텍처를 제시했다.
인공지능(AI) 모델 학습 중심 구조에서 벗어나 실제 서비스를 수행하는 'AI 에이전트' 시대에 대응하기 위한 전략이다.
젠슨 황 엔비디아 최고경영자(CEO)는 16일(현지시간) 미국 캘리포니아주 새너제이에서 열린 연례 개발자 행사 'GTC 2026' 기조연설에서 그래픽처리장치(GPU)와 언어처리장치(LPU), CPU가 역할을 나누는 새로운 AI 컴퓨팅 구조를 소개했다.
![젠슨 황 엔비디아 최고경영자(CEO)가 17일(한국시간) 미국 캘리포니아 새너제이에서 열린 NVIDIA GTC 2026에서 기조연설을 하고 있다. [사진=엔비디아 홈페이지 캡처]](https://image.inews24.com/v1/13baecbc50fb10.jpg)
![젠슨 황 엔비디아 최고경영자(CEO)가 17일(한국시간) 미국 캘리포니아 새너제이에서 열린 NVIDIA GTC 2026에서 기조연설을 하고 있다. [사진=엔비디아 홈페이지 캡처]](https://image.inews24.com/v1/fc7c6bf23e1eae.jpg)
엔비디아는 언어처리장치(LPU)를 차세대 AI 슈퍼컴퓨터 플랫폼 '베라 루빈(Vera Rubin)'에 통합한다고 밝혔다.
이 구조에서는 GPU가 대규모 데이터 연산을 담당하고 LPU가 AI 응답 생성 등 추론 작업을 처리한다.
엔비디아는 이를 통해 초대형 AI 모델의 추론 처리량을 크게 높이고 지연 시간을 줄일 수 있다고 설명했다.
LPU 256개를 하나로 묶은 LPX 랙도 함께 공개됐다.
엔비디아는 또 새 CPU '베라(Vera)'를 발표했다. 이 칩에는 자체 설계한 '올림퍼스(Olympus)' 코어가 적용됐다.
![젠슨 황 엔비디아 최고경영자(CEO)가 17일(한국시간) 미국 캘리포니아 새너제이에서 열린 NVIDIA GTC 2026에서 기조연설을 하고 있다. [사진=엔비디아 홈페이지 캡처]](https://image.inews24.com/v1/63266456ff5372.jpg)
CPU 256개를 결합한 서버 랙도 함께 제시됐다. 이는 AI 시스템에서 연산 작업을 관리하고 조율하는 역할을 수행하도록 설계된 구조다.
엔비디아가 이 같은 구조를 강조한 것은 AI 산업의 중심이 모델 학습(training)에서 추론(inference) 단계로 이동하고 있기 때문이다.
추론 연산은 실제 AI 서비스 운영 과정에서 발생하는 작업으로, 향후 데이터센터 수요의 핵심이 될 것으로 예상된다.
이날 행사에서는 차세대 GPU 로드맵도 공개됐다.
엔비디아는 현재 플랫폼 이후에 등장할 GPU '파인만(Feynman)'을 소개했다. 이 칩은 새로운 CPU '로자(Rosa)'와 함께 구동되는 구조로 설계될 예정이다.
황 CEO는 이날 AI 시장 성장 가능성도 언급했다. 그는 "엔비디아가 대응하는 AI 칩 시장 기회가 최소 1조 달러(약 1500조원) 규모에 이를 것"이라고 말했다.
![젠슨 황 엔비디아 최고경영자(CEO)가 17일(한국시간) 미국 캘리포니아 새너제이에서 열린 NVIDIA GTC 2026에서 기조연설을 하고 있다. [사진=엔비디아 홈페이지 캡처]](https://image.inews24.com/v1/b64f0f5a2256b8.jpg)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기