NVIDIA의 전략은 확실하네요. CES 2026 Keynote 핵심 정리 | 자율주행 '플랫폼‘을 팔고 Vera-Rubin GPU, Cosmos와 DLSS 4.5까지
요약
상세 내용
Vera Rubin 플랫폼이며, 이는 단순한 GPU 칩을 넘어 6가지 핵심 구성 요소를 조율하여 강력한 AI 슈퍼컴퓨터를 구축하는 통합 시스템입니다.Vera Rubin 플랫폼의 핵심 구성 요소 및 기술적 상세:
* 기존 HBM3e에서 1024개였던 TSV(Through-Silicon Via) 채널 수가 2048개로 두 배 증가하여 물리적으로 더 많은 개방 통로를 통해 대역폭이 크게 확장되었습니다.
* 총 288GB의 메모리 용량(8스택 기준)을 제공하며, 단일 GPU당 22 TB/s의 메모리 대역폭을 달성합니다. 이는 장문맥(long context)을 처리하는 에이전트 타입 워크로드, 행렬 및 텐서 연산에 특화되어 학습과 추론 모두에 최적화되어 있습니다.
* 특히 LLM의 장기 기억장치라고 할 수 있는 KV 캐시(Key-Value Cache)를 위한 메모리 저장 용량을 크게 늘려 모델의 커버리지를 확장합니다.
* FP4 정밀도(MVFP4) 기준 50 PetaFLOPS의 성능을 제공합니다. 이는 기존 FP32, FP16, FP8 정밀도에서 나아가 더 낮은 비트의 정밀도를 활용하여 AI 모델의 대규모 스케일링에 맞춰져 있습니다.
* 기존 Grace CPU 대비 1.5TB의 방대한 메모리 용량을 제공하며, MV C2C(Chip-to-Chip) 인터페이스를 통해 CPU와 GPU 간에 1.8TB/s의 데이터 전송이 가능합니다.
* CPU의 역할은 GPU가 작업을 효율적으로 처리할 수 있도록 워크로드를 스케줄링하고 병목 현상 없이 GPU의 잠재력을 최대한 활용하게 돕는 데 집중합니다.
* 이는 GPU-GPU 및 CPU-GPU 간의 초고속 연결을 가능하게 하여 대규모 분산 AI 학습 시스템에서 노드 간 통신 병목을 해소합니다.
* 랙 간 데이터 전송 및 네트워크 통신을 담당하며, AI 슈퍼컴퓨터의 노드 간 연결 속도를 극대화합니다.
* KV 캐시 관리(필요시 스토리로 임시 오프로드 및 로드), 네트워킹, 보안 처리 등을 담당하여 CPU와 GPU가 핵심 AI 연산에 집중할 수 있도록 지원합니다.
* 전기 신호 대신 빛(포토닉스)을 사용하여 데이터 통신을 처리함으로써 신호 무결성을 유지하고, 대규모 AI 클러스터 내 노드 간의 무거운 트래픽을 훨씬 깨끗하고 빠르게 처리합니다.
이 Rubin 플랫폼은 전력 효율성, 신뢰성, 보안성 및 배포 속도 측면에서 최적화된 AI 팩토리 운영을 목표로 합니다. 특히 토큰 코스트(token cost)를 낮추고 동일 모델 규모에서 더 적은 수의 GPU로도 효율적인 학습이 가능하도록 설계되었습니다.
주요 활용 분야 및 추가 발표:
* 자율주행 (Autonomous Driving) - AlphaMayo:
* 자율주행 개발 가속화를 위한 개방형 모델을 제공합니다. 이는 데이터 수집, 정제, 시뮬레이션 검증, 안전 사고 분석 등 자율주행 개발의 전체 루프를 포함합니다.
* VLA (Vision Language Action) 모델을 기반으로 하며, AI 작동 방식에 대한 설명 가능한 추론(explainable inference)을 강조합니다.
* Drive Hyperion은 레벨 2부터 레벨 4까지의 자율주행을 위한 통합 플랫폼으로, 카메라, 레이더, 라이다 등 센서 아키텍처와 컴퓨팅을 지원합니다.
* DLSS 4.5:
* 게임 분야의 Super Resolution Upsampling 기술인 DLSS의 최신 버전입니다.
* AI 기반의 초해상도 모델을 발전시켜 이미지 품질을 대폭 향상시켰습니다.
* 핵심 기능은 프레임 생성으로, 하나의 프레임을 렌더링한 후 AI를 통해 최대 5개의 추가 프레임을 생성하여 총 6배의 프레임률 향상을 제공합니다.
* 물리적 AI (Physical AI) 및 Cosmos:
* 로봇 및 자율 시스템을 위한 가상 세계 또는 비디오 시뮬레이션 기반의 학습 및 검증 모델/도구 시스템입니다.
* 실세계 데이터 부족 문제를 해결하기 위해 시뮬레이션 기반 학습을 강조하며, DGX Spark와 같은 데이터센터 인프라 활용을 촉진합니다.
궁극적으로 NVIDIA는 Rubin 플랫폼을 통해 AI 모델 생성에 필요한 인프라, 즉 AI 데이터센터를 위한 랙 스케일(rack-scale) 제품을 제공하며, 이는 자율주행, 게임, 로봇공학 등 AI 기반 산업 전반의 컴퓨팅 기반을 지원하는 것을 목표로 합니다.