목록으로
NVIDIA의 전략은 확실하네요. CES 2026 Keynote 핵심 정리 | 자율주행 '플랫폼‘을 팔고 Vera-Rubin GPU, Cosmos와 DLSS 4.5까지
Video2026.01.11

NVIDIA의 전략은 확실하네요. CES 2026 Keynote 핵심 정리 | 자율주행 '플랫폼‘을 팔고 Vera-Rubin GPU, Cosmos와 DLSS 4.5까지

요약

NVIDIA는 Vera CPU, Rubin GPU (HBM4 포함), MV Link 6, Connect X9 NIC, Bluefield 4 DPU, Spectrum X Ethernet Photonics 등 6가지 핵심 구성 요소를 통합한 AI 슈퍼컴퓨터 플랫폼 Vera Rubin을 공개하며 AI 워크로드의 대규모 처리와 효율성 극대화를 목표로 합니다.
자율주행 분야에서는 AlphaMayo 개방형 모델과 종합 시뮬레이션 프레임워크를 통해 데이터 수집부터 검증까지 전체 개발 루프를 제공하고, Drive Hyperion 플랫폼으로 자동차 제조사의 자율주행 기술 개발 가속화를 지원합니다.
게이밍을 위한 DLSS 4.5 발표와 더불어, NVIDIA는 로봇 및 자율 시스템을 위한 Cosmos 시뮬레이션 환경을 강조하며, Vera Rubin 플랫폼과 같은 통합 솔루션을 통해 물리적 AI와 AI 데이터센터 구축 전반의 병목 현상을 해결하고 AI 생태계 발전을 이끌고 있습니다.

상세 내용

NVIDIA는 CS 2026에서 여러 발표를 통해 자사의 AI 및 컴퓨팅 전략을 공개했습니다. 이 발표의 핵심은 Vera Rubin 플랫폼이며, 이는 단순한 GPU 칩을 넘어 6가지 핵심 구성 요소를 조율하여 강력한 AI 슈퍼컴퓨터를 구축하는 통합 시스템입니다.

Vera Rubin 플랫폼의 핵심 구성 요소 및 기술적 상세:

  • Rubin GPU:
  • * 차세대 HBM인 HBM4를 탑재합니다. HBM4는 12단 및 16단 스택으로 구성되며, 특히 SK하이닉스가 16단 HBM4를 최초로 공개했습니다.
    * 기존 HBM3e에서 1024개였던 TSV(Through-Silicon Via) 채널 수가 2048개로 두 배 증가하여 물리적으로 더 많은 개방 통로를 통해 대역폭이 크게 확장되었습니다.
    * 총 288GB의 메모리 용량(8스택 기준)을 제공하며, 단일 GPU당 22 TB/s의 메모리 대역폭을 달성합니다. 이는 장문맥(long context)을 처리하는 에이전트 타입 워크로드, 행렬 및 텐서 연산에 특화되어 학습과 추론 모두에 최적화되어 있습니다.
    * 특히 LLM의 장기 기억장치라고 할 수 있는 KV 캐시(Key-Value Cache)를 위한 메모리 저장 용량을 크게 늘려 모델의 커버리지를 확장합니다.
    * FP4 정밀도(MVFP4) 기준 50 PetaFLOPS의 성능을 제공합니다. 이는 기존 FP32, FP16, FP8 정밀도에서 나아가 더 낮은 비트의 정밀도를 활용하여 AI 모델의 대규모 스케일링에 맞춰져 있습니다.

  • Vera CPU:
  • * NVIDIA의 자체 개발 CPU로, 88개의 Arm Neoverse V2 코어를 탑재합니다.
    * 기존 Grace CPU 대비 1.5TB의 방대한 메모리 용량을 제공하며, MV C2C(Chip-to-Chip) 인터페이스를 통해 CPU와 GPU 간에 1.8TB/s의 데이터 전송이 가능합니다.
    * CPU의 역할은 GPU가 작업을 효율적으로 처리할 수 있도록 워크로드를 스케줄링하고 병목 현상 없이 GPU의 잠재력을 최대한 활용하게 돕는 데 집중합니다.

  • MVLink 6:
  • * NVIDIA의 독점적인 고속 통신 표준으로, MVLink 5의 양방향 1.8 TB/s에서 두 배 향상된 3.6 TB/s의 양방향 대역폭을 제공합니다.
    * 이는 GPU-GPU 및 CPU-GPU 간의 초고속 연결을 가능하게 하여 대규모 분산 AI 학습 시스템에서 노드 간 통신 병목을 해소합니다.

  • ConnectX9 NIC (Network Interface Card):
  • * 800Gb 이더넷 포트를 갖춘 고성능 NIC입니다.
    * 랙 간 데이터 전송 및 네트워크 통신을 담당하며, AI 슈퍼컴퓨터의 노드 간 연결 속도를 극대화합니다.

  • Bluefield 4 DPU (Data Processing Unit):
  • * CPU와 GPU의 주요 연산에서 네트워크, 보안, 스토리지 관련 기능을 분리하여 오프로드하는 전용 프로세서입니다.
    * KV 캐시 관리(필요시 스토리로 임시 오프로드 및 로드), 네트워킹, 보안 처리 등을 담당하여 CPU와 GPU가 핵심 AI 연산에 집중할 수 있도록 지원합니다.

  • Spectrum X Ethernet Photonics (Co-packaged Optics - CPO):
  • * 고속 이더넷 스위치에 광학 부품을 통합(Co-packaged)하는 기술입니다.
    * 전기 신호 대신 빛(포토닉스)을 사용하여 데이터 통신을 처리함으로써 신호 무결성을 유지하고, 대규모 AI 클러스터 내 노드 간의 무거운 트래픽을 훨씬 깨끗하고 빠르게 처리합니다.

    이 Rubin 플랫폼은 전력 효율성, 신뢰성, 보안성 및 배포 속도 측면에서 최적화된 AI 팩토리 운영을 목표로 합니다. 특히 토큰 코스트(token cost)를 낮추고 동일 모델 규모에서 더 적은 수의 GPU로도 효율적인 학습이 가능하도록 설계되었습니다.

    주요 활용 분야 및 추가 발표:

    * 자율주행 (Autonomous Driving) - AlphaMayo:
    * 자율주행 개발 가속화를 위한 개방형 모델을 제공합니다. 이는 데이터 수집, 정제, 시뮬레이션 검증, 안전 사고 분석 등 자율주행 개발의 전체 루프를 포함합니다.
    * VLA (Vision Language Action) 모델을 기반으로 하며, AI 작동 방식에 대한 설명 가능한 추론(explainable inference)을 강조합니다.
    * Drive Hyperion은 레벨 2부터 레벨 4까지의 자율주행을 위한 통합 플랫폼으로, 카메라, 레이더, 라이다 등 센서 아키텍처와 컴퓨팅을 지원합니다.
    * DLSS 4.5:
    * 게임 분야의 Super Resolution Upsampling 기술인 DLSS의 최신 버전입니다.
    * AI 기반의 초해상도 모델을 발전시켜 이미지 품질을 대폭 향상시켰습니다.
    * 핵심 기능은 프레임 생성으로, 하나의 프레임을 렌더링한 후 AI를 통해 최대 5개의 추가 프레임을 생성하여 총 6배의 프레임률 향상을 제공합니다.
    * 물리적 AI (Physical AI) 및 Cosmos:
    * 로봇 및 자율 시스템을 위한 가상 세계 또는 비디오 시뮬레이션 기반의 학습 및 검증 모델/도구 시스템입니다.
    * 실세계 데이터 부족 문제를 해결하기 위해 시뮬레이션 기반 학습을 강조하며, DGX Spark와 같은 데이터센터 인프라 활용을 촉진합니다.

    궁극적으로 NVIDIA는 Rubin 플랫폼을 통해 AI 모델 생성에 필요한 인프라, 즉 AI 데이터센터를 위한 랙 스케일(rack-scale) 제품을 제공하며, 이는 자율주행, 게임, 로봇공학 등 AI 기반 산업 전반의 컴퓨팅 기반을 지원하는 것을 목표로 합니다.

    원본 보기
    YouTube
    Shared by Anonymous