구글, 성능 10배 높인 차세대 AI 반도체 개발 - 매일경제
요약
상세 내용
이번에 공개된 AI 모델은 최신 대규모언어모델(LLM) 제미나이 2.5의 보급형 버전인 제미나이 2.5 플래시(Gemini 2.5 Flash)이다. 이 모델은 질문의 복잡성에 따라 처리 시간을 자동으로 조정하여 간단한 요청에 대해 더 신속한 답변을 제공함으로써 낮은 비용으로 빠른 서비스를 가능하게 한다. 구글은 제미나이 2.5 플래시가 고객 서비스, 실시간 정보 처리와 같은 대량 시나리오에 적합하며, 대규모 효율성이 핵심인 가상 비서에 이상적이라고 설명했다.
동시에, 구글은 차세대 AI 반도체이자 7세대 TPU(Tensor Processing Unit)인 아이언우드(Ironwood)를 공개했다. 아이언우드는 특히 추론(inference) 기능에 최적화되어 개발되었으며, 대규모 컴퓨팅 자원이 필요한 LLM을 실제 서비스 환경에서 효율적으로 구동하는 데 중점을 두었다. 이 반도체는 LLM에 도입되고 있는 혼합 전문가(MoE, Mixture-of-Experts) 기능과 고급 사고(Reasoning) 능력을 효율적으로 작동시킬 수 있다. 구글에 따르면 아이언우드는 2023년에 출시된 전 세대 반도체인 TPUv5p보다 10배 이상 뛰어난 성능을 제공한다.
아이언우드에는 198GB 대역폭의 고대역폭메모리(HBM)가 탑재되어 있어, 더 큰 모델과 데이터 세트를 처리할 수 있으며, 이는 데이터 전송의 빈번한 필요성을 줄이고 전반적인 성능을 향상시킨다. 이 HBM은 삼성전자가 미국 브로드컴을 통해 구글에 납품하고 있는 것으로 알려졌다. 구글은 아이언우드를 기반으로 하는 슈퍼컴퓨터를 활용할 경우, 제미나이 2.5 플래시가 경쟁력 있는 추론 비용으로 서비스를 제공할 수 있을 것으로 예상하고 있다.
이러한 움직임은 AI 가속기 시장의 80% 이상을 점유하고 있는 엔비디아가 점차 AI 학습(training)에서 추론(inference)으로 무게중심을 옮기는 상황에서, 구글이 추론 특화 반도체로 자체 역량을 강화하여 엔비디아에 대한 의존도를 줄이려는 전략으로 해석된다.
또한 구글은 에이전트 간 통신을 위한 '에이전트2에이전트(Agent2Agent)' 프로토콜과 오픈소스 프로토콜인 MCP(Multi-Party Computation Protocol) 지원도 발표했다. 토마스 쿠리안 구글 클라우드 CEO는 현재 400만 명 이상의 개발자가 제미나이를 활용하여 개발하고 있다고 밝혔다.