목록으로
구글, 성능 10배 높인 차세대 AI 반도체 개발 - 매일경제
News2025.04.14

구글, 성능 10배 높인 차세대 AI 반도체 개발 - 매일경제

요약

구글은 '넥스트 2025' 행사에서 대규모언어모델 Gemini 2.5 Flash와 추론에 특화된 7세대 AI 반도체 Ironwood를 공개했습니다.
Ironwood는 198GB HBM을 탑재하여 2023년 모델 대비 10배 이상 향상된 성능으로 LLM의 효율적인 구동을 최적화했습니다.
구글은 저비용 고성능 모델 Gemini 2.5 Flash와 Ironwood를 통해 엔비디아 의존도를 줄이고 경쟁력 있는 AI 서비스를 제공할 계획입니다.

상세 내용

구글은 미국 라스베이거스에서 개최된 연례 행사 '넥스트 2025'에서 새로운 인공지능(AI) 모델과 AI 반도체를 공개하며, 고성능 및 저비용 모델로 경쟁력을 강화하고 엔비디아에 대한 의존도를 낮추려는 전략을 선보였다.

이번에 공개된 AI 모델은 최신 대규모언어모델(LLM) 제미나이 2.5의 보급형 버전인 제미나이 2.5 플래시(Gemini 2.5 Flash)이다. 이 모델은 질문의 복잡성에 따라 처리 시간을 자동으로 조정하여 간단한 요청에 대해 더 신속한 답변을 제공함으로써 낮은 비용으로 빠른 서비스를 가능하게 한다. 구글은 제미나이 2.5 플래시가 고객 서비스, 실시간 정보 처리와 같은 대량 시나리오에 적합하며, 대규모 효율성이 핵심인 가상 비서에 이상적이라고 설명했다.

동시에, 구글은 차세대 AI 반도체이자 7세대 TPU(Tensor Processing Unit)인 아이언우드(Ironwood)를 공개했다. 아이언우드는 특히 추론(inference) 기능에 최적화되어 개발되었으며, 대규모 컴퓨팅 자원이 필요한 LLM을 실제 서비스 환경에서 효율적으로 구동하는 데 중점을 두었다. 이 반도체는 LLM에 도입되고 있는 혼합 전문가(MoE, Mixture-of-Experts) 기능과 고급 사고(Reasoning) 능력을 효율적으로 작동시킬 수 있다. 구글에 따르면 아이언우드는 2023년에 출시된 전 세대 반도체인 TPUv5p보다 10배 이상 뛰어난 성능을 제공한다.

아이언우드에는 198GB 대역폭의 고대역폭메모리(HBM)가 탑재되어 있어, 더 큰 모델과 데이터 세트를 처리할 수 있으며, 이는 데이터 전송의 빈번한 필요성을 줄이고 전반적인 성능을 향상시킨다. 이 HBM은 삼성전자가 미국 브로드컴을 통해 구글에 납품하고 있는 것으로 알려졌다. 구글은 아이언우드를 기반으로 하는 슈퍼컴퓨터를 활용할 경우, 제미나이 2.5 플래시가 경쟁력 있는 추론 비용으로 서비스를 제공할 수 있을 것으로 예상하고 있다.

이러한 움직임은 AI 가속기 시장의 80% 이상을 점유하고 있는 엔비디아가 점차 AI 학습(training)에서 추론(inference)으로 무게중심을 옮기는 상황에서, 구글이 추론 특화 반도체로 자체 역량을 강화하여 엔비디아에 대한 의존도를 줄이려는 전략으로 해석된다.

또한 구글은 에이전트 간 통신을 위한 '에이전트2에이전트(Agent2Agent)' 프로토콜과 오픈소스 프로토콜인 MCP(Multi-Party Computation Protocol) 지원도 발표했다. 토마스 쿠리안 구글 클라우드 CEO는 현재 400만 명 이상의 개발자가 제미나이를 활용하여 개발하고 있다고 밝혔다.

원본 보기
Web
Shared by Anonymous