Exclusive: Pentagon threatens to cut off Anthropic in AI safeguards dispute
News

Exclusive: Pentagon threatens to cut off Anthropic in AI safeguards dispute

Dave Lawler
2026.02.16
·Web·by 이호민
#AI#AI Safeguards#Anthropic#National Security#Pentagon

핵심 포인트

  • 1Pentagon은 AI 기업 Anthropic이 모델의 군사적 사용에 특정 제한을 두려는 시도로 인해 관계 단절을 고려하고 있습니다.
  • 2Anthropic은 미국 시민에 대한 대량 감시와 완전 자율 무기 사용을 제한하려는 반면, Pentagon은 "모든 합법적인 목적"으로 AI를 사용하기를 요구하며 충돌하고 있습니다.
  • 3현재 Pentagon의 기밀 네트워크에 사용되는 Claude는 대체하기 어렵지만, Anthropic은 다른 AI 회사들보다 더 "이념적"이라는 평가를 받으며 지속적인 협상 난항을 겪고 있습니다.

펜타곤은 AI 기업 Anthropic이 자신들의 AI model 사용에 특정 제한을 두려는 고집 때문에 Anthropic과의 관계를 단절하는 것을 고려하고 있습니다. 이는 펜타곤이 주요 AI labs에게 "모든 합법적인 목적(all lawful purposes)"을 위해, 심지어 weapons development, intelligence collection, battlefield operations와 같은 가장 민감한 영역에서도 자신들의 tool을 사용하도록 요구하는 상황에서 발생했습니다. Anthropic은 mass surveillance of Americans와 fully autonomous weaponry 두 영역은 제한되어야 한다는 입장을 고수하고 있습니다.

펜타곤의 한 senior administration official은 이러한 카테고리 내에 상당한 gray area가 있으며, 펜타곤이 Anthropic과 개별적인 use-cases를 협상하거나 Claude가 예기치 않게 특정 applications을 block하는 것은 unworkable하다고 주장했습니다. 이 official은 Anthropic과의 partnership을 줄이거나 완전히 단절하는 것을 포함하여 "모든 가능성(everything's on the table)"이 열려 있지만, 그럴 경우 질서 있는 "대체(orderly replacement)"가 필요할 것이라고 덧붙였습니다. Anthropic의 spokesperson은 U.S. national security를 지원하기 위해 frontier AI를 사용하는 데 여전히 "전념하고 있다(committed)"고 밝혔습니다.

이번 갈등은 최근 Venezuela의 Nicolás Maduro를 생포하기 위한 작전에서 Anthropic과 AI software firm Palantir의 partnership을 통해 Claude가 사용된 것을 계기로 심화되었습니다. 펜타곤 official에 따르면, Anthropic의 한 executive가 Palantir의 executive에게 Claude가 해당 raid에 사용되었는지 문의했으며, 이는 작전 중 "kinetic fire"가 발생하고 사람들이 총에 맞았기 때문에 software 사용을 승인하지 않을 수도 있다는 함의를 내포했다고 합니다. 하지만 Anthropic spokesperson은 Department of War (DoW)와 특정 작전에 Claude를 사용하는 것에 대해 논의한 적이 없으며, "엄격하게 technical matters에 대한 일상적인 논의 외에 어떤 industry partners와도 이 문제에 대해 논의하지 않았다"고 전면 부인했습니다. spokesperson은 Claude가 DoW를 포함한 정부 전반의 광범위한 intelligence-related use cases에서 Usage Policy에 따라 사용되고 있다고 설명했습니다. 또한, Anthropic과 DoW의 대화는 "fully autonomous weapons와 mass domestic surveillance라는 우리의 hard limits"와 관련된 특정 Usage Policy 질문에 초점을 맞추었으며, 이는 "현재의 작전(current operations)"과는 무관하다고 강조했습니다.

펜타곤 official은 Maduro 사건 외에도 Anthropic이 AI의 잠재적 위험에 관해 AI labs 중 가장 "ideological"한 경향이 있다고 언급하며 광범위한 culture clash가 있다고 묘사했습니다. 그러나 이 official은 "다른 model companies가 specialized government applications 면에서 뒤처져 있기 때문에" 펜타곤이 Claude를 빠르게 대체하기는 어려울 것이라고 인정했습니다. Anthropic은 지난여름 펜타곤과 최대 $200 million 규모의 contract를 체결했으며, Claude는 펜타곤이 classified networks에 도입한 첫 번째 model입니다. OpenAI의 ChatGPT, Google의 Gemini, xAI의 Grok은 모두 unclassified settings에서 사용되며, 이 세 기업은 펜타곤과의 협력을 위해 일반 사용자에게 적용되는 guardrails를 해제하는 데 동의했습니다. 펜타곤은 이들과 classified space로의 이전을 협상 중이며, classified 및 unclassified 사용 모두에 대해 "all lawful purposes" 표준을 주장하고 있습니다. 펜타곤 official은 이 세 기업 중 한 곳이 이미 해당 조건에 동의했으며, 나머지 두 곳도 Anthropic보다 더 많은 flexibility를 보이고 있다고 주장했습니다.

CEO Dario Amodei의 "AI-gone-wrong"에 대한 잘 알려진 우려 외에도, Anthropic은 펜타곤과의 협력에 대한 engineers 내부의 "불안감(internal disquiet)"도 헤쳐나가야 한다고 해당 역학에 정통한 소식통이 전했습니다. 그럼에도 불구하고 Anthropic spokesperson은 회사가 "national security 공간에 여전히 전념하고 있다"며, "그렇기 때문에 우리는 classified networks에 models을 올린 최초의 frontier AI company였고 national security 고객들을 위해 customized models을 제공한 최초의 기업이었다"고 언급하며 commitment를 재확인했습니다.