AI

Anthropic vs 펜타곤 AI 안전의 마지노선을 둘러싼 역사적 대치

Anthropic이 펜타곤의 무조건적 AI 군사 사용 요구를 거부하며 대량 감시와 자율 무기라는 두 가지 레드라인을 지킨 역사적 대치의 전말을 정리했습니다.

#Anthropic #펜타곤 #AI안전 #DarioAmodei #Claude #국방부 #AI윤리 #AI군사화
Anthropic vs 펜타곤 AI 안전의 마지노선을 둘러싼 역사적 대치

Anthropic 공식 성명 원문 보기

TechPolicy.Press 분쟁 타임라인

2026년 2월 27일 금요일, 미 동부시간 오후 5시 01분. 이 시각은 실리콘밸리와 워싱턴 D.C. 사이의 관계를 근본적으로 바꿀 수 있는 데드라인입니다. 세계 최정상급 AI 기업 Anthropic에 미 국방부(펜타곤)가 내린 최후통첩이 만료되는 시점이기 때문입니다. 쟁점은 단순한 계약 조건 다툼이 아닙니다. AI가 민주주의를 지키는 도구가 될 것인지, 아니면 민주주의를 잠식하는 수단이 될 것인지라는 문명적 질문이 놓여 있습니다.

Anthropic CEO 다리오 아모데이(Dario Amodei)는 2월 26일 공식 성명에서 “양심에 비추어 이 요구에 응할 수 없습니다(cannot in good conscience accede)” 라고 밝혔습니다. 펜타곤은 계약 해지, ‘공급망 위험 업체(supply-chain risk)’ 지정, 그리고 냉전 시대 법률인 국방물자생산법(Defense Production Act) 발동까지 위협하고 있습니다. 바로 오늘이 그 데드라인입니다.

AI 뉴스 브리핑 - AI코리아24

2억 달러 계약과 Claude의 기밀 시스템 통합

2025년 여름, 펜타곤의 디지털 AI 최고사무실(CDAO)은 Anthropic, OpenAI, Google, xAI 네 기업에 각각 최대 2억 달러 규모의 AI 계약을 수여했습니다. 이 가운데 Anthropic의 Claude 는 독보적인 위치를 점했습니다. Palantir과의 파트너십을 통해 미 국방부의 기밀(classified) 네트워크에 최초로 통합된 프론티어 AI 모델 이었기 때문입니다.

국가 안보 고객을 위한 커스텀 모델인 Claude Gov 도 이미 배치되어 정보 분석, 모델링과 시뮬레이션, 작전 계획, 사이버 작전 등 핵심 임무에 활용되고 있었습니다. 원래 계약에는 Anthropic의 사용 정책(Usage Policy)이 적용되는 조건이 포함되어 있었습니다. 즉 펜타곤도 Anthropic의 윤리 가이드라인 안에서 Claude를 사용해야 했고, 이는 양측이 합의한 사항이었습니다. Anthropic에 따르면 이 조건이 실제 군사 운용에 장애가 된 적은 한 번도 없었다고 합니다.

2026년 1월 재협상과 포괄적 사용 요구

상황이 급변한 것은 2026년 1월입니다. 펜타곤은 기존 계약의 재협상을 요구하면서, Anthropic의 사용 정책 대신 “모든 합법적 용도(all lawful purposes)” 라는 포괄적 문구를 적용할 것을 주장했습니다. 월스트리트저널(WSJ)은 Claude가 1월의 한 군사 작전에 사용되었다고 보도했으며, 이것이 재협상 압박의 직접적 배경이 되었다는 분석이 나왔습니다.

Anthropic은 전면 거부 대신 타협안을 제시했습니다. 합법적 해외 정보 수집, 방첩 임무, 부분 자율 무기(인간이 의사결정 루프에 남아있는 체계) 등 광범위한 군사 용도는 수용하되, 딱 두 가지만은 레드라인 으로 지키겠다는 것이었습니다. 하지만 펜타곤은 이 타협안조차 받아들이지 않았습니다.

Anthropic이 지키려는 두 가지 레드라인

아모데이가 2월 26일 공식 성명에서 명확히 밝힌 두 가지 조건이 있습니다.

첫 번째는 미국 시민에 대한 대규모 국내 감시(mass domestic surveillance) 금지 입니다. Anthropic은 합법적 해외 정보 수집에는 전적으로 협력하지만, AI가 가능하게 만드는 전례 없는 규모의 국내 시민 감시는 민주주의 가치와 양립할 수 없다는 입장입니다. 아모데이는 성명에서 “현행법상 정부가 영장 없이 시민의 이동, 웹 검색, 교제 기록을 공개 출처에서 구매할 수 있지만, 이는 법이 AI의 급격히 성장하는 능력을 아직 따라잡지 못했기 때문”이라고 지적했습니다.

두 번째는 인간 개입 없는 완전 자율 무기(fully autonomous weapons without human-in-the-loop) 금지 입니다. 우크라이나 전쟁에서 사용되고 있는 부분 자율 무기는 지지하지만, 표적 선택과 교전을 완전히 자동화하는 시스템에 현재의 프론티어 AI를 적용하는 것은 기술적 신뢰성이 부족하여 미군과 민간인 모두를 위험에 빠뜨릴 수 있다는 것입니다. Anthropic은 이 분야에서 국방부와 공동 연구개발(R&D)을 제안했지만 거절당했다고 밝혔습니다.

펜타곤의 최후통첩과 세 가지 위협 카드

2월 23일, 국방장관 피트 헤그세스(Pete Hegseth)는 아모데이를 소환했습니다. 이튿날인 2월 24일 최후통첩이 전달되었고, 내용은 명확했습니다. 2026년 2월 27일(금) 오후 5시 01분(ET)까지 ‘모든 합법적 용도’를 무조건 수용하라 는 것이었습니다. 응하지 않을 경우 세 가지 결과가 따른다고 경고했습니다.

첫째, 계약 해지 및 기밀 시스템 접근 차단 입니다. 이는 가장 일반적인 조치이지만 Anthropic 입장에서는 2억 달러 계약의 상실을 의미합니다. 둘째, ‘공급망 위험’ 업체 지정 입니다. 이 조치는 지금까지 화웨이(Huawei)같은 외국 기업에만 적용되었으며, 미국 기업에 사용된 전례가 없습니다. 지정될 경우 Anthropic의 제품을 사용하는 모든 미국 기업이 군 관련 사업에서 배제될 수 있어 사실상 기업의 존립 자체를 위협하는 무기가 됩니다. 셋째, 국방물자생산법(DPA) 발동 으로 Anthropic에 안전장치 제거를 강제하는 것입니다.

Politico 보도에 따르면 이 두 위협은 본질적으로 모순됩니다. 하나는 Anthropic을 안보 위협으로 규정하는 것이고, 다른 하나는 Claude를 국가 안보에 필수적이라고 전제하는 것이기 때문입니다. 한편, Axios에 따르면 펜타곤은 이미 대체 계획도 진행하고 있었습니다. 2월 23일 일론 머스크의 xAI 가 Grok 모델을 기밀 시스템에 배치하는 계약을 체결했으며, 로이터는 보잉과 록히드 마틴 등 주요 방산업체에 Anthropic 기술 의존도를 문의하기 시작했다고 보도했습니다.

아모데이의 거부 선언과 업계의 이례적 연대

2월 26일 Anthropic 공식 블로그에 게시된 아모데이의 성명은 단호했습니다. 그는 “이런 위협이 우리의 입장을 바꾸지 않습니다”라고 밝히면서, 국방부가 다른 업체를 선택한다면 원활한 전환을 지원 하겠다고 제안했습니다. 동시에 자신들이 최초로 기밀 네트워크에 프론티어 AI를 배치한 기업이며, 중국 공산당 연계 기업의 Claude 접근을 차단하면서 수억 달러의 매출을 자발적으로 포기한 이력을 상기시켰습니다.

업계의 반응은 매우 주목할 만했습니다. 치열한 경쟁사인 OpenAIGoogle 에서도 지지의 목소리가 나왔습니다. OpenAI 기술 인력인 보아즈 바라크(Boaz Barak)는 공개적으로 Anthropic의 입장을 지지했고, Google의 수석 과학자 제프 딘(Jeff Dean) 도 같은 맥락의 반응을 보였습니다. AI 기업 간의 치열한 경쟁 구도를 감안하면 이례적인 연대라고 할 수 있습니다.

더 놀라운 것은 보수 진영에서도 비판이 나왔다는 점입니다. 트럼프 행정부 초대 백악관 OSTP AI 수석 정책 고문이었던 딘 볼(Dean Ball) 은 공급망 위험 지정의 전례 없는 위험성을 경고했습니다. 트럼프 FTC 수석 기술자 출신 닐 칠슨(Neil Chilson) 도 DPA 발동과 공급망 위험 지정 위협 모두 법적으로 심각한 문제가 있다고 지적했습니다. Foreign Policy는 이번 사태를 “나쁜 징조”라고 평가하며, 이런 선례가 앞으로 어떤 AI 기업도 국방부와 계약하려 하지 않는 결과를 낳을 것이라고 분석했습니다.

2월 27일 데드라인의 날 현재 상황

오늘은 펜타곤이 설정한 최후통첩 만료일입니다. 현재(2월 27일 오전 기준) 펜타곤이 공식적인 후속 조치를 발표했다는 보도는 확인되지 않고 있습니다. 아모데이가 이미 수용을 거부했으므로, 남은 질문은 펜타곤이 실제로 어떤 카드를 꺼내느냐 하는 것입니다.

시나리오는 크게 세 가지로 나뉩니다. 계약을 단순 해지하고 xAI의 Grok이나 다른 모델로 전환하는 것이 가장 온건한 결과입니다. 공급망 위험 지정이라는 초강수를 두면 Anthropic뿐 아니라 미국 AI 생태계 전체에 찬물을 끼얹는 결과가 될 수 있습니다. 마지막으로, 협상을 연장하거나 사실상 유야무야되는 시나리오도 배제할 수 없습니다. 예측 시장 Kalshi에서는 공급망 위험 지정 확률이 최근 급락한 것으로 알려졌는데, 이는 가장 극단적인 시나리오의 가능성이 낮아지고 있음을 시사합니다. 하지만 확정된 결과는 아직 없으며, 오후 5시 01분 이후 상황을 주시해야 합니다.

이것은 계약 분쟁이 아니라 체제의 문제입니다

이 사태의 본질은 2억 달러짜리 정부 계약의 조건 다툼이 아닙니다. AI라는 문명적 도구를 누가, 어떤 원칙 아래 통제할 것인가 라는 질문입니다. Astral Codex Ten의 스콧 알렉산더(Scott Alexander)가 날카롭게 지적했듯이, “미국 기업을 외국 적대세력으로 지정하고 잠재적으로 파괴할 수 있는 권한을 계약 협상의 카드로 사용하는 것은 정상적 관행이 아니며, 일주일 전까지 오버튼 윈도우 안에 있지도 않았습니다.”

Anthropic이 제시한 두 가지 레드라인인 대량 국내 감시 금지와 완전 자율 무기 금지는 기술적으로도, 윤리적으로도 합리적이라는 것이 대다수 전문가의 평가입니다. 이 레드라인이 실제 군사 운용을 방해한 적이 없다는 Anthropic의 주장을 펜타곤이 반박하지 못한 점도 눈여겨볼 대목입니다.

오늘 오후 5시 01분 이후 어떤 결정이 내려지든, 이번 사건은 AI 시대의 정부와 기업 관계, 기술 윤리, 그리고 민주주의 사회에서 안보와 자유의 균형이라는 근본적 문제에 대해 중요한 선례로 기록될 것입니다.


#Anthropic #펜타곤 #AI안전 #DarioAmodei #Claude #국방부 #DefenseProductionAct #AI윤리 #SupplyChainRisk #PeteHegseth #AI군사화

함께 읽으면 좋은 글

📋 CertKorea

2026년 국가자격증 시험일정을 한눈에 확인하세요. 613개 자격증의 필기·실기 D-day 카운트다운.

자격증 시험일정 확인하기 →
링크가 복사되었습니다!