Anthropic 펜타곤 판결 연방 판사가 트럼프의 AI 모델 금지 명령을 차단한 이유
연방 판사가 트럼프 행정부의 Anthropic AI 모델 사용 금지 명령과 공급망 위험 지정을 차단했습니다. 2억 달러 국방부 계약에서 자율무기 거부가 불러온 법적 대결과 AI 기업 윤리적 거부권의 첫 선례를 분석합니다.
AI 기업의 윤리적 거부권을 처음으로 법적으로 보호한 날
3월 26일, 샌프란시스코 연방법원의 리타 린 판사가 트럼프 대통령의 Anthropic AI 모델 사용 금지 행정명령과 국방부의 ‘공급망 위험(supply chain risk)’ 지정을 임시 차단하는 가처분을 인용했습니다. 43페이지 판결문에서 판사는 이 조치를 “오웰적(Orwellian)” 이라 불렀습니다.
판결은 단순한 계약 분쟁이 아닙니다. AI 기업이 “우리 기술을 이렇게는 쓰지 말아 달라”고 말할 권리가 법적으로 보호될 수 있느냐는 질문에 대한 첫 번째 답입니다. 한국 AI 기업과 개발자들에게도 중요한 선례가 될 수 있습니다.
오늘자 AI코리아24 브리핑에서 관련 뉴스 원문과 함께 확인할 수 있습니다.
2억 달러 계약에서 시작된 충돌의 전체 타임라인
이 사건은 2025년 7월로 거슬러 올라갑니다. 미국 국방부는 Anthropic, OpenAI, Google, xAI에 각각 최대 2억 달러 규모의 AI 계약을 체결했습니다. 군사 분야에 AI를 빠르게 도입하기 위한 것이었습니다.
문제는 조건이었습니다. 국방부는 Claude 모델에 대한 무제한 접근 을 원했습니다. Anthropic은 자율무기(autonomous weapons)와 대규모 감시(mass surveillance)에는 모델을 사용하지 않겠다는 조건을 걸었습니다. 이것이 Anthropic이 말하는 ‘레드 라인(red lines)’ 입니다.
2026년 2월 24일, 국방장관 피트 헥세스가 Anthropic CEO 다리오 아모데이에게 최후통첩을 보냈습니다. “2월 27일 오후 5시 1분까지 모든 법적 목적에 대해 무제한 사용을 허용하라.” Anthropic은 2월 26일 성명을 내고 거부 의사를 밝혔습니다. 이틀 뒤인 2월 27일, 트럼프 대통령은 연방 기관의 Anthropic 제품 사용을 금지했고, 헥세스 장관은 Anthropic을 ‘공급망 위험 기업’ 으로 지정했습니다. 미국 자국 기업이 이 지정을 받은 것은 역사상 처음입니다.
3월 9일 Anthropic이 연방법원에 소송을 제기했고, 3월 26일 린 판사가 가처분을 인용하며 정부 조치를 임시 차단한 것입니다.
엔트로픽은 왜 펜타곤에 No라고 했나 | AI코리아24
판사가 “오웰적”이라 부른 이유
조지 오웰의 소설 “1984” 에서 빅브라더 정부는 진실을 거짓으로, 거짓을 진실로 뒤집어 말합니다. “전쟁은 평화다”, “자유는 예속이다” 같은 식입니다. 국민이 정부에 반대 의견을 내면 곧바로 “국가의 적”으로 낙인찍습니다.
리타 린 판사가 이 ‘오웰스러운(Orwellian)‘이란 단어를 쓴 이유는 이번 트럼프 정부의 팬타곤이 정확히 같은 구조의 억지 주장을 했기 때문입니다. Anthropic은 미국 기업인데, 정부 계약에서 자율무기·감시 사용에 조건을 걸었을 뿐입니다. 그런데 펜타곤이 “공급망 위험 기업”이라고 지정했습니다. 자국 기업이 의견을 냈다는 이유로 적국 취급한 것이죠.
판결문에서 판사는 이렇게 적었습니다. “정부와의 의견 불일치를 표현했다는 이유로 미국 기업을 잠재적 적국이자 미국의 사보타주 세력으로 낙인찍는 오웰적 개념을 지지하는 법적 근거는 어디에도 없다.”
판사는 이 조치를 수정헌법 제1조 위반 , 즉 표현의 자유에 대한 정부의 불법적 보복으로 판단했습니다. Anthropic이 자율무기 사용을 공개적으로 거부한 것은 정당한 의견 표명이며, 이에 대해 ‘공급망 위험’이라는 무거운 낙인을 찍은 것은 보복이라는 논리입니다.
다만 이것은 아직 가처분(preliminary injunction)입니다. 최종 판결은 나오지 않았습니다. 그러나 43페이지에 달하는 상세한 판결문의 논조를 보면, 최종 판결에서도 Anthropic에 유리한 방향이 될 가능성이 높다고 봅니다.

AI 안전을 주장하면 적이 되는 구조
이 사건의 아이러니는 Anthropic의 정체성 자체에 있습니다. Anthropic은 OpenAI 출신 연구자들이 “AI 안전을 최우선으로 하겠다” 는 기치로 설립한 회사입니다. 모델 개발 단계에서부터 안전 테스트를 강화하고, 사용 정책(Acceptable Use Policy)에 자율무기와 대규모 감시를 명시적으로 금지하고 있습니다.
그런데 바로 그 안전 원칙을 지켰다는 이유로 정부에 의해 ‘공급망 위험’으로 분류된 것입니다. Reuters 보도에 따르면, Anthropic은 국방부와의 협상 과정에서 완전한 거부가 아니라 조건부 협력 을 제안했습니다. 군사 분야에서의 Claude 사용 자체를 거부한 게 아니라, 자율 살상과 무차별 감시라는 특정 용도만 제외해 달라고 요청한 것입니다. 국방부가 이를 수용하지 않았고, 갈등이 시작되었습니다.
같은 계약을 받은 OpenAI, Google, xAI는 이런 조건을 걸지 않았습니다. OpenAI는 팔란티어(Palantir)와의 파트너십을 통해 군사 분야 진출을 적극적으로 추진 중입니다. 결국 Anthropic만 “안전”을 주장했고, Anthropic만 보복을 받은 셈입니다.
3가지 주목할 점
세 가지 측면에서 주목할 필요가 있습니다.
첫째, AI 윤리적 거부권의 법적 선례 입니다. AI 기업이 정부나 대형 고객에게 “이 용도에는 우리 기술을 쓸 수 없다”고 말할 수 있는 권리가 법적으로 보호받을 수 있다는 것을 보여줍니다. 한국에서도 AI 기업이 군사, 감시, 수사 목적의 계약에서 비슷한 딜레마에 직면할 수 있습니다.
둘째, Anthropic의 사업 리스크 입니다. Anthropic은 10월 IPO를 검토 중이며, 기업 가치는 3,800억 달러로 평가됩니다. 이 소송의 결과는 IPO 밸류에이션에 직접적 영향을 미칩니다. 가처분 인용은 긍정적 신호이지만, 최종 판결까지는 불확실성이 남습니다.
셋째, AI 군사 활용의 글로벌 기준 입니다. 미국 정부가 AI 기업에 무제한 접근을 요구하는 선례가 만들어지면, 이 모델은 다른 국가에도 확산될 수 있습니다. 반대로, 이번 판결이 확정되면 AI 기업이 윤리적 조건을 걸 수 있는 국제적 기준이 될 수 있습니다.
안전을 주장하는 것이 비용이 되는 시대
이 사건을 관통하는 질문은 하나입니다. AI 기업이 자신의 기술에 대해 “여기까지만”이라고 선을 그을 수 있는가.
Anthropic은 선을 그었고, 대가를 치르고 있습니다. 2억 달러 계약을 잃었고, 미국 최초의 ‘공급망 위험 기업’이라는 낙인이 찍혔으며, 연방 정부 기관에서의 사용이 금지되었습니다. 판사가 가처분으로 숨통을 틔워줬지만, 최종 전쟁은 아직 끝나지 않았습니다.
동시에 Anthropic은 사상 최대 모델 Claude Mythos를 준비하며 10월 IPO를 향해 달리고 있습니다. 이 모든 것이 동시에 벌어지고 있다는 점이 이 회사의 2026년을 가장 잘 설명합니다. 안전을 포기하지 않으면서도 기업 가치를 증명해야 하는, 양립하기 어려운 과제를 동시에 풀어야 하는 상황입니다.
#Anthropic #펜타곤 #트럼프AI금지 #오웰적판결 #AI자율무기 #AI윤리 #공급망위험