AI 제왕의 민낯 샘 알트먼 소시오패스 논란과 영국이 Anthropic에 프로포즈한 이유
뉴요커 100명 인터뷰로 드러난 샘 알트먼의 민낯과 영국 정부의 Anthropic 영입 시도 윤리가 AI 산업의 새로운 경쟁력으로 부상하고 있다
AI 산업에서 가장 영향력 있는 두 CEO의 이야기가 동시에 펼쳐지고 있습니다. 한쪽에서는 OpenAI CEO 샘 알트먼이 뉴요커의 심층 프로파일을 통해 전례 없는 인성 논란에 휩싸였고, 다른 쪽에서는 Anthropic의 다리오 아모데이가 미국 국방부의 압박을 거부한 대가로 영국 정부의 러브콜을 받고 있습니다. 이 두 이야기는 사실 하나의 질문을 향합니다. AI 시대에 윤리는 짐인가, 무기인가.
이 글은 어제 aikorea24에서 다룬 샘 알트먼의 ‘바이브’ 발언과는 다른 각도에서, 개인의 신념이 얼마나 위험한 권력이 될 수 있는지를 집중 조명합니다.
기사의 원문은 2026년 4월 8일 (수) AI 브리핑 - AI코리아24 에서 확인 할 수 있습니다.
샘 알트먼 소시오패스 논란 뉴요커 프로파일이 폭로한 것
뉴요커의 탐사기자 로넌 패로우와 앤드루 마란츠는 1년 반에 걸쳐 OpenAI를 조사했습니다. 100명 이상의 인터뷰, 200페이지 이상의 내부 문서, 그리고 공동창업자 일리야 수츠케버가 이사회를 위해 직접 작성한 슬랙 메시지 모음인 이른바 “일리야 메모”가 이 보도의 근거입니다.
그 결론은 충격적입니다. 현직 이사회 멤버는 알트먼을 가리켜 “진실에 구애받지 않는 소시오패스” 라고 불렀습니다. 그를 잘 아는 한 소식통은 “그는 두 가지 특성을 동시에 지닌 드문 사람이다. 첫째는 모든 상호작용에서 사람들에게 인정받고 싶어하는 강한 욕구, 둘째는 자신이 저지른 속임수의 결과에 대한 거의 소시오패스적인 무관심”이라고 말했습니다.
수츠케버가 작성한 내부 문서의 첫 번째 항목은 단 한 단어였습니다. “거짓말 (Lying).”
가장 구체적인 사례는 Anthropic CEO 다리오 아모데이와의 일화입니다. 2019년 마이크로소프트의 대규모 투자 협상 당시, 아모데이는 알트먼에게 안전 요구사항 목록에 합의하도록 했습니다. 그런데 계약 최종 단계에서 아모데이는 그 목록의 최우선 항목을 무력화하는 조항을 발견했습니다. 알트먼은 그 조항의 존재 자체를 부인했고, 아모데이가 해당 조항을 소리 내어 읽어줬을 때도 부인했습니다. 바로 이 사건이 아모데이가 OpenAI를 떠나 Anthropic을 설립한 직접적 계기가 됩니다.

AI 안전은 영업 도구였나 알트먼의 이중성이 위험한 이유
알트먼은 전 세계를 돌며 AI 안전의 중요성을 역설했습니다. 미국 상원에서 규제를 촉구했고, 다보스 포럼에서 오펜하이머에 자신을 비유하며 책임감을 과시했습니다. 그런데 뉴요커 보도에 따르면, OpenAI는 알트먼이 유럽에서 AI 규제를 촉구하던 바로 그 시점에, 내부적으로는 유럽 AI 규제 법안에 반대하는 로비를 동시에 진행하고 있었습니다.
보도는 알트먼에게 AI 안전이란 재능 있는 엔지니어들을 영입하기 위한 흥정 카드에 불과했다고 결론 냅니다. 한 마이크로소프트 임원은 이렇게 말했습니다. “나는 그가 버니 매도프나 샘 뱅크먼-프리드 수준의 사기꾼으로 기억될 수도 있다는 작지만 실질적인 가능성을 생각한다.”
이것이 단순한 CEO 개인의 도덕성 문제로 그치지 않는 이유가 있습니다. 현재 AI 거버넌스(AI 기술의 개발과 사용을 관리하는 원칙과 제도)의 근간은 “선의를 가진 책임감 있는 기업이 자율적으로 안전을 챙기겠다”는 약속입니다. 그 약속을 가장 크게 외쳐온 사람이 처음부터 다른 게임을 하고 있었다면, 그 토대 전체가 흔들립니다.
미국이 Anthropic을 적으로 돌렸을 때 영국이 본 것
같은 시기, 대서양 반대편에서는 정반대의 장면이 펼쳐지고 있었습니다. 미국 국방부는 Anthropic에게 Claude가 완전 자율 무기와 국내 대규모 감시에 사용될 수 있도록 안전 장치를 제거하라고 요구했습니다. 아모데이는 거부했습니다. 워싱턴의 반응은 신속했습니다. 트럼프 행정부는 모든 연방 기관에 Anthropic 기술 사용 중단을 명령했고, 국방부는 Anthropic을 화웨이 같은 적대적 외국 기업에나 붙이는 “공급망 위험” 딱지를 붙였습니다. 2억 달러 규모의 계약도 취소됐습니다.
런던은 이 상황을 다르게 읽었습니다. 영국 과학혁신기술부(DSIT) 직원들은 Anthropic을 위한 제안서를 작성했습니다. 런던증권거래소 이중 상장, 런던 사무소 확장 등을 담은 내용입니다. 키어 스타머 총리실도 이를 지지했고, 아모데이가 5월 말 영국을 방문할 때 이 제안이 직접 전달될 예정입니다.
영국이 이 제안에서 강조하는 것은 속도나 규모가 아닙니다. Anthropic의 윤리적 제약이 약점이 아니라 자산이라는 메시지입니다. 영국은 미국의 “무제한 군사 활용” 노선과 유럽의 AI법 규제 사이에서, 안전을 중시하는 기업에게 우호적인 규제 환경을 제공하겠다고 포지셔닝하고 있습니다.
윤리가 경쟁력이 되는 시대의 조짐들
두 이야기를 나란히 놓으면 하나의 패턴이 보입니다. 안전을 영업 도구로 활용하던 기업은 신뢰 위기에 직면하고, 안전을 핵심 원칙으로 고수하던 기업은 오히려 지정학적 자산이 됩니다.
Anthropic은 이미 영국에 약 200명의 직원을 두고 있으며, 전 영국 총리 리시 수낙을 시니어 어드바이저로 영입한 상태입니다. 런던에 기반을 둔 전략의 인프라는 이미 갖춰져 있습니다. OpenAI는 런던을 미국 외 최대 연구 허브로 공언했고, Google은 DeepMind 인수 이후 킹스크로스에 터를 잡은 지 오래입니다. 그런데 이 경쟁에서 가장 주목받는 기업이 바로, 미국 정부에 찍힌 Anthropic이라는 사실은 의미심장합니다.
AI 안전을 진심으로 믿는 기업과, 그것을 마케팅 문구로 활용하는 기업의 차이는 결국 드러납니다. 알트먼의 뉴요커 프로파일이 보여주는 것은 AI 기업가 개인의 도덕성이 아닙니다. 한 사람의 신념 체계가 수백만 명이 사용하는 기술의 방향을 결정할 수 있는 구조, 그 자체의 위험성입니다.
규제와 거버넌스의 논의가 결국 이 지점으로 수렴합니다. 기업의 선의에 의존하는 AI 안전은, 그 선의가 가짜일 때 아무런 보호막이 되지 못합니다.
#샘알트먼 #OpenAI #Anthropic #AI윤리 #AI안전 #뉴요커 #다리오아모데이 #영국AI #AI거버넌스