샘 알트먼 바이브 발언 OpenAI 안전팀 이탈의 진짜 이유
뉴요커 심층 인터뷰에서 샘 알트먼은 안전 연구자 대거 이탈의 이유를 자신의 바이브 때문이라고 설명했다. 세계 최강 AI 기업의 안전 거버넌스가 한 사람의 감각에 달려 있다는 것이 의미하는 바를 분석한다.
세계에서 가장 강력한 AI를 개발하는 기업의 수장이 안전 연구자들의 대거 이탈 이유를 이렇게 설명했습니다. “내 바이브가 전통적인 AI 안전 쪽과 잘 안 맞는다(My vibes don’t really fit with a lot of this traditional A.I.-safety stuff).” 뉴요커가 100여 건의 인터뷰와 내부 문서를 바탕으로 완성한 샘 알트먼 심층 프로필에 담긴 발언입니다. 이 한 문장은 OpenAI 내부에서 수년간 쌓여온 긴장을 설명합니다. 안전 연구팀의 해체, 군사 계약 논란, 안전 테스트 단축 의혹이 왜 반복됐는지에 대한 가장 솔직한 해명이기도 합니다. 이 기사의 원문 브리핑은 aikorea24.kr에서 확인할 수 있습니다.
바이브 한 마디로 압축된 OpenAI의 안전 문화
알트먼의 발언이 충격적인 것은 그 내용보다 솔직함 때문입니다. 안전 연구자들이 왜 떠났는지에 대한 질문에 조직 구조나 자원 배분의 문제를 꺼내는 대신, “나와 맞지 않는 분위기”라고 답했습니다. 이 바이브의 실체는 구체적인 사례들로 확인됩니다. OpenAI는 고급 AGI(인공일반지능) 안전 준비에 집중하던 팀을 해체했습니다. GPT-4o(오)의 안전 테스트를 단 일주일 만에 통과시켰다는 보도가 나왔습니다. 직원들이 펜타곤과의 계약에 우려를 표명하자 알트먼은 “이란 공습이 좋았는지 베네수엘라 침공이 나빴는지는 당신들이 판단할 사안이 아니다”라고 일축했습니다. 뉴요커 프로필은 알트먼을 “깊이 양극적이고, 기쁘게 하려는 욕구가 강하지만 잠재적 기만의 결과에는 무관심하다”고 묘사한 전직 이사회 멤버의 말을 담았습니다. 알트먼 본인은 빠르게 변하는 분야에서 입장이 바뀌는 것은 자연스러운 것이라고 답합니다.
OpenAI를 떠난 안전 연구자들이 만든 것이 Anthropic이다
이 이야기에서 가장 중요한 반전은 역사적 연결고리입니다. OpenAI의 안전 문화에 불만을 품고 떠난 연구자들이 설립한 회사가 바로 Anthropic입니다. Claude를 만드는 회사입니다. Anthropic의 CEO 다리오 아모데이를 비롯한 창업진은 OpenAI의 안전 우선 원칙이 상업화 압력에 밀려나고 있다는 판단 아래 2021년 회사를 떠났습니다. OpenAI의 전 수석 얼라인먼트(AI가 인간의 의도대로 작동하도록 훈련하는 분야) 책임자 얀 레이크도 이후 Anthropic으로 자리를 옮겼습니다. 알트먼이 스스로 인정한 “바이브의 불일치”는 Anthropic의 창업 서사를 역설적으로 정당화합니다. OpenAI 내에서 안전을 중심에 두려 했던 사람들이 나가서 경쟁사를 만들었고, 지금 그 경쟁사는 OpenAI의 가장 강력한 맞수가 됐습니다.
알트먼의 일관성 없음은 약점인가 유연성인가

알트먼은 스스로를 빠르게 변하는 분야에서 입장을 업데이트하는 유연한 리더로 묘사합니다. 뉴요커 인터뷰에서 그는 “어떤 사람들은 절대 흔들리지 않는 리더를 원한다. 하지만 이 분야는 매우 빠르게 변한다”고 말합니다. 그러나 뉴요커가 제시한 사례는 단순한 업데이트가 아닙니다. 2019년 알트먼은 GPT-2가 너무 위험하다며 전체 공개를 보류했습니다. 몇 년 후 그는 그보다 수십 배 강력한 모델을 누구나 무료로 쓸 수 있게 했습니다. 이것이 새 정보에 기반한 합리적 업데이트인지, 상업적 압력에 의한 후퇴인지는 평가가 갈립니다. 유연성과 일관성 없음의 차이는 방향에 있습니다. 더 신중한 쪽으로 입장이 바뀌면 학습이고, 더 공격적인 쪽으로 바뀌면 후퇴입니다. OpenAI의 궤적은 대체로 후자의 방향이었습니다.
AI 안전 거버넌스가 한 사람의 감각에 달려 있다는 것의 문제
이 기사가 제기하는 가장 근본적인 문제는 OpenAI의 조직 설계입니다. 안전 연구자들이 “바이브가 맞지 않아” 떠나고, 안전팀이 해체되고, 테스트가 단축되는 일들이 한 명의 CEO 감각에 의해 결정된다면 이것은 거버넌스(지배구조, 의사결정 체계)의 문제입니다. OpenAI는 비영리 이사회의 감독 아래 운영되는 구조를 표방하지만, 2023년 알트먼 해임 시도와 복귀 과정은 실질적 권력이 어디에 집중돼 있는지를 보여줬습니다. 현재 OpenAI는 공익법인(Public Benefit Corporation)으로 전환 중이지만, 의사결정 구조의 근본적 변화 없이는 같은 패턴이 반복될 가능성이 높습니다. 세계 최고 수준의 AI를 개발하는 조직이 안전에 관해 내리는 결정들이 창업자의 직관적 판단에 의해 좌우된다는 것, 이것이 지금 AI 산업 전체의 거버넌스 공백을 상징합니다.
AI 안전은 감각이 아니라 구조의 문제다
바이브(vibe)는 좋은 조직 문화를 만들 수 있습니다. 그러나 수십억 명이 사용하는 AI 시스템의 안전을 관리하는 기준이 될 수는 없습니다. 알트먼의 발언이 불러일으키는 불안은 OpenAI 하나의 문제가 아닙니다. 구글, 메타, 아마존을 포함한 모든 AI 기업에서 안전 결정은 결국 소수의 경영진 판단에 의존합니다. 외부 감사, 독립적 평가, 구속력 있는 기준 없이 안전을 내부 문화에 맡기는 방식은 한계가 명확합니다. OpenAI가 스스로 안전 거버넌스의 필요성을 정책 문서에 담으면서 정작 자사 내부에서는 안전 연구자들이 “바이브 차이”로 퇴장하는 현실은, 말과 행동 사이의 거리를 측정하는 가장 직접적인 지표입니다. #샘알트먼 #OpenAI #AI안전 #Anthropic #AI거버넌스 #뉴요커 #AI정렬
함께 읽으면 좋은 글
Claude Mythos 공개 불가 선언 AI가 27년된 보안 취약점을 찾아내다 Project Glasswing 분석
Anthropic이 신모델 Claude Mythos를 일반 공개하지 않기로 했다. 27년된 버그를 찾아내고 스스로 익스플로잇을 만든 AI, 이것이 왜 게임체인저인지 분석한다.
뉴스OpenAI 주4일 근무 공공자산펀드 제안 AI 일자리 대체를 인정한 회사의 해법
OpenAI가 AI로 인한 일자리 대체를 공식 인정하며 주4일 근무와 공공 자산 펀드 등 정책 제안을 담은 12페이지 문서를 공개했다. 진심인지 전략인지를 포함해 제안의 의미를 깊이 분석한다.