버니 샌더스가 AI를 폭로하려다 보여준 진짜 위험
미국 상원의원이 Claude와 대화하며 AI 산업을 폭로하려 했지만 실제로 드러난 것은 AI 아첨성의 위험입니다
미국 상원의원 버니 샌더스가 AI 챗봇 Claude와 대화하는 영상을 공개했습니다. AI 산업이 미국인의 프라이버시를 어떻게 위협하는지 폭로하겠다는 의도였습니다. 영상은 빠르게 퍼졌지만, AI를 이해하는 사람들 사이에서는 폭로가 아니라 밈(meme)이 됐습니다. 샌더스가 의도치 않게 보여준 것은 AI 산업의 비밀이 아니라, AI 챗봇이 사용자의 믿음을 거울처럼 반사하는 구조적 문제 였기 때문입니다.
TechCrunch는 이 영상을 “AI 폭로 영상의 실패, 하지만 밈은 훌륭하다”라는 제목으로 보도하며, 샌더스의 시도가 왜 AI를 아는 사람들에게 역효과를 냈는지를 분석했습니다.
무엇이 일어났는가
영상은 샌더스가 Claude에게 자신을 소개하는 것으로 시작합니다. 그가 Claude를 AI “에이전트”라고 잘못 부른 것은 사소한 실수이지만, 자신의 정체를 밝힌 것은 사소하지 않습니다. AI 챗봇은 대화 상대의 정보를 바탕으로 응답을 조정하기 때문입니다.
이후 샌더스는 AI 기업의 데이터 수집 관행과 프라이버시 문제에 대해 질문하는데, 질문 방식이 핵심입니다. “미국인들이 알면 놀랄 정보 수집 관행은 무엇인가?” “AI 기업이 개인정보로 돈을 벌 때 우리가 어떻게 그들을 신뢰할 수 있는가?” 이런 유도 질문은 챗봇이 질문의 전제를 받아들이고 거기에 맞는 답을 생성하도록 만듭니다. AI가 폭로한 것이 아니라, 질문이 답을 만든 것입니다.
Claude가 주제의 복잡성이나 뉘앙스를 언급하려 할 때마다 샌더스는 반박했고, Claude는 “당신이 absolutely right”라고 양보했습니다. 이것이 바로 시코팬시(sycophancy) , AI의 아첨 성향입니다.

아첨성이 왜 환각보다 위험할 수 있는가
앤트로픽의 8만 명 조사에서 사용자들이 가장 큰 위험으로 꼽은 것은 AI의 환각(27%)이었습니다. AI가 없는 사실을 만들어내는 것이 가장 걱정된다는 뜻입니다. 그런데 샌더스 영상이 보여주는 것은 환각과는 다른 종류의 신뢰성 문제입니다.
환각은 AI가 틀린 답 을 주는 것입니다. 아첨성은 AI가 사용자가 원하는 답 을 주는 것입니다. 환각은 검증할 수 있습니다. 사실 확인을 하면 틀렸다는 것을 알 수 있습니다. 하지만 아첨성은 사용자의 기존 신념을 강화하기 때문에, 사용자 스스로는 문제를 인식하기 어렵습니다. 내가 믿고 싶은 것을 AI가 확인해 주면, 그것을 의심할 동기가 없어집니다.
이것은 이미 실제 피해로 이어지고 있습니다. “AI 사이코시스”라고 불리는 현상에서, AI 챗봇이 정신적으로 불안정한 사용자의 비합리적 사고를 강화해 극단적 결과로 이어진 소송 사례들이 늘고 있습니다. 샌더스의 사례는 같은 메커니즘이 정치적 맥락에서 작동하는 것을 보여줍니다. 정치인이 AI로부터 원하는 답을 뽑아내고, 그것을 “AI가 인정한 사실”로 프레이밍하는 구조입니다. 아래의 링크를 통해 해당 영상을 확인할 수 있습니다.
샌더스가 놓친 맥락
아이러니하게도, 샌더스의 프라이버시 우려 자체는 타당합니다. 기업이 온라인 사용자 데이터를 대규모로 수집하고 판매하는 것은 수년째 진행 중인 현실이고, 메타는 개인화 광고를 수십억 달러 사업으로 만들었으며, 전 세계 정부가 기업에 사용자 데이터 접근을 정기적으로 요청합니다.
하지만 TechCrunch가 지적하듯, AI가 이 문제의 새로운 매체가 될 수는 있어도, 개인 데이터를 둘러싼 문제는 AI 이전부터 디지털 경제를 떠받치는 구조적 현실이었습니다. 그리고 더 아이러니한 것은, 샌더스가 대화한 Claude를 만든 앤트로픽은 개인화 광고를 수익 모델로 삼지 않겠다고 약속한 AI 기업이라는 점입니다. Claude의 답변은 앤트로픽의 실제 사업 모델이 아니라, 샌더스의 질문이 만들어낸 것입니다.
샌더스가 이 아첨 메커니즘을 알면서 의도적으로 활용한 것인지, 진심으로 AI를 폭로했다고 생각하는 것인지, 아니면 팀이 사전에 챗봇을 조정한 것인지는 알 수 없습니다. 어느 쪽이든, 이 영상은 AI를 이해하지 못한 채 AI에 대해 규제를 논하는 것의 위험을 보여줍니다.
AI 시대의 미디어 리터러시
이 사건이 한국에도 시사하는 바가 있습니다. AI 챗봇과의 대화를 “증거”나 “폭로”로 프레이밍하는 콘텐츠는 앞으로 더 많아질 것입니다. 정치인, 유튜버, 인플루언서가 AI에게 원하는 답을 유도한 뒤 “AI도 인정했다”고 주장하는 구조는 재현하기 매우 쉽습니다.
AI 시대의 미디어 리터러시는 “AI가 말한 것은 사실인가”를 넘어, “AI가 왜 그렇게 말했는가” 를 질문하는 능력을 포함해야 합니다. 환각은 AI의 기술적 한계이고 언젠가 해결될 수 있지만, 아첨성은 사용자 경험을 좋게 만들기 위한 설계 선택과 얽혀 있어 해결이 더 어려울 수 있습니다.
버니 샌더스의 영상은 AI의 비밀을 폭로하지 못했습니다. 하지만 의도치 않게, AI와 대화할 때 우리 모두가 빠질 수 있는 함정을 가장 생생하게 보여줬습니다.
#버니샌더스 #Claude #AI아첨성 #시코팬시 #AI프라이버시 #미디어리터러시 #다크패턴