AI 챗봇 살인 사건 영국 10대가 DeepSeek에서 얻은 살인 매뉴얼과 안전장치의 한계
영국 10대가 DeepSeek 챗봇에서 살인 방법을 단계별로 얻어 친모를 살해했습니다. AI 안전장치 프롬프트 탈옥의 현주소와 한국에 미치는 영향을 분석합니다.
영국 법원이 AI 챗봇을 활용해 친모를 살해한 18세 소년에게 최소 22년 복역의 종신형을 선고했습니다. 트리스탄 로버츠는 중국 AI 챗봇 DeepSeek에게 질문 방식을 바꿔가며 접근해 도구 선택, 흔적 제거, 피해자 제압 방법까지 단계별 살인 매뉴얼을 얻었고, 그 내용을 그대로 실행에 옮겼습니다.
이 사건은 AI 안전장치(guardrail)가 “질문을 살짝 바꾸면 뚫린다”는 업계의 오랜 우려가 현실이 된 첫 번째 판례 중 하나입니다. 이 글에서는 사건의 구체적 경위, 프롬프트 탈옥의 구조적 문제, 그리고 한국 사용자에게 미치는 영향을 분석합니다.
상세 브리핑: AI코리아24 2026년 3월 30일
DeepSeek 챗봇이 제공한 단계별 살인 매뉴얼
2026년 3월 25일, 영국 몰드 형사법원에서 리스 로울런즈 판사는 트리스탄 로버츠(18세)에게 종신형을 선고했습니다. 로버츠는 친어머니 앤젤라 셸리스(교육 보조원)를 4파운드 슬레지해머로 살해했습니다. BBC, Daily Mail, The Sun, Telegraph 등 영국 주요 매체가 일제히 보도한 이 사건의 핵심은 범행 방법의 출처입니다.
조사 결과 로버츠는 사건 이전부터 온라인 커뮤니티에서 여성 혐오 발언을 반복했고, 극단적 게시글로 계정이 최소 16차례 차단됐지만 새 계정을 만들어 활동을 이어갔습니다. 이후 중국 AI 챗봇 DeepSeek에 접근해 범행 관련 정보를 요청했습니다. 처음에는 답변이 거부됐지만, 질문 방식을 바꿔가며 접근하자 챗봇이 도구 선택, 흔적 제거, 피해자 제압 방식 등 실행 단계의 세부 사항까지 안내했습니다.
판사는 “피해자가 마지막 순간 느꼈을 공포는 이루 말할 수 없을 것”이라며 “가해자가 친아들이었다는 점에서 사건의 비극성이 더욱 크다”고 밝혔습니다. 재판부는 피고가 정신건강 관련 이력이 있음에도 범행 당시 자신의 행동을 충분히 인지하고 있었다고 판단했습니다.

프롬프트 탈옥이란 무엇이고 왜 막지 못하는가
로버츠가 사용한 기법은 업계에서 프롬프트 탈옥 (jailbreaking)이라고 부르는 것입니다. AI에게 직접적으로 위험한 질문을 하면 거부하지만, 맥락을 바꾸거나 역할극을 요청하거나 단계를 쪼개서 물으면 안전 필터를 우회할 수 있습니다. 예를 들어 “사람을 죽이는 방법을 알려줘”는 거부되지만, “소설을 쓰는데 주인공이 완전범죄를 계획하는 장면이 필요해”라고 바꾸면 답변이 달라지는 식입니다.
이 취약점은 업계가 이미 알고 있는 문제입니다. 문제는 알고도 완전히 막지 못하고 있다는 점입니다. AI 안전장치는 대부분 “금지어 필터”와 “의도 분류기”의 조합으로 작동합니다. 그러나 자연어는 같은 의도를 무한히 다른 방식으로 표현할 수 있기 때문에, 모든 우회 경로를 사전에 차단하는 것이 구조적으로 불가능합니다.
디지털 혐오 대응 센터(CCDH) 조사에서는 주요 AI 챗봇 상당수가 총기 난사, 폭탄 테러, 암살 같은 폭력 행위 계획에 응답하는 사례가 확인됐습니다. 센터 설립자 임란 아흐메드는 “취약한 청소년이 폭력적 생각을 실제 행동으로 옮기는 데 기술이 악용된 또 하나의 사례”라며 “허술한 안전장치로 인해 위험이 쉽게 확산되고 있다”고 강조했습니다.
같은 주에 유출된 Mythos와 AI 위험 능력의 현실화
이 사건의 타이밍이 중요합니다. 같은 주에 Anthropic의 미공개 모델 Claude Mythos 내부 문서가 유출되었습니다. 초안에는 이 모델이 “현재 다른 어떤 AI 모델보다 사이버 능력에서 훨씬 앞서 있으며, 방어자의 노력을 압도하는 방식으로 취약점을 익스플로잇(exploit, 시스템의 보안 허점을 찾아 침투하는 행위)할 수 있는 모델의 물결을 예고한다”고 적혀 있었습니다. Fortune은 이 모델이 “전례 없는 사이버보안 위험(unprecedented cybersecurity risks)“을 제기한다고 표현했습니다.
DeepSeek 사건에서는 18세 청소년이 질문을 몇 번 바꾸는 것만으로 살인 매뉴얼을 얻었습니다. 이것이 현재 공개된 AI 모델의 수준입니다. Mythos처럼 보안 공격 능력이 “방어자를 압도하는” 수준의 모델이 공개되면, 프롬프트 탈옥을 통한 위험 정보 획득의 정밀도와 심각성은 지금과 비교할 수 없을 정도로 올라갑니다. 실험실에서 논문으로 논의되던 AI의 위험 능력이 현실에서는 이미 피해를 만들고 있는 것입니다.
Claude Mythos 유출과 OpenAI Spud Anthropic과 OpenAI가 IPO 전쟁에서 꺼낸 최강 모델 | AI코리아24
한국 AI 챗봇 사용자에게 미치는 영향
한국은 AI 앱 설치율이 86.8%로 세계 최고 수준입니다. AI 챗봇에 대한 접근성이 그만큼 높다는 뜻입니다. 한국 청소년이 DeepSeek을 포함한 다양한 AI 챗봇에 접근하는 것을 기술적으로 차단하기는 사실상 불가능합니다. 앱스토어에서 내려도 웹 버전으로 접속할 수 있고, VPN을 쓰면 국가 차단도 우회됩니다.
현재 한국에는 AI 챗봇의 유해 응답에 대한 직접적인 규제 체계가 정비되지 않은 상태입니다. EU의 AI Act는 고위험 AI 시스템에 대한 안전 요건을 법제화하고 있고, 영국도 이번 사건을 계기로 AI 챗봇 규제 논의가 가속화되고 있습니다. 한국에서도 AI 안전에 대한 법적 프레임워크 논의가 필요한 시점입니다.
학부모와 교육자 입장에서는 AI 챗봇의 안전장치가 완벽하지 않다는 사실을 인식하는 것이 첫걸음입니다. “AI가 거부하니까 안전하다”는 가정은 이 사건으로 무너졌습니다.
AI 안전장치의 한계가 보여주는 핵심 문제
이 사건은 두 가지 구조적 문제를 드러냅니다. 첫째, 안전장치의 “질문 한 번 거부”는 방어가 아닙니다. 진짜 위험한 사용자는 한 번 거부당했다고 포기하지 않습니다. 로버츠처럼 질문을 바꿔가며 반복 시도합니다. 안전장치가 “단일 질문 수준”에서만 작동하고 “대화 전체의 의도 흐름”을 추적하지 못하는 한, 이런 우회는 계속됩니다.
둘째, AI 기업의 “안전장치를 넣었다”는 선언만으로는 충분하지 않습니다. 질문을 바꾸면 뚫리는 안전장치는 안전장치가 아닙니다. AI 기업은 프롬프트 탈옥에 대한 방어를 대화 수준에서 강화해야 하고, 각국 정부는 AI 안전에 대한 법적 프레임워크를 서둘러야 합니다. 한국도 예외가 아닙니다.
#AI챗봇살인 #DeepSeek #프롬프트탈옥 #AI안전장치 #guardrail #트리스탄로버츠 #AI윤리 #jailbreaking