경찰관 딥페이크 포르노 운전면허증 사진 악용 공권력과 AI 범죄의 교차점
미국 주 경찰 하사가 업무 중 취득한 운전면허증 사진으로 딥페이크 성착취물을 제작해 기소됐다 공권력 데이터 접근권과 AI 악용이 결합될 때 어떤 위험이 생기는지 분석한다
가해자는 스킵팩(Skippack) 주재 펜실베이니아 주 경찰 하사 스티븐 캠닉(Stephen Kamnik, 39세)으로, PennDOT(펜실베이니아 교통부) 운전면허 데이터베이스와 법집행 데이터베이스의 사진을 이용해 3,000여 장의 딥페이크를 제작했습니다. 발견된 포르노 이미지는 총 1만 장 이상이었으며 피해자에는 일반 시민, 동료 경찰관, 지역 판사까지 포함됐습니다.
피해자들은 자신이 피해를 당했다는 사실조차 몰랐을 가능성이 높습니다. 그들이 제출한 것은 신분 확인을 위한 공식 서류였습니다. 그 사진이 어떻게 쓰였는지 알 방법도, 알 권리도 보장되지 않았습니다.
AI코리아24 뉴스 브리핑 2026-04-10 바로가기
사건의 구조: 공권력과 AI 악용의 결합
텔레그램 AI 딥페이크 성착취 수익 구조 분석 누디파잉봇부터 아동학대 영상 판매까지 | AI코리아24
AI 강국을 외치는 한국 딥페이크 성범죄에는 어떻게 대응하고 있나 | AI코리아24
이 사건에서 핵심은 딥페이크 기술 그 자체가 아닙니다. 일반 시민이 딥페이크 포르노의 피해를 당할 때는 SNS 프로필 사진이나 유출된 사진이 소재가 됩니다. 그런데 이 사건의 가해자는 경찰관 이었고, 소재는 공식 신분증 데이터베이스 였습니다.
경찰관은 업무 수행 중 합법적으로 운전면허증 시스템에 접근할 권한을 갖습니다. 피해자들은 음주운전 단속, 신원 확인, 교통 위반 처리 등 정당한 이유로 자신의 정보를 제공했습니다. 그 데이터가 성적 착취물 제작에 쓰일 것이라고 예상한 사람은 아무도 없었습니다.
이것이 이 사건을 단순한 개인 일탈로 볼 수 없는 이유입니다. 가해자가 공권력의 위치에 있다는 것은 피해 규모와 접근 가능한 데이터의 양이 일반인과 비교할 수 없을 만큼 크다는 것을 의미합니다.
딥페이크 성착취물의 현실

딥페이크(Deepfake)는 AI가 실존 인물의 얼굴을 다른 영상에 합성하는 기술입니다. 초기에는 고가의 장비와 전문 지식이 필요했지만, 현재는 스마트폰 앱 수준으로 진입 장벽이 낮아졌습니다. 얼굴 사진 한 장이면 수 분 안에 결과물을 만들 수 있습니다.
딥페이크 포르노의 피해는 복합적입니다. 영상이 한번 유포되면 완전히 삭제하는 것이 사실상 불가능합니다. 피해자는 직장, 가족 관계, 사회적 평판 모두에서 피해를 입을 수 있으며, 심각한 심리적 외상을 겪습니다. 특히 피해자가 피해 사실을 모른 채 시간이 지나는 경우, 나중에 발견했을 때의 충격은 더욱 큽니다.
미국은 주별로 딥페이크 포르노 관련 법이 다르게 적용되며 연방 차원의 통일된 법률은 아직 미비합니다. 한국은 2020년 성폭력범죄의 처벌 등에 관한 특례법 개정으로 딥페이크 포르노 제작·유포를 처벌할 수 있게 됐지만, 피해 인지와 신고 경로는 여전히 부족한 상황입니다.
공공 데이터베이스와 AI 악용 위험
이 사건은 더 넓은 질문을 제기합니다. 공공기관이 보유한 개인 사진 데이터는 앞으로 얼마나 안전한가라는 문제입니다.
운전면허증 외에도 공공 데이터베이스에는 여권 사진, 비자 신청 사진, 공무원 신분증, 의료 기록 사진 등 방대한 얼굴 이미지가 존재합니다. 이에 접근 권한을 가진 수십만 명의 공무원 중 단 한 명이라도 악의적으로 이 데이터를 활용할 경우, 현재의 시스템은 이를 사전에 탐지할 수단이 거의 없습니다.
내부 접근 로그(누가 언제 어떤 데이터에 접근했는지 기록)가 존재하더라도, 그 데이터를 외부 AI 도구에 입력하는 행위를 실시간으로 감지하기는 어렵습니다. 기술적 방어보다 제도적 처벌과 예방 교육이 현실적인 대응이지만, 두 측면 모두 아직 충분하지 않습니다.
한국 상황과 시사점
한국에서도 유사한 구조적 위험이 존재합니다. 경찰, 군, 금융기관, 의료기관 등 개인 사진 데이터에 접근 가능한 직군은 광범위합니다. 딥페이크 관련 신고 건수는 매년 증가하고 있으며, 피해자의 상당수가 10대와 20대 여성입니다.
이 사건이 한국 독자에게 주는 실질적 시사점은 세 가지입니다. 첫째, 신분 확인 목적으로 제출한 사진이 어디에 저장되고 어떻게 관리되는지 개인이 알 권리를 법제화할 필요가 있습니다. 둘째, 공공기관 내 AI 도구 사용에 대한 명확한 가이드라인과 감사 체계가 필요합니다. 셋째, 딥페이크 피해를 인지하지 못하는 피해자를 위한 선제적 탐지 및 알림 서비스가 공공 차원에서 마련돼야 합니다.
AI 기술의 문제가 아닙니다. 공권력에 대한 신뢰와 그 신뢰를 지키는 제도의 문제입니다. 기술은 이미 가해자의 손에 있습니다. 제도가 따라잡지 못하는 속도로 악용 사례가 늘고 있습니다. 이 사건이 단순한 해외 뉴스로 소비되지 않으려면, 공공 데이터 접근 권한의 감사 체계와 딥페이크 피해 지원 인프라를 구체적으로 논의해야 할 시점입니다.
#딥페이크포르노 #공권력남용 #AI성착취 #운전면허증개인정보 #딥페이크규제 #AI범죄 #비동의촬영물 #개인정보보호
함께 읽으면 좋은 글
SteamGPT 유출 파일 분석 Valve가 AI로 게임 콘텐츠를 심사하면 무슨 일이 벌어지나
Steam 내부 파일에서 AI 기반 콘텐츠 심사 시스템 SteamGPT의 흔적이 발견됐다. 게임 업계 AI 검열 자동화가 개발자와 이용자에게 미칠 영향을 분석한다
뉴스과기정통부 AI 학습 데이터 전수조사 착수 공공데이터 100종 개방과 특허정보 에이전트 전략 분석
과기정통부가 전 부처 AI 학습용 데이터 첫 전수조사를 시작했다. 1억 4천만 건 특허 데이터에 에이전트 AI를 연결하는 전략과 한국 공공 AI 인프라의 실질적 의미를 분석한다