뉴스

텔레그램 AI 딥페이크 성착취 수익 구조 분석 누디파잉봇부터 아동학대 영상 판매까지

280만건 텔레그램 메시지 분석 결과 AI 딥페이크 성착취가 완전한 수익 비즈니스로 진화했다. 월 5유로 구독부터 40% 수수료 구조까지, EU 규제 움직임과 한국적 맥락을 분석한다.

#딥페이크성범죄 #텔레그램규제 #누디파잉봇 #AI악용 #디지털성범죄 #DSA #AI규제 #비동의성착취
텔레그램 AI 딥페이크 성착취 수익 구조 분석 누디파잉봇부터 아동학대 영상 판매까지

AI가 만든 성착취가 이제 완전한 비즈니스 생태계입니다. EU 기반 AI 감시 단체 AI Forensics가 이탈리아와 스페인 텔레그램 그룹에서 수집한 280만 건의 메시지를 분석한 결과, 딥페이크 성착취물은 월정액 구독, 제휴 수수료, 자동화된 아카이브까지 갖춘 산업 구조로 운영되고 있었습니다.

이것은 유럽만의 문제가 아닙니다. 한국은 이미 텔레그램 딥페이크 성범죄로 사회적 충격을 경험했고, 피해자 다수가 학생이었습니다. AI 기술의 발전이 이 범죄의 진입 장벽을 어떻게 무너뜨리고 있는지, 그리고 우리 사회가 어떻게 대응해야 하는지를 들여다봐야 할 시점입니다.

관련 뉴스 브리핑: AI코리아24 브리핑 2026-04-09

AI Forensics 분석이 밝혀낸 수익 구조

AI Forensics의 보고서는 이 생태계를 구성하는 각각의 요소를 정밀하게 기록했습니다.

분석된 280만 건의 메시지 중 “bot(봇)“이라는 단어는 16,232번 등장했습니다. 그룹 내에서 공유된 외부 링크 중 49.71% 는 AI 여자친구 생성기로 연결됐고, 19.14% 는 누디파잉 봇(일반 사진을 합성 누드 이미지로 변환하는 서비스)으로 연결됐습니다.

수익 구조는 체계적입니다. 비동의 성적 이미지 아카이브는 20~50유로 일회성 구매 또는 월 5유로 구독으로 판매됩니다. 결제 수단은 PayPal, 암호화폐, 스페인 간편결제 서비스 Bizum이 사용됩니다. 일부 사용자는 누디파잉 봇의 홍보 링크를 퍼뜨리고 40% 수수료를 받는 제휴 파트너로 활동합니다.

이 네트워크의 규모도 분석됩니다. 분석된 그룹들에서 확인된 활성 사용자는 24,671명이며 최대 규모 그룹은 2만 7천 명의 구성원을 보유했습니다. 스페인 콘텐츠의 72%가 이탈리아 그룹에도 동시에 유통됐습니다. 아동 성착취 영상도 이 아카이브에 포함됩니다.

SQmVDs5f.webp

왜 텔레그램인가, 플랫폼 설계 문제

AI Forensics는 이 생태계가 텔레그램에서 번성하는 이유가 기술적 우연이 아니라 플랫폼 설계의 결과라고 지적합니다.

텔레그램 프리미엄 기능은 채널을 폴더로 정리하고, 봇으로 접근 제어를 자동화하고, 비공개 그룹을 손쉽게 운영할 수 있게 합니다. 단속으로 그룹이 차단되더라도 같은 이름으로 수 시간 내에 재개설됩니다. 텔레그램은 2024년 프리미엄 구독으로 2억 9200만 달러의 수익을 올렸습니다. 이 수익의 일부가 이 범죄 인프라를 유지하는 기능들로부터 나온다는 것이 연구자들의 주장입니다.

AI 기술이 이 범죄의 문턱을 낮췄다는 점도 중요합니다. 과거에는 합성 이미지를 만들려면 포토샵 기술이 필요했습니다. 지금은 텔레그램 봇에 사진 한 장을 업로드하면 몇 초 안에 합성 누드 이미지가 만들어집니다. 해시태그 #PornoTok으로 TikTok 인플루언서의 합성 영상이 제작되고, 해당 인플루언서의 음성까지 모방한 가짜 오디오가 함께 배포됩니다. 피해자가 될 수 있는 사람의 범위가 공인에서 일반인으로, 성인에서 청소년으로 확장됩니다.

EU의 규제 대응과 한국의 현실

AI Forensics는 두 가지 구체적 규제를 요구합니다.

첫째, 텔레그램을 **EU 디지털서비스법(DSA) 상 초대형 온라인 플랫폼(VLOP)**으로 지정하는 것입니다. VLOP으로 지정되면 불법 콘텐츠 제거, 위험 평가, 독립적 감사 의무가 부과됩니다. 현재 텔레그램은 이 지정에서 빠져 있습니다.

둘째, 누디파잉 도구를 EU 전역에서 금지하는 것입니다. EU AI법은 일부 생체인식 AI 시스템에 대한 제한을 포함하지만, 성착취 목적의 이미지 합성 도구에 대한 명시적 금지는 아직 없습니다.

한국의 상황을 보면, 우리는 이미 이 범죄의 심각성을 몸으로 경험했습니다. 2024년 텔레그램 딥페이크 성범죄 사건에서 피해자 다수가 학생이었고, 가해자 역시 지인이거나 같은 학교 학생인 경우가 많았습니다. 한국은 이후 딥페이크 성범죄 처벌을 강화했지만, 범죄 도구 자체에 대한 규제는 여전히 미흡합니다. 누디파잉 봇을 만들고 배포하는 행위, 이런 서비스를 호스팅하는 플랫폼의 책임에 대한 법적 기준이 필요합니다.

AI 기술 발전이 피해자 범위를 어떻게 확장하는가

이 보고서에서 가장 주목해야 할 부분은 기술 발전이 잠재적 피해자의 범위를 구조적으로 확장한다는 점입니다.

딥페이크 기술이 처음 등장했을 때 피해자는 주로 유명 연예인이었습니다. 모델을 만들려면 대상자의 사진이 많이 필요했고, 기술적 장벽도 높았습니다. 지금은 소셜미디어에 사진 몇 장만 올라와 있으면 누구든 피해자가 될 수 있습니다. 기술이 발전할수록 더 적은 사진으로, 더 빠르게, 더 정교한 합성 이미지가 만들어집니다.

이것은 개인의 조심만으로 해결할 수 없는 구조적 문제입니다. 소셜미디어에 사진을 올리지 않는 것은 현실적인 해결책이 아닙니다. 플랫폼의 기술적 책임과 법적 의무, 도구 제공자의 책임, 그리고 피해자 지원 체계가 함께 필요합니다.

기술과 법률이 함께 움직여야 하는 이유

AI 딥페이크 성착취는 기술이 사회 제도보다 빠르게 움직일 때 어떤 일이 벌어지는지 보여주는 사례입니다. 봇을 만드는 기술, 배포하는 플랫폼, 수익화하는 구조가 모두 완성됐지만, 이를 규제하는 법률과 집행 체계는 아직 따라가지 못하고 있습니다.

EU가 DSA와 AI법을 통해 구축하려는 것은 결국 기술 기업도 그 기술의 피해에 책임을 진다는 원칙입니다. 한국도 이 방향으로 움직이고 있지만 속도가 충분한지는 검토가 필요합니다. 디지털 성범죄는 피해자의 일상을 파괴하는 실제 범죄입니다. AI 기술이 이 범죄를 산업화하는 속도에 맞춰 대응 체계가 갖춰져야 합니다.

#딥페이크성범죄 #텔레그램규제 #AI딥페이크 #디지털성범죄 #누디파잉봇 #EU디지털서비스법 #AI악용사례

함께 읽으면 좋은 글

📋 CertKorea

2026년 국가자격증 시험일정을 한눈에 확인하세요. 613개 자격증의 필기·실기 D-day 카운트다운.

자격증 시험일정 확인하기 →
링크가 복사되었습니다!