뉴스

NYT 서평 표절 사건으로 드러난 AI 블랙박스 저널리즘의 위험성

프리랜서 작가가 AI 도구로 작성한 NYT 서평이 가디언 기존 서평을 표절한 것으로 발각되어 해고되었다 Ars Technica 인용문 날조 사건과 함께 AI 저널리즘의 구조적 문제를 분석한다

#NYT #AI표절 #AlexPreston #ArsTechnica #AI저널리즘 #가디언 #AI할루시네이션 #뉴스룸AI정책
NYT 서평 표절 사건으로 드러난 AI 블랙박스 저널리즘의 위험성

뉴욕타임스(NYT)가 3월 30일, 프리랜서 서평 작가 Alex Preston 과의 관계를 끊었습니다. 그가 AI 도구를 사용해 작성한 서평이 가디언(The Guardian)에 4개월 전 실린 기존 서평의 문장을 거의 그대로 포함하고 있었기 때문입니다. Preston은 Jean-Baptiste Andrea의 소설 “Watching Over Her” 서평을 1월 6일 NYT에 게재했는데, 한 독자가 가디언의 Christobel Kent가 쓴 같은 책 서평과의 유사성을 지적하면서 사건이 시작되었습니다.

이 사건은 개인의 부주의로 보일 수 있습니다. 하지만 불과 6주 전 Ars Technica에서 벌어진 AI 인용문 날조 사건과 함께 놓고 보면, AI를 ‘블랙박스’로 사용하는 관행이 저널리즘의 신뢰 기반을 어떻게 침식하는지 를 보여주는 구조적 경고입니다.

NYT 서평 표절 사건의 전말

Preston은 2021년부터 NYT에 서평을 기고해온 프리랜서입니다. 그는 “Watching Over Her” 서평을 작성하면서 AI 도구를 보조적으로 사용했다고 밝혔습니다. 문제는 그가 사용한 AI 도구가 웹을 검색해 가디언에 실린 기존 서평의 문장을 가져왔고, Preston은 이를 인지하지 못한 채 그대로 제출했다는 것입니다.

Book Riot의 분석이 이 사건의 구조를 정확히 짚고 있습니다. AI가 서평을 잘 쓸 수 없는 이유는 명확합니다. 신간은 AI 모델의 학습 데이터에 포함되어 있지 않고, 해당 책에 대한 기존 텍스트 풀(pool)이 극히 작습니다. AI가 참조할 수 있는 자료가 적으니, 검색해서 찾아낸 소수의 기존 서평에서 문장을 그대로 가져올 확률이 높아집니다. 그리고 Preston은 그 결과물을 영어권에서 가장 많이 읽히는 서평 매체에 게재했습니다. 독자가 같은 책의 다른 서평도 읽었을 가능성이 가장 높은 곳이었습니다.

NYT 대변인은 가디언에 “AI에 대한 의존과 다른 작가의 미귀속 작업 사용은 타임스 기준의 명확한 위반”이라고 밝혔습니다. Preston은 가디언, NYT, 그리고 원래 서평을 쓴 Kent에게 사과했으며, “크게 당혹스럽다”고 말했습니다. 그는 다른 5건의 기고에서는 AI를 사용하지 않았다고 해명했습니다.

6주 전 Ars Technica에서도 같은 구조의 사고가 터졌다

이 사건이 고립된 실수가 아니라는 것을 보여주는 선행 사례가 있습니다. 2026년 2월, Ars Technica가 AI 에이전트에 관한 기사를 게재했는데, 기사에 포함된 인용문이 전부 AI가 날조한 것 이었습니다.

사건의 경위는 이렇습니다. 개발자 Scott Shambaugh의 블로그에서 인용문을 가져오려 했으나, Shambaugh가 자신의 사이트에 ChatGPT의 접근을 차단해놓은 상태였습니다. ChatGPT는 블로그에 실제로 접근하지 못했음에도, URL과 프롬프트를 기반으로 Shambaugh가 말한 적 없는 인용문을 그럴듯하게 만들어냈습니다. 기사를 작성한 시니어 AI 기자 Benj Edwards는 이를 검증하지 않고 그대로 게재했고, Shambaugh 본인이 “나는 이런 말을 한 적이 없다”고 지적하면서 사건이 드러났습니다.

Ars Technica 편집장은 “직접 인용문은 항상 출처가 실제로 한 말을 반영해야 한다”며 기사를 철회하고 사과했습니다. Edwards는 이후 해고되었습니다. Ars Technica는 AI 도구의 위험성을 수년간 보도해온 매체였고, AI 생성 콘텐츠의 무단 게재를 금지하는 내부 정책을 갖고 있었습니다. 그 정책이 지켜지지 않았습니다.

두 사건을 관통하는 공통 구조

NYT 서평 표절과 Ars Technica 인용문 날조는 표면적으로 다른 사건이지만, 정확히 같은 구조 를 공유합니다.

첫째, 작성자가 AI 도구의 작동 방식을 이해하지 못했습니다. Preston은 자신의 AI 도구가 웹을 검색해 기존 텍스트를 가져온다는 사실을 몰랐습니다. Edwards는 ChatGPT가 접근할 수 없는 출처의 인용문을 날조할 수 있다는 사실을 몰랐습니다. 두 사람 모두 AI를 ‘블랙박스’, 즉 입력을 넣으면 믿을 수 있는 출력이 나오는 도구로 취급했습니다.

UuAdRPNv.webp

둘째, 검증 과정이 부재했습니다. Preston은 AI가 생성한 텍스트를 다른 서평과 대조하지 않았습니다. Edwards는 AI가 제시한 인용문을 원본 출처에서 확인하지 않았습니다. 저널리즘의 가장 기본적인 원칙인 “출처 확인”이 AI 도구를 거치는 순간 생략되었습니다.

셋째, 조직 차원의 안전장치도 작동하지 않았습니다. Book Riot은 NYT 측에 “AI 생성 텍스트를 검출하는 사전 검토 체계가 있었는가?”라는 질문을 던졌습니다. 이 정도로 명백한 표절이 게재 전에 걸러지지 않았다는 것은, 개인의 실수를 넘어 조직의 프로세스 부재를 의미합니다. Ars Technica 역시 AI 사용 금지 내부 정책이 있었지만, 실제 기사 게재 과정에서 이를 강제하는 기술적 메커니즘은 없었습니다.

AI 저널리즘의 구조적 문제가 드러나고 있다

이 두 사건은 AI가 저널리즘에 가져오는 위험의 본질을 보여줍니다. 문제는 AI가 “나쁜 글”을 쓰는 것이 아닙니다. AI가 자신감 있게, 그럴듯하게, 검증 불가능한 방식으로 잘못된 출력을 생성한다 는 것이 문제입니다.

AI 도구가 웹에서 텍스트를 가져올 때, 그것이 인용인지 표절인지 구분하지 않습니다. AI가 접근할 수 없는 출처에서 인용문을 요청받으면, “접근할 수 없습니다”라고 말하는 대신 그럴듯한 문장을 만들어냅니다. 사용자가 이 메커니즘을 이해하지 못하면, AI의 출력은 “보조”가 아니라 “함정”이 됩니다.

메릴랜드대학교 연구에 따르면, 2025년 기준 신문 뉴스의 약 10%에 AI 생성 텍스트가 포함 되어 있습니다. 국제뉴스미디어협회(INMA) 조사에서는 퍼블리셔의 97%가 AI에 투자 하고 있다고 답했습니다. AI 사용은 이미 업계 표준이 되어가고 있습니다. 그러나 퓨 리서치에 따르면 미국인의 약 절반은 AI가 저널리즘에 문제가 된다 고 보고 있습니다.

이 간극이 바로 위험입니다. 뉴스룸은 AI를 빠르게 도입하고 있지만, AI의 출력을 검증하는 프로토콜은 그 속도를 따라가지 못하고 있습니다.

이 사건이 콘텐츠 제작자 모두에게 던지는 질문

이 사건은 기자만의 문제가 아닙니다. 블로거, 마케터, 리뷰어, 보고서 작성자 등 AI 도구로 텍스트를 생성하는 모든 사람에게 동일한 질문을 던집니다.

“당신이 사용하는 AI 도구가 지금 무엇을 하고 있는지 알고 있습니까?”

AI 도구는 웹을 검색할 수 있습니다. 검색 결과를 그대로 가져올 수 있습니다. 접근할 수 없는 출처의 내용을 날조할 수 있습니다. 이 모든 것을 사용자에게 명시적으로 알리지 않은 채 수행합니다. AI를 보조 도구로 사용하는 것과, AI의 출력을 맹신하는 것 사이에는 검증이라는 단 하나의 단계가 있습니다. NYT와 Ars Technica 사건은 그 단계가 생략되었을 때 무엇이 벌어지는지를 보여주었습니다.

뉴스룸이든 개인 블로그든, AI를 사용하되 AI가 무엇을 하는지 이해하고, 출력물을 반드시 검증하는 프로세스를 갖추는 것이 AI 시대 콘텐츠 제작의 최소 조건입니다. 도구의 편리함이 검증의 책임을 면제해주지 않습니다.

#NYT #AI표절 #ArsTechnica #AI저널리즘 #AI할루시네이션 #AlexPreston #뉴스룸AI정책 #AI윤리

함께 읽으면 좋은 글

📋 CertKorea

2026년 국가자격증 시험일정을 한눈에 확인하세요. 613개 자격증의 필기·실기 D-day 카운트다운.

자격증 시험일정 확인하기 →
링크가 복사되었습니다!