메타 구글 청소년 배상 판결이 AI 기업에 경고하는 것 안전 연구가 유죄 증거가 되는 구조
메타 420만 달러 구글 180만 달러 소셜미디어 청소년 피해 배상 판결이 AI 기업에 던지는 메시지를 분석한다 안전 연구를 하면 증거가 되고 안 하면 무책임해지는 딜레마
미국 캘리포니아주 배심원단이 메타에 420만 달러(약 63억 5,000만 원), 구글에 180만 달러(약 27억 2,000만 원)의 청소년 피해 손해배상 책임을 인정했습니다. 20세 여성이 미성년 시절 인스타그램과 유튜브의 중독적 설계로 심각한 우울증과 자살 충동에 시달렸다고 제기한 소송입니다. 금액 자체보다 중요한 것은 기업이 자체적으로 수행한 안전 연구가 법정에서 기업을 공격하는 증거로 사용됐다 는 구조입니다. 이 구조가 AI 업계에도 그대로 적용될 수 있다는 경고가 나오고 있습니다. 3월 31일자 AI코리아24 브리핑에서 기사의 원문을 확인할 수 있습니다.
내부 연구가 내부 고발이 되기까지
메타는 10여 년 전 소셜 미디어가 사용자에게 미치는 영향을 분석하기 위해 사회과학 연구원들을 고용했습니다. 기술의 이점과 위험을 진지하게 파악하려는 의도였습니다. 문제는 그 연구 결과가 경영진에게 보고된 뒤 묻혔다는 것입니다.
2021년, 메타 연구원 프랜시스 하우젠이 수백 건의 내부 문서를 공개하면서 상황이 뒤집혔습니다. 인스타그램에서 십대 사용자가 원치 않는 성적 접근을 받고 있다는 내부 설문 결과, 페이스북 사용을 줄인 사람들이 우울증과 불안감을 덜 느낀다는 연구를 메타가 중단시킨 사실이 드러났습니다. 배심원단은 이 내부 문서들을 “회사가 문제를 알면서도 방치했다”는 증거로 채택했습니다.
CNBC에 따르면, 배심원들은 임원 이메일, 프레젠테이션, 내부 연구 보고서 등 수백만 건의 기업 문서를 평가했습니다. 메타 전 임원 브라이언 볼랜드는 “한때 내부적으로 팀을 구성해 제품에서 무슨 일이 일어나고 있는지 조사할 수 있었지만, 그 결과는 무시됐다”고 증언했습니다.
1990년대 담배 소송과 같은 패턴
미국 언론은 이번 판결을 “담배 회사의 순간(Big Tobacco Moment)” 에 비유하고 있습니다. 1990년대 담배 회사들은 수십 년간 “담배가 암을 유발한다는 과학적 증거가 없다”는 논리로 소송에서 이겼습니다. 그러나 내부 고발자가 등장해 회사가 니코틴의 중독성과 암 유발 가능성을 이미 알고 있었다는 기밀문서가 공개되자 판세가 뒤집혔습니다. 미국 46개 주 정부가 담배 회사들을 상대로 25년간 2,060억 달러(당시 가치 약 270조 원)를 배상받는 합의를 끌어냈습니다.

메타 판결은 이 패턴의 초기 단계를 밟고 있습니다. 내부 연구 → 내부 고발(하우젠) → 내부 문서 증거 채택 → 배상 판결. 금액은 600만 달러(약 90억 원)로 메타의 연간 매출 대비 미미하지만, 미국 전역에 유사한 소송이 수백 건 대기 중이라는 점이 핵심입니다. 한 건의 선례가 수백 건의 후속 소송을 여는 구조입니다.
AI 업계가 밟고 있는 같은 길
AI 기업들은 지금 메타가 10년 전 시작했던 길 위에 있습니다. OpenAI와 Anthropic은 AI 안전과 정렬(alignment, AI가 인간 의도에 맞게 작동하도록 조율하는 것) 연구팀을 운영하고 결과를 공개합니다. 이것은 책임 있는 행동이지만, 메타의 사례가 보여주듯 그 연구가 미래의 법정에서 “회사가 위험을 인지하고 있었다”는 증거로 전환될 수 있습니다.
징후는 이미 나타나고 있습니다. OpenAI는 청소년 자살 문제를 포함해 수십 건의 소송에 휘말려 있고, 3월에는 청소년 안전 정책을 오픈소스로 공개하는 대응을 했습니다. 구글도 자살 유도 혐의로 기소된 상태입니다. 샘 알트먼 OpenAI CEO가 AI 아첨성(sycophancy, 사용자의 말에 무조건 동조하는 경향) 문제를 인정하고 모델을 이전 버전으로 롤백한 것 자체가, 미래의 법정에서 “문제를 인지하고 있었다”는 증거가 될 수 있습니다.
버니 샌더스의 AI 폭로 영상 분석에서 다뤘던 아첨성 문제가 법적 리스크로 구체화되는 경로입니다. 사용자가 원하는 답을 주는 AI의 설계가 정신적으로 취약한 사용자에게 피해를 입혔다면, 그리고 회사가 그 설계의 문제를 연구를 통해 인지하고 있었다면, 담배 소송과 동일한 논리가 성립합니다.
Anthropic의 독특한 위치
흥미로운 것은 다리오 아모데이 Anthropic CEO가 월스트리트 저널 인터뷰에서 경쟁사들을 “유해한 제품을 알면서도 판매하는 담배 회사”에 비유했다는 점입니다. Anthropic은 안전 연구를 가장 활발히 공개하는 회사입니다. 3월에 발표한 경제 지수 보고서에서 사용자의 AI 활용 패턴을 8만 명 규모로 분석한 것도, 사용자 행동에 대한 상세한 데이터를 확보하고 있다는 뜻입니다.
같은 논리가 Anthropic에도 적용될 수 있다는 점을 아모데이가 모를 리 없습니다. 그럼에도 안전 연구를 계속 공개하는 것은, “연구를 숨기다 들키는 것”보다 “연구를 공개하고 투명하게 대응하는 것”이 장기적으로 법적 리스크가 낮다는 판단일 수 있습니다. 메타의 실패가 “연구를 했는데 숨겼다”에 있었지, “연구를 했다”에 있지 않았다는 점이 그 근거입니다.
안전 연구 딜레마의 해법
디지털 미디어 및 아동 발달 연구소의 케이트 블로커 책임자는 “AI 기업들은 과거의 실수를 되풀이하지 않을 기회를 가지고 있다”면서도 “독립적인 제3자 연구를 지원하는 투명성 시스템을 시급히 구축해야 한다”고 강조했습니다.
딜레마의 구조는 명확합니다. 안전 연구를 많이 하면 소송 증거가 쌓이고, 안 하면 무책임하다는 비판을 받습니다. 메타는 하우젠 사태 이후 관련 연구 부서를 대폭 축소하는 방향을 택했습니다. 이것이 AI 업계의 미래가 되어서는 안 됩니다.
해법은 연구를 줄이는 것이 아니라 연구의 주체를 바꾸는 것 입니다. 기업이 내부에서 연구하면 그 결과가 증거가 됩니다. 독립적인 제3자 기관이 연구하고, 기업은 그 연구에 데이터 접근과 자금을 지원하되 결과에 개입하지 않는 구조가 필요합니다. 한국 정부 AI 예산 4,552억 원의 일부를 독립 AI 안전 연구에 배정하는 것이 기업도 보호하고 사용자도 보호하는 현실적 경로입니다.
AI 업계는 소셜 미디어가 10년에 걸쳐 겪은 과정을 압축적으로 반복하고 있습니다. “담배 회사의 순간”은 AI에도 옵니다. 차이가 있다면 속도입니다. 준비할 시간이 메타보다 짧습니다.
#메타판결 #AI안전연구 #담배회사의순간 #프랜시스하우젠 #AI아첨성 #OpenAI소송 #Anthropic
함께 읽으면 좋은 글
Anthropic OpenClaw 창시자 계정 정지 사건 AI 플랫폼 오픈소스 생태계 갈등의 전말
Anthropic이 OpenClaw 창시자 Steinberger의 계정을 일시 정지했다. 오픈소스 도구 차단과 자사 제품 강화가 맞물린 이 사건이 AI 플랫폼 생태계 신뢰에 던지는 질문을 분석한다
뉴스Apple AI 에이전트 결제 전 반드시 묻는다 빅테크가 선택한 제한된 자율성 전략 분석
Apple과 Qualcomm이 AI 에이전트를 인간 승인 없이 결제하지 못하도록 설계하고 있다. 완전 자율 대신 통제된 자율을 선택한 배경과 업계 표준화 가능성을 분석한다