다만 학교 현장에서 딥페이크 성범죄가 얼마나 빈번하게 발생하는지는 아직 명확하지 않다. 일부 전문가들은 광범위한 문제로 보고 있지만 실제 보고된 사례 수는 제한적이라는 분석도 있다.
2023년을 기점으로 생성형 AI가 새로운 형태의 성범죄 도구로 악용되고 있다는 연구 결과가 잇따른다. 특히 AI를 활용해 아동의 성착취 이미지를 만들어내는 'AI 생성 아동 성착취물(AI-generated Child Sexual Abuse Material, CSAM)' 문제가 교육 현장까지 확산되며 심각한 사회 문제로 떠오르고 있다.
스탠퍼드대 인간중심 인공지능 연구소(Stanford Institute for Human-Centered Artificial Intelligence, HAI)와 사이버 정책 센터(Stanford Cyber Policy Center)의 정책연구원 쉘비 그로스만(Shelby Grossman), 리아나 페퍼코른(Riana Pfefferkorn), 써니 리우(Sunny Liu) 연구진은 NGO와 AI 관련 기업, 온라인 플랫폼, 미국 실종·착취아동센터(NCMEC) 관계자, 피해 아동과 부모, 피해자 변호사, 교사 등 52명을 인터뷰했다. 연구진은 또 실제 사건이 일어난 캘리포니아·뉴저지·텍사스·워싱턴주의 공립학교 기록을 분석해 AI 기반 아동 성착취물의 실태와 대응 현황을 조사했다.

스탠퍼드대 인간중심 인공지능 연구소(HAI)와 사이버정책센터의 그로스만·페퍼코른·리우 연구진(2025) 연구에 따르면 미국 6개 주 학교에서 청소년이 또래 여학생의 AI 딥페이크 나체 이미지를 제작한 사건이 잇따른 것으로 나타났다. 연구진은 "누디파이 앱 등 누구나 손쉽게 사용할 수 있는 도구가 확산되며 청소년이 가해자이자 피해자가 되는 환경이 만들어졌다"며 "학교의 사전 예방 교육과 신고 체계 정비, 청소년 가해자에 대한 법적 기준 마련이 시급하다"고 강조했다./이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사내용의 이해를 돕기 위해 AI로 생성한 것입니다.)
이미지 확대보기■ "AI로 만든 가짜 나체"...누구나 가해자 될 수 있다
스탠퍼드 연구진에 따르면, '누디파이(nudify)', '언드레스(undress)', '얼굴 합성(face-swapping)' 앱 등은 별다른 기술 없이도 일반 이용자가 음란 이미지를 생성할 수 있도록 설계돼 있다. 이러한 도구의 확산이 AI 생성 아동 성착취물 증가의 주요 원인으로 지목된다.
이용자 가운데 청소년도 적지 않다. 같은 또래 학생의 사진을 활용해 '딥페이크 나체 이미지'를 제작하는 사례도 확인됐다.
AI 기반 이미지 생성 기술은 크게 두 가지 방식으로 악용된다.
첫째는 실제로 존재하지 않는 아동을 대상으로 한 가짜 성착취 이미지다. 가짜라고 해도 실제 아동 성착취물을 학습 데이터로 삼은 모델에서 만들어진다는 점에서 문제가 제기된다. 둘째는 더 심각하다. 실제 존재하는 아동의 사진을 변형해 성적으로 노출된 것처럼 조작하는 방식이다. 유명 아동뿐 아니라 학교 친구 등 가해자의 주변 인물도 표적이 된다.
특히 '누디파이 앱'은 옷을 입은 사진을 입력하면 단 몇 초 만에 실제처럼 보이는 나체 이미지를 만들어낸다. 별도의 기술 지식이 필요 없어 범죄 접근성이 크게 낮아진 셈이다. 문제는 이러한 앱들이 미성년자 이미지 업로드를 명확히 금지하지 않거나, 금지하더라도 실제로는 제대로 통제되지 않는 경우가 많다는 점이다.
■ "장난? 괴롭힘? 범죄?"... 청소년도 가해자
청소년이 이런 행위를 저지르는 이유는 단순하지 않다. 연구진에 따르면 일부 학생은 딥페이크 제작을 '장난'이나 '재미'로 여긴다. 그러나 다른 경우에는 명백한 사이버 괴롭힘이나 보복, 심지어 협박(섹스토션) 수단으로 사용되기도 한다.
전문가들은 "청소년의 뇌 발달이 완전히 이루어지지 않아 자기 행동의 결과를 충분히 인식하지 못하는 경우가 많다"고 설명한다. 온라인 환경에서는 행위의 심각성이 현실보다 덜 체감되는 경향도 문제로 지적된다.
실제로 많은 청소년은 딥페이크 제작이 불법이라는 사실을 알면서도, 앱이 공개적으로 유통된다는 이유만으로 합법이라고 오해하는 경우도 있었다.
■ "사후 대응뿐"... 학교는 준비돼 있지 않았다
가장 큰 문제는 학교의 대응 체계가 충분히 갖춰지지 않았다는 점이다. 연구진에 따르면 대부분의 학교는 사전 예방 교육보다 사건 발생 이후의 '사후 대응' 방식에 머물러 있다. 일부 학교는 사건을 내부적으로 처리하며 외부 보고를 늦추거나 생략한다.
교사들 역시 관련 교육을 제대로 받지 못해 사건 대응에 어려움을 겪고 있다. 위기 대응 매뉴얼이 없는 학교도 적지 않다.
특히 피해자 보호보다 가해 학생 처벌에 초점을 맞춘 대응이 오히려 피해자의 트라우마를 악화시키는 요인으로 작용할 수 있다는 지적도 나온다.
■ "처벌할 것인가, 교육할 것인가"... 법적 기준도 혼란
AI 기반 아동 성착취물 문제는 기존 법체계의 한계를 드러내고 있다. 미국 등 여러 국가에서 관련 법률이 빠르게 도입되고 있지만, '청소년 가해자'를 어떻게 다룰 것인지에 대한 기준은 여전히 불명확하다.
또 미국 대부분의 주에서 교직원은 아동 성학대가 의심되면 신고할 의무를 지지만, AI로 생성된 딥페이크 이미지의 경우 피해 아동이 직접 참여하지 않았다는 이유로 신고 대상에 포함되는지에 대한 해석이 엇갈린다.
일부 전문가들은 형사 처벌보다 상담·교육·전학 등의 조치를 우선해야 한다고 주장한다. 반면 범죄의 중대성을 고려해 엄격한 처벌이 필요하다는 의견도 있다.
입법 과정에서도 피해자 보호에는 공감대가 형성됐지만, 청소년 가해자 대응 방안은 충분히 반영되지 못했다는 평가가 나온다.
■ "법보다 먼저 필요한 건 준비"... 정책 공백 지적
연구진은 현재 정책의 핵심 공백으로 '학교의 역할 부재'를 꼽았다. 우선 교직원의 신고 의무 범위가 명확하지 않다. 기존 법은 피해자의 직접 참여를 전제로 하지만, AI 딥페이크는 이 기준에 포함되지 않는 경우가 있기 때문이다.
또 딥페이크 나체 이미지의 제작·유포를 '사이버 괴롭힘'으로 명확히 규정하고, 학교가 자체 대응 정책을 갖추도록 하는 제도 정비가 필요하다는 지적도 있다.
■ "지금이 골든타임"...예방 정책 시급
연구진은 현재 상황을 "확산 이전에 대응이 가능한 마지막 기회"로 평가했다. 학교 내 발생 사례가 아직 제한적인 만큼, 지금이 예방 교육과 대응 체계를 구축할 적기라는 것이다.
향후 연구에서는 학교 내 발생 실태, 교육 및 예방 프로그램의 효과, 청소년 피해 경험 비율 등을 보다 정밀하게 파악할 필요가 있다.
다만 학생 개인정보 보호 문제로 인해 데이터 수집과 연구에는 한계가 존재한다. 전문가들은 익명화된 데이터를 활용한 정책 설계가 필요하다고 강조한다.
■ "AI가 바꾼 범죄"... 교육·법·기술 모두 바뀌어야
전문가들은 AI 기반 성범죄를 단순한 기술 문제가 아니라 교육·법·사회 전반이 함께 대응해야 할 구조적 문제로 보고 있다. 특히 "누구나 가해자가 될 수 있는 환경"이 형성됐다는 점에서 기존 범죄 대응 방식만으로는 한계가 명확하다는 분석이다.
AI가 만들어낸 새로운 위험 앞에서 교육 현장과 정책이 얼마나 신속하게 대응하느냐가 피해 확산을 막는 핵심 변수로 떠오르고 있다. 연구진은 "현재가 대규모 확산 단계는 아니지만, 학교가 선제적으로 대응 전략을 마련할 수 있는 중요한 시점"이라고 강조했다.
▶ 원문 논문 출처
Grossman, S., Pfefferkorn, R., & Liu, S. (2025). AI-Generated Child Sexual Abuse Material: Insights from Educators, Platforms, Law Enforcement, Legislators, and Victims. Stanford Cyber Policy Center.
김지연(Jee Yearn Kim) Ph.D.
미국 신시내티 대학교(University of Cincinnati)에서 형사정책학 박사를 취득했다. 현재 동국대 경찰행정학부 법심리연구소 박사후 연구원으로, 생성형 AI 기술 역기능 및 사용자 위험 요인 대응 정책 연구에 참여하고 있다. 주요 연구 분야는 범죄 행위의 심리학, 범죄자 위험 평가, 교정 개입 원칙, 형사사법 실무자 조직행동, 스토킹 범죄자 개입 등이다.
김지연 형사정책학 박사 cjdr.kim@gmail.com








