지난해 미국에서는 14세 소년 슈얼 세처(Sewell Setzer III)가 AI 챗봇 서비스 '캐릭터.AI(Character.AI)'와 대화를 나누다 스스로 목숨을 끊는 사건이 발생했다. 슈얼 세처의 어머니 메건 가르시아(Megan Garcia)는 해당 기업을 상대로 소송을 제기하며 "많은 아이들이 부모에게 AI 친구의 존재를 숨긴다"고 경고했다. 이 사건은 생성형 AI가 단순한 정보 도구를 넘어 청소년의 정서 생활에 깊숙이 침투하고 있음을 보여준 사례로 평가된다.
소아청소년과 전문의 엘리자 험프리스(Eliza Humphreys·Eliza Humphreys MD, LLC)는 《사이콜로지 투데이(Psychology Today)》 기고에서 "동반자형 AI는 '관계'처럼 느껴지는 가짜 친밀감을 제공한다"며 "청소년에게 특히 위험할 수 있다"고 지적했다.

<사이콜로지 투데이(Psychology Today)>에 기고한 소아청소년과 전문의 엘리자 험프리스(Eliza Humphreys, M.D., MPH.)의 글과 커먼센스 미디어(Common Sense Media) 조사에 따르면, 미국 청소년의 72%가 동반자형 AI를 사용한 경험이 있으며 약 13%는 정신건강 관련 조언을 AI에 의존하는 것으로 나타났다. 전문가들은 AI가 제공하는 '가짜 친밀감'이 청소년의 뇌 발달 특성과 맞물려 심리적 애착과 정서 왜곡을 심화시킬 수 있다며, 부모의 적극적인 관심과 제도적 안전장치 강화가 시급하다고 강조했다. / 이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)
이미지 확대보기AI와 잘못된 친밀감으로 불거지는 정서적 문제의 규모는 이미 상당하다.
엔터테인먼트 콘텐츠를 연구 기반으로 평가·리뷰하는 미국 비영리단체 커먼센스 미디어(Common Sense Media) 조사에 따르면, 미국 청소년의 72%가 동반자형 AI를 사용해 본 경험이 있고, 52%는 정기적으로 사용하고 있다.
응답자 약 3분의 1은 AI와의 대화가 인간과의 대화만큼 만족스럽거나 오히려 더 만족스럽다고 답했다. 특히 13~14세 청소년은 15~17세보다 AI가 제공하는 정보를 더 신뢰하는 경향이 나타났다.
더 우려되는 지점은 일부 청소년이 AI를 정서 상담 창구로 활용한다는 점이다. 조사에 따르면 청소년의 약 13%가 정신건강 관련 조언을 AI에 의존하는 것으로 나타났다.
■ 왜 청소년이 더 취약한가... "뇌 발달 구조가 AI에 끌리도록 만든다"
전문가들은 청소년의 뇌 발달 특성이 동반자형 AI의 영향력을 키운다고 설명한다. 청소년기에는 감정 처리와 보상에 관여하는 변연계가 먼저 성숙하는 반면, 판단과 충동 조절을 담당하는 전전두엽은 아직 발달 중이다. 이 발달 격차 때문에 즉각적인 반응과 공감을 제공하는 AI에 더 쉽게 끌릴 수 있다는 것이다.
청소년기는 소속감과 인정 욕구가 강하고 정체성을 탐색하는 시기이기도 하다. 동반자형 AI는 언제든 응답하고 비판하지 않으며, 개인화된 반응을 제공하도록 설계돼 있다. 외로움이나 불안을 겪는 청소년에게는 AI의 반응이 실제 관계처럼 느껴질 수밖에 없다.
청소년은 AI 시스템의 한계를 충분히 인식할 디지털 리터러시(디지털 환경에서 정보를 평가·판단하는 능력)와 인지적 성숙도가 부족할 가능성도 있다. 챗봇의 유창한 언어와 따뜻한 말투는 '시뮬레이션(모사)'과 '진짜 이해'의 경계를 흐린다. 대화가 '서로 주고받는 관계'처럼 느껴지는 순간, 상호작용이 알고리즘으로 생성된 것임에도 심리적 애착은 빠르게 형성될 수 있다.
■ '의인화·아첨성' 설계... 이용 시간 늘리지만 위험도 키운다
AI 챗봇은 사용자의 이용 시간을 늘리도록 설계돼 있다. 대표적인 설계 요소가 '의인화(anthropomorphism)'와 '아첨성(sycophancy)'이다.
의인화는 인간이 아닌 대상에 인간적 속성을 부여하는 경향을 뜻한다. AI가 자연스러운 언어와 감정 표현, 대화 기억 기능을 사용할수록 이용자는 AI를 단순한 도구가 아닌 '관계적 존재'로 받아들이기 쉽다.
아첨성은 사용자의 의견에 동조하고 긍정하는 경향을 의미한다. 한 연구에 따르면 챗봇은 인간보다 약 50% 더 아첨적인 것으로 나타났다.
AI가 감정 표현과 대화 기억을 통해 '관계의 느낌'을 강화하는 구조에, 사용자의 관점을 지속적으로 긍정하는 설계까지 더해지면 위험은 배가된다. 청소년의 부정적 자기 인식이나 절망적 사고를 AI가 반복적으로 확인해 주는 방식으로 작동할 경우, 해로운 생각의 고리를 강화할 가능성이 있다는 지적이다.
■ 안전장치 미흡... "AI가 자해·약물 정보 제공하기도"
AI 확산 속도에 비해 안전장치는 충분하지 않다는 지적이 이어지고 있다.
한 시민단체 조사에서는 챗GPT(ChatGPT) 최신 버전이 청소년 보호를 위한 안전장치가 미흡하다고 평가했다. 연구진이 가상의 청소년 프로필로 서비스를 시험한 결과, 자해 방법, 섭식장애, 불법 약물 사용 등 유해 정보가 제공된 사례가 확인됐다. 연구진은 "플랫폼이 안전보다 이용자 참여 확대를 우선시하는 경향이 있다"고 지적했다.
스탠퍼드대와 공동 연구를 수행한 커먼센스 미디어도 "AI는 청소년의 정신건강 문제를 적절히 인식하거나 대응하는 데 신뢰성이 낮다"며 정서 상담 도구로의 사용을 경고했다. 미국심리학회(APA)와 미국소아과학회(AAP) 역시 아동·청소년 보호를 위한 안전장치 강화와 부모 교육의 필요성을 공식 권고했다.
제도적 대응도 속도를 내고 있다. 미국 캘리포니아주는 2025년 동반자형 AI 챗봇에 대해 안전·투명성·보고 의무를 부과하는 법안을 통과시켰다. 한국도 올해 1월 22일부터 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(약칭: 인공지능기본법)'을 시행하며 안전성과 투명성 의무를 강화했다.
■ "마지막 안전망은 부모"... 현실 대화로 자녀를 끌어내야
전문가들은 제도 정비와 연구 축적에 시간이 필요한 만큼, 현재로서는 부모가 가장 중요한 보호 장치라고 강조한다.
부모는 자녀에게 AI 사용 여부를 차분하게 묻고, AI가 감정을 '느끼는 존재'가 아니라 공감을 '모방하는 시스템'임을 설명할 필요가 있다. 또래·가족 등 현실 인간관계의 중요성을 강조하고, 정서적 지지 수단으로 AI에 의존하는 방식은 피하도록 안내해야 한다.
수면 변화, 기분 변화, 비밀스러운 행동 등 이상 징후가 나타나면 소아청소년과 의사나 정신건강 전문가 상담을 고려하는 것이 바람직하다는 조언도 나온다.
■ "AI는 도구일 뿐"... 인간 관계 대체하는 순간 위험해진다
생성형 AI는 분명 강력한 도구다. 그러나 생성형 AI가 '관계'처럼 작동하는 순간, 특히 성장 과정에 있는 청소년에게는 예측하기 어려운 위험을 낳을 수 있다.
전문가들은 "AI와의 상호작용이 인간관계를 대체하는 수준으로 확장될 경우 사회적 고립과 정서적 왜곡이 심화될 수 있다"고 경고한다.
AI 시대의 핵심 과제는 기술 자체가 아니라, 사회와 개인이 생성형 AI를 어떻게 사용하고 관리할 것인지에 달려 있다.
▶ 원문 기사 출처
"Who Is Your Teen Talking To?" Eliza Humphreys, M.D., MPH., 2026.02.20. <Psychology Today>
김지연(Jee Yearn Kim) Ph.D.
독립 연구자로 미국 신시내티 대학교 형사정책학 박사 학위를 취득했다. 주요 연구 및 관심 분야는 범죄 행위의 심리학(Psychology of Criminal Conduct), 범죄자 분류 및 위험 평가(Offender Classification and Risk Assessment), 효과적인 교정개입의 원칙(Principles of Effective Intervention), 형사사법 실무자의 직장내 스트레스 요인, 인력 유지 및 조직행동(Workplace Stressors, Retention, and Organizational Behavior of Criminal Justice Practitioners), 스토킹 범죄자 및 개입 방법(Stalking Offenders and Interventions)이다.
김지연 형사정책학 박사 cjdr.kim@gmail.com








