생성형 인공지능(AI)이 확산되면서 사이버 범죄와 정보전 양상이 빠르게 변화하고 있다. 앞서 살펴본 오픈AI 보고서의 여러 사례는 생성형 AI 범죄의 일부에 불과하다.
과거에는 숙련된 인력이 필요했던 사기 범죄와 온라인 여론조작이 이제는 AI를 통해 자동화되고 대량화되면서 범죄의 규모와 속도가 동시에 확대되고 있다. 전문가들은 생성형 AI가 단순한 도구를 넘어 사기 산업과 정보전의 '효율화 인프라'로 작동하고 있다고 지적한다. 생성형 AI는 콘텐츠 제작, 번역, 설득 메시지 생성, 작전 기획까지 지원하면서 범죄 조직의 생산성을 크게 끌어올리고 있다.
이번 기사에서는 앞서 살펴본 사례들을 바탕으로 생성형 AI가 범죄를 어떻게 더 쉽게 만들었는지 분석하고, 생성형 AI 범죄 피해를 줄이기 위한 현실적인 대응 방안을 살펴본다.

FBI(미국 연방수사국)의 2024년 공개 경고(PSA241203)에 따르면, 생성형 AI를 활용한 사기 범죄가 대규모·고정밀화되고 있으며, 텍스트·음성·영상 등 전 형식에 걸쳐 가짜 신원과 딥페이크가 동원되는 것으로 나타났다. 전문가들은 범죄 콘텐츠의 자동 생산과 다언어 번역, 신뢰 위조 등으로 범죄 진입 장벽이 사실상 붕괴됐다며, 출처 확인·2단계 인증·정보 교차 검증 등 기본 수칙 준수가 시급하다고 강조했다. / 이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)
이미지 확대보기생성형 AI 도입 이후 사기 산업의 구조는 근본적으로 달라졌다.
과거에는 제한된 인력과 시간으로 운영되던 범죄가 이제는 자동화·대량 생산 구조로 전환됐다. 전문가들은 생성형 AI가 범죄의 규모와 효율성을 동시에 확대하고 있다고 분석한다.
가장 큰 변화는 범죄 콘텐츠의 생산 방식이다. 과거에는 사기 이메일이나 광고 문구를 만들기 위해 일정 수준의 언어 능력과 작성 경험이 필요했다. 그러나 생성형 AI를 활용하면 전문가 수준의 문체를 갖춘 메시지를 자동으로 생성할 수 있다.
이로 인해 사기 메시지는 더 빠르게, 더 많이 생산되고 있다.
■ 국경 없는 사기... 언어 장벽 제거와 범죄 진입 장벽 붕괴
생성형 AI는 언어 장벽도 사실상 제거했다.
과거에는 영어 능력이나 설득력 있는 글쓰기 실력이 필요했지만, 생성형 AI가 이러한 기능을 대신하면서 전문성이 낮은 인력도 정교한 사기를 수행할 수 있게 됐다. 전문가들은 이를 두고 "범죄 진입 장벽이 낮아졌다"고 평가한다.
사기 조직은 생성형 AI를 활용해 메시지를 여러 언어로 번역하고 현지 표현에 맞게 다듬을 수 있다. 그 결과, 특정 국가에 국한됐던 사기 범죄가 글로벌 범죄로 빠르게 확산되고 있다.
■ "진짜 전문가 같다"... 신뢰성까지 강화
사기 범죄의 핵심은 신뢰 형성이다.
생성형 AI는 변호사, 금융 전문가, 공공기관 직원처럼 보이는 문체를 만들어낼 수 있다. 실제 사례에서는 가짜 법률 문서나 전문가 프로필까지 생성된 것으로 나타났다.
이러한 기술은 피해자가 실제 전문가와 대화하고 있다고 착각하게 만든다. 생성형 AI가 단순한 도구를 넘어 '신뢰를 만들어내는 인프라'로 작동하고 있다는 분석이 나오는 이유다.
■ 범죄 운영 자동화... 한 사람이 더 많은 피해자 관리
생성형 AI는 사기 조직의 운영 과정에도 활용된다.
피해자 탐색과 접근, 초기 메시지 작성·발송, 신뢰 형성, 금전 요구, 추가 착취에 이르기까지 범죄 과정 전반이 자동화되고 있다. 이로 인해 범죄자의 업무 효율이 크게 증가했다.
그 결과 범죄자 한 명이 동시에 관리할 수 있는 피해자 수가 크게 늘어난 것으로 분석된다.
■ 정보전도 같은 방식... 여론조작 효율 급증
생성형 AI는 정보전에서도 같은 방식으로 활용된다.
생성형 AI는 짧은 시간 안에 대량의 게시글과 댓글을 생성할 수 있으며, 동일한 메시지를 여러 계정을 통해 확산시키는 작업도 자동화한다.
또한 특정 인물이나 집단을 겨냥한 맞춤형 메시지를 제작할 수 있어, 기존보다 설득력 높은 정치 메시지 생성이 가능해졌다. 생성형 AI가 온라인 여론조작의 속도와 규모를 동시에 확대하고 있는 셈이다.
생성형 AI는 허위정보 역시 실제 뉴스 기사나 전문가 의견처럼 작성할 수 있다. 이로 인해 이용자가 허위정보를 사실로 오인할 가능성이 커지고, 정보 환경 전반의 신뢰성이 흔들릴 수 있다는 우려가 나온다.
■ FBI "AI로 사기 더 정교해졌다"... 일반인 주의 필요
수사기관도 경고를 내놓고 있다.
미국 연방수사국(FBI)은 범죄자들이 생성형 AI를 활용해 더 설득력 있는 사기를 대규모로 수행하고 있다고 밝혔다. 아울러 생성형 AI는 인간의 실수를 보완해 기존 사기의 경고 신호를 줄이고, 더 많은 피해자에게 접근할 수 있게 만든다고 설명했다.
특히 생성형 AI는 텍스트, 이미지, 음성, 영상 등 다양한 형태로 활용되며, 가짜 신원 생성·음성 복제·딥페이크 영상 제작 등을 통해 사기 범죄에 사용될 수 있다고 경고했다.
■ 의심, 출처 확인, 클릭 자제... 기본 수칙 지키는 것이 중요
전문가들은 생성형 AI 범죄를 완전히 차단하기는 어렵지만, 기본적인 대응만으로도 피해를 줄일 수 있다고 강조한다.
우선 지나치게 좋은 조건을 제시하는 제안은 경계해야 한다. 고수익 투자, 해외 자문 제안, 갑작스러운 채용 연락 등은 반드시 사실 여부를 확인해야 한다.
또한 "지금 당장 대응해야 한다"는 긴급 메시지는 사기에서 자주 사용되는 수법이다. 전문가들은 이러한 메시지를 받았을 때 즉시 대응하지 말고 시간을 두고 확인하는 것이 중요하다고 강조한다.
메시지의 출처 확인도 필수적이다. 이메일 주소, 회사 존재 여부, 링크 주소 등을 공식 경로를 통해 재확인해야 한다.
링크나 첨부파일도 신중하게 다뤄야 한다. 생성형 AI와 딥페이크 기술로 영상·음성까지 조작될 수 있는 만큼, 송금 요청이나 민감한 정보 요구는 반드시 다른 채널로 재확인해야 한다.
개인정보 공개를 최소화하고 계정 보안을 강화하는 것도 중요하다. 전문가들은 2단계 인증과 비밀번호 분리 사용을 기본 보안 수칙으로 제시한다.
■ "반응 늦추고 공유 줄여라"... 정보전 대응 핵심
정보전 역시 개인이 완전히 막기는 어렵다. 다만 기본적인 정보 소비 습관만으로도 영향력을 줄일 수 있다.
전문가들은 감정을 강하게 자극하는 콘텐츠를 특히 경계해야 한다고 지적한다. 분노나 공포를 자극하는 콘텐츠는 확산을 유도하기 위한 정보전의 전형적인 방식이기 때문이다.
댓글이 많거나 동일한 의견이 반복된다고 해서 이를 실제 여론으로 단정해서는 안 된다. 정보전에서는 가짜 계정과 봇이 여론을 인위적으로 증폭시키는 경우가 많기 때문이다.
정보는 하나의 출처만 보지 않고 다양한 언론과 팩트체크 자료를 함께 확인하는 것이 중요하다. 무엇보다 확인되지 않은 정보를 무분별하게 공유하지 않는 것이 가장 기본적인 대응이다.
생성형 AI 시대의 주된 위험은 기술 자체가 아니라 이를 활용하는 인간의 의도와 심리에 있다는 지적이 나온다.
▶ 출처
"Disrupting malicious uses of our models. An update, February 2026," OpenAI.
Federal Bureau of Investigation, Public Service Announcement. "Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud". Alert Number: I-120324-PSA. 2025. 12. 03.
김지연(Jee Yearn Kim) Ph.D.
미국 신시내티대학교(University of Cincinnati)에서 형사정책학 박사학위를 취득했다. 현재 동국대 경찰행정학부 법심리연구소 박사후 연구원으로, 생성형 AI 기술 역기능 및 사용자 위험 요인 대응 정책 연구에 참여하고 있다. 주요 연구 분야는 범죄 행위의 심리학, 범죄자 위험 평가, 교정 개입 원칙, 형사사법 실무자 조직행동, 스토킹 범죄자 개입 등이다.
김지연 형사정책학 박사 cjdr.kim@gmail.com








