"ChatGPT로 만든 가짜 로펌 차리고 사기"… 사기꾼 손에서 '범죄 도구'된 생성형 AI

[크라임 시리즈] 오픈AI 보고서, '생성형 AI를 이용한 범죄' ① 기사입력:2026-03-08 01:10:20
ChatGPT로 만든 가짜 변호사·로펌... '피해금 회수' 미끼로 두 번 털었다.
생성형 AI가 사기 자동화 도구로 활용... 다국어 상담·위조 문서까지 척척
OpenAI, 캄보디아발 사기 조직 계정 차단 권고... "암호화폐 송금 요구, 무조건 의심하라"


생성형 인공지능(Generative AI)이 등장한 지 불과 몇 년 만에 업무와 일상 곳곳에서 AI 활용이 일상화됐다. 대량의 정보를 빠르고 편리하게 처리할 수 있다는 강점 덕분이다. 그러나 생성형 AI의 이러한 장점이 범죄에 악용되는 사례도 빠르게 늘고 있다.

특히 생성형 AI는 기존에 소규모로 이루어지던 사기 범죄의 생산성을 크게 높이며, 사기 조직을 이른바 '산업형 범죄 산업(criminal industry)'으로 확장시키는 수단으로 활용되고 있다는 지적이 나온다.

생성형 AI 선도 기업인 오픈AI(OpenAI)는 이 같은 위협에 대응하기 위해 2024년 2월 첫 위협 보고서(Threat Report)를 발표했다. 이후 여러 차례 업데이트를 거쳐, 2026년 2월에는 최신 보고서 〈Disrupting Malicious Uses of Our Models(모델의 악의적 사용 차단)〉을 공개했다.

보고서는 실제 범죄 사례를 토대로 행위자(Actor), 행동(Behavior), 과정(Completion), 영향(Impact)의 구조로 AI 악용 사례를 분석했다. 로맨스 스캠, 동남아시아 사기 컴파운드(scam compound), 중국 관련 사이버 작전 등 다양한 사례가 담겼다.

로이슈 [크라임 시리즈] '생성형 AI를 이용한 범죄'는 오픈AI 보고서에 등장한 실제 사례를 바탕으로 생성형 AI 기반 신종 범죄의 구조를 분석한다. 생성형 AI 악용 범죄에 대한 경각심을 높이고, 생성형 AI가 단순한 도구를 넘어 사기 산업의 '효율화 인프라'로 작동할 수 있다는 사실을 알리기 위해서다. 이번 기사에서는 보고서에 소개된 'Operation False Witness(가짜 증언자 작전)' 사건을 살펴본다.

오픈AI(OpenAI)의 2026년 2월 보고서 〈Disrupting Malicious Uses of Our Models〉에 따르면, 사기 조직은 ChatGPT를 이용해 가짜 피해금 회수 서비스 홍보 게시물을 제작한 것으로 드러났다. 사기범들은 생성형 AI로 전문적인 법률 문구를 자동 생성해 피해자의 신뢰를 얻었다. / 이미지 디자인=로이슈 AI 디자인팀 (*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)

오픈AI(OpenAI)의 2026년 2월 보고서 〈Disrupting Malicious Uses of Our Models〉에 따르면, 사기 조직은 ChatGPT를 이용해 가짜 피해금 회수 서비스 홍보 게시물을 제작한 것으로 드러났다. 사기범들은 생성형 AI로 전문적인 법률 문구를 자동 생성해 피해자의 신뢰를 얻었다. / 이미지 디자인=로이슈 AI 디자인팀 (*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)

이미지 확대보기
■ FBI까지 사칭... 이미 사기당한 피해자 노린 '2차 사기'

Operation False Witness(가짜 증언자 작전)는 이미 사기 피해를 입은 사람을 다시 노리는 '사기 피해금 회수 사기(recovery scam)' 조직이 저지른 범죄다. 이미 금전 피해를 입은 피해자의 절박한 심리를 이용해 돈을 추가로 빼앗는 전형적인 2차 사기 수법이다.

해당 사기 조직은 가짜 로펌(fake law firms)과 미국 수사기관을 사칭해 피해자에게 접근했다. 특히 미국 연방수사국(FBI)의 인터넷 범죄 신고센터(Internet Crime Complaint Center, IC3)를 사칭하는 등 대담한 수법을 구사했다.

사기 조직은 최소 6개의 가짜 로펌 웹사이트를 만들어 SNS와 온라인 광고를 통해 "사기 피해금 회수 서비스"를 홍보했다. 각 가짜 로펌은 사기 피해자의 잃어버린 자금을 법적으로 회수해주는 전문 기관이라고 주장했다.
사기 조직은 실제 변호사의 이름을 도용하거나 가짜 변호사 프로필을 만들어 신뢰도를 높였다. 변호사 사진 역시 SNS에서 무단으로 도용하거나 AI로 생성한 이미지를 활용했다.

■ 수법은 과거와 흡사... 메신저로 유도 후 '수수료 요구'

피해자가 웹사이트를 통해 연락을 취하면, 사기 조직은 즉시 텔레그램(Telegram) 등 비공개 메신저 앱으로 대화를 유도했다. 이후 '변호사'가 직접 상담하는 것처럼 메시지를 보내 사건 진행 상황을 설명했다.

사기범들은 자신들이 국제형사재판소(International Criminal Court, ICC)의 감독 아래 운영된다고 주장하며, 피해금 회수가 거의 완료 단계에 이르렀다고 속였다. 또한 피해금을 실제로 회수한 후에만 수수료를 받는다고 설명해 피해자의 신뢰를 얻었다.

그러나 일정 단계가 지나면 각종 명목으로 돈을 요구하기 시작했다. 대표적인 요구 항목은 피해금의 15% 서비스 수수료, 계좌 활성화 비용, 상담비, 행정 처리 비용 등이었다.

결제 방식은 대부분 암호화폐 송금이었다. 사기 조직은 피해자에게 송금 확인 스크린샷을 보내도록 요구했다. 그러나 실제로는 어떠한 피해금 회수도 이루어지지 않았다.

■ 'AI 기반 사기 운영'... ChatGPT 이렇게 활용됐다

사기 조직은 생성형 AI인 ChatGPT를 범죄 운영의 여러 단계에 걸쳐 활용했다.

① 가짜 법률 콘텐츠 제작
사기 조직은 ChatGPT를 이용해 가짜 로펌 소개 글, SNS 홍보 문구, 광고 콘텐츠, 법률 상담 메시지를 제작했다. 실제 변호사가 작성한 것처럼 전문적이고 신뢰감 있는 문체를 구현하는 것이 목적이었다.

② 변호사처럼 보이는 상담 메시지 작성
ChatGPT는 피해자와의 대화 메시지 작성에도 활용됐다. 사기범들은 "미국식 영어(American English)로 작성하라", "변호사 스타일로 작성하라"와 같은 프롬프트(prompt)를 입력해, 실제 법률 전문가가 작성한 것처럼 보이는 상담 메시지를 피해자에게 발송했다.

③ 다국어 번역을 통한 글로벌 사기
가장 빈번하게 사용된 기능 중 하나는 다국어 번역이었다. 사기 조직은 ChatGPT를 이용해 피해자의 메시지를 번역하고 답변을 생성함으로써, 여러 국가의 피해자를 동시에 상대할 수 있었다. 생성형 AI가 다국어 사기 커뮤니케이션 도구로 활용된 셈이다.

④ 위조 문서 제작
일부 계정은 신뢰도를 높이기 위해 위조 문서 제작에도 AI를 사용했다. 가짜 변호사 등록 기록, 변호사 협회 회원증, 허위 비밀유지계약서(Non-Disclosure Agreement, NDA) 등을 만들어 피해자에게 제시했다. 이러한 위조 문서는 피해자가 외부에 도움을 요청하지 못하도록 압박하는 수단으로 활용됐다.

이미지=사기범들이 ChatGPT를 사용해 생성한 가짜 피해금 회수 서비스 게시물. / 이미지 출처=OpenAI의 ‘Disrupting Malicious Uses of Our Models’ p.8

이미지=사기범들이 ChatGPT를 사용해 생성한 가짜 피해금 회수 서비스 게시물. / 이미지 출처=OpenAI의 ‘Disrupting Malicious Uses of Our Models’ p.8

이미지 확대보기
■ 캄보디아 기반 조직 추정... OpenAI 계정 차단

OpenAI 보고서에 따르면, 이 사기 활동은 "매우 높은 가능성으로" 캄보디아에서 운영된 것으로 추정되는 중국계 범죄 조직과 연관된 것으로 분석됐다.

OpenAI는 현재 확보된 증거 대부분이 사기범들이 시스템에 입력한 데이터에 기반하고 있어 정확한 피해 규모를 파악하기는 어렵다고 밝혔다. 다만 OpenAI는 자사 이용 정책이 AI 도구를 이용한 사기 및 금융 범죄를 엄격히 금지하고 있으며, AI 악용 사례 탐지를 위해 관련 산업계 및 수사기관과 협력하고 있다고 강조했다. OpenAI는 이 사건과 관련된 ChatGPT 계정 클러스터를 탐지해 차단했다.

한편 FBI와 사칭 피해를 입은 실제 로펌도 이번 사기에 대한 공개 경고를 발표했다. 수사기관은 특히 이 사기가 이미 금전 피해를 당한 고령자 등 취약 계층을 주요 표적으로 삼고 있다는 점을 지적했다. 범죄 조직이 피해자의 절박한 심리와 잃어버린 돈을 빠르게 되찾고 싶어 하는 심리를 조직적으로 악용하고 있다는 것이다.

FBI는 공익 경고(Public Service Announcement) 〈Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud(범죄자들이 생성형 AI를 이용해 금융 사기를 저지르고 있다)〉에서 "온라인이나 전화로만 알게 된 사람에게 민감한 정보를 공유하지 말고, 모르는 사람에게 돈·기프트카드·암호화폐 등 자산을 보내지 말라"고 경고하고 있다.

▶ 원문 기사 출처
“Disrupting malicious uses of our models. An update, February 2026,” <OpenAI>.
“ChatGPT accounts posing as law firms and attorneys banned by OpenAI,” Grace Robbie, 2026.03.05. < Lawyers Weekly>.

“Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud,” 2024.12.03. <Federal Bureau of investigation(FBI) Public Service Announcement>.

김지연(Jee Yearn Kim) Ph.D.

미국 신시내티 대학교 형사정책학 박사 학위를 취득했다. 현재는 동국대 경찰행정학부 법심리연구소의 박사후 연구원으로, 생성형 AI 기술 혁신의 역기능과 사용자 위험요인 대응 정책방안 연구의 전문연구원으로 참여하고 있다. 주요 연구 및 관심 분야는 범죄 행위의 심리학(Psychology of Criminal Conduct), 범죄자 분류 및 위험 평가(Offender Classification and Risk Assessment), 효과적인 교정개입의 원칙(Principles of Effective Intervention), 형사사법 실무자의 조직행동(Organizational Behavior of Criminal Justice Practitioners), 스토킹 범죄자 및 개입 방법(Stalking Offenders and Interventions)이다.


김지연 형사정책학 박사 cjdr.kim@gmail.com

주식시황 〉

항목 현재가 전일대비
코스피 5,584.87 ▲0.97
코스닥 1,154.67 ▲38.26
코스피200 828.83 ▼2.39

가상화폐 시세 〉

암호화폐 현재가 기준대비
비트코인 99,500,000 ▼165,000
비트코인캐시 661,500 ▼3,000
이더리움 2,905,000 ▼2,000
이더리움클래식 12,010 ▲10
리플 2,003 ▲2
퀀텀 1,297 ▲9
암호화폐 현재가 기준대비
비트코인 99,500,000 ▼195,000
이더리움 2,904,000 ▼7,000
이더리움클래식 12,020 ▲10
메탈 395 ▼2
리스크 188 ▼2
리플 2,004 ▲2
에이다 377 0
스팀 83 ▼1
암호화폐 현재가 기준대비
비트코인 99,440,000 ▼170,000
비트코인캐시 659,500 ▼4,000
이더리움 2,905,000 ▲1,000
이더리움클래식 11,990 0
리플 2,004 ▲3
퀀텀 1,312 0
이오타 97 0
ad