지난 10월 해외에 거주 중인 외국인 A씨는 휴대전화로 한 영상 메시지를 수신했다. 영상에는 한국을 여행 중인 딸이 방에 감금된 채 울면서 살려달라고 소리치는 모습이 찍혔다. 범인은 "당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라"라며 A씨를 협박했다.
A씨는 즉각 영사관에 연락했고, 영사관은 한국 경찰에 신고했다. 확인 결과 A씨의 딸은 무사했고 영상에 등장한 A씨 딸의 모습은 딥페이크(허위 영상물) 기술로 만들어진 '가짜'였다.
7일 경찰청 국가수사본부는 "인공지능(AI) 기술이 보이스피싱(전화금융사기) 범죄에 활용되는 사례가 해외에서 다수 발견되고 있다"며 "유사 사례가 국내에서도 발생할 수 있다"고 주의를 당부했다.
인공지능(AI) 기술을 활용한 딥페이크는 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임도 재현한다.
가짜 목소리를 생성하는 딥보이스(음성 복제·합성·변조)도 있다. 범인은 자녀의 목소리를 복제한 뒤 부모에게 전화해 가짜 목소리를 들려주며 즉각적인 송금을 요구한다.
경찰은 이 같은 딥페이크와 딥보이스를 만들기 위해 범인들이 개인의 사회관계망서비스(SNS) 등에 공개된 영상·사진·목소리 등을 활용한다고 분석했다. 이에 SNS 등에 불특정 다수가 볼 수 있는 ‘전체공개’ 상태로 게시물을 올리는 것을 지양해야 한다는 조언이다.
안찬수 경찰청 마약조직범죄수사과장은 "AI 발전이 일상생활을 더 편리하게 만들었지만, 동시에 범죄에 악용될 환경을 제공했다"며 주의를 당부했다.
http://www.newdaily.co.kr/site/data/html/2024/11/07/2024110700163.html