부모라면 알아야 할 딥페이크 자녀 납치 가짜 영상 주의! AI 금융사기 대응법

딥페이크한 자녀사진으로 영상통화하는 이미지


자녀 납치 가짜 영상 사기 경고 🚨

딥페이크 기술을 악용한 자녀 납치 가짜 영상이 부모를 대상으로 한 새로운 금융사기로 등장했습니다. 이는 AI 기술을 이용해 자녀의 얼굴과 목소리를 복제해 가짜로 영상을 만들어 부모에게 전송하고, 자녀를 납치했다며 금전을 요구하는 수법입니다. 이번 금융사기 유형은 국내외적으로 증가하고 있어 각별한 주의가 필요합니다.

딥페이크와 딥보이스의 위험성 🛑

이 사기 수법에는 **딥페이크(Deepfake)**와 딥보이스(Deepvoice) 기술이 결합되어 사용됩니다. 딥페이크 기술로는 자녀의 얼굴이 합성된 영상을 만들고, 딥보이스로는 자녀의 목소리를 복제해 납치된 상황을 연출합니다. 이로 인해 부모는 자녀가 실제로 위기에 처한 것처럼 느끼게 됩니다.

AI 범죄에 대한 경각심 필요 🔍

경찰청에서는 이 같은 전화금융사기가 국내에서도 발생할 가능성이 높다고 경고하고 있으며, 딥페이크와 딥보이스 기술이 범죄에 악용될 수 있음을 상기시켰습니다. 해외에서 발생한 사건의 예로, 자녀의 모습과 목소리가 담긴 가짜 영상을 본 부모가 협박에 속아 금전을 송금할 뻔한 사례가 보고되었습니다.

딥페이크 전화금융사기 대처법 📞

신고 우선

전화금융사기 의심 상황에서 가장 중요한 것은 즉시 경찰에 신고하는 것입니다. 전화금융사기 중 납치 빙자형 사기가 자주 발생하므로, 112에 신고하여 도움을 요청하는 것이 안전을 보장하는 첫걸음입니다.

SNS 개인정보 보호

자녀 사진이나 목소리를 SNS에 게시할 때는 공개 범위를 제한해야 합니다. 딥페이크 기술은 공개된 이미지나 영상을 학습하여 가짜 영상을 제작할 수 있기 때문에, SNS 설정을 검토해 개인정보 보호를 강화해야 합니다.

전화를 끊지 못할 때 대처 방법

범인이 전화를 끊지 못하도록 압박할 경우, 주변 사람에게 도움을 요청하거나 문자메시지를 통해 신고할 수 있습니다. 통화 중이라도 신고가 가능하니 이를 적극 활용해야 합니다.

예방을 위한 보안 강화 🔒

부모님들이 자녀의 얼굴, 목소리와 같은 개인정보를 SNS에 공유할 때, 개인정보가 딥페이크 범죄에 악용될 가능성을 염두에 두고 게시물을 제한적으로 공유해야 합니다. 더불어 경찰청은 이러한 AI 금융사기 예방을 위해 홍보 콘텐츠를 제작하고 있습니다.

경찰청의 조언 및 연락처 📞

경찰청은 AI 기술의 악용을 방지하기 위해 국민들에게 AI 피싱범죄 예방과 대응법을 적극적으로 홍보할 계획입니다. 

추가 문의 사항은 경찰청 형사국 마약조직범죄수사과(02-3150-2782)로 연락해 주세요.


댓글 쓰기

다음 이전