반응형 딥보이스1 딥보이스 보이스피싱, 아는 목소리도 믿지 마세요! 딥보이스 보이스피싱, 아는 목소리도 믿지 마세요! 최근 딥보이스 기술이 발전하면서 보이스피싱 수법이 더욱 교묘해지고 있습니다. 딥보이스 보이스피싱은 실제 사람의 목소리를 복제하여 지인이나 기관을 사칭하여 피해자를 속이는 방식입니다. ◆ 딥보이스 보이스피싱 피해 사례 최근 한 유튜버 A씨는 해외여행 중일 때 딥보이스 보이스피싱에 속아 2천만 원을 뜯기는 일이 있었습니다. A씨의 남편에게 걸려 온 전화에서 A씨의 목소리가 들려왔고, 납치당했다는 A씨의 말에 남편은 당황하여 일당이 요구하는 돈을 송금했다고 합니다. 중국에서는 딥보이스 기술을 활용하여 피해자의 SNS 계정을 해킹하고 지인인 척 영상 통화를 걸어 430만 위안(약 8억 원)을 갈취한 사건도 발생했습니다. 피해자는 영상 통화로 얼굴까지 확인했기 때.. 2023. 10. 9. 이전 1 다음 반응형