본문 바로가기
ISSUE

딥보이스 보이스피싱, 아는 목소리도 믿지 마세요!

by inkpage 2023. 10. 9.

딥보이스 보이스피싱, 아는 목소리도 믿지 마세요!

 

최근 딥보이스 기술이 발전하면서 보이스피싱 수법이 더욱 교묘해지고 있습니다. 딥보이스 보이스피싱은 실제 사람의 목소리를 복제하여 지인이나 기관을 사칭하여 피해자를 속이는 방식입니다.

 

◆ 딥보이스 보이스피싱 피해 사례

최근 한 유튜버 A씨는 해외여행 중일 때 딥보이스 보이스피싱에 속아 2천만 원을 뜯기는 일이 있었습니다.

 

A씨의 남편에게 걸려 온 전화에서 A씨의 목소리가 들려왔고, 납치당했다는 A씨의 말에 남편은 당황하여 일당이 요구하는 돈을 송금했다고 합니다.

 

중국에서는 딥보이스 기술을 활용하여 피해자의 SNS 계정을 해킹하고 지인인 척 영상 통화를 걸어 430만 위안(약 8억 원)을 갈취한 사건도 발생했습니다.

 

피해자는 영상 통화로 얼굴까지 확인했기 때문에 별다른 의심을 하지 않았습니다.

 

 

◆ 딥보이스란?

딥보이스는 인공지능(AI) 기술을 활용하여 특정인의 목소리를 복제하는 기술입니다. 20초 분량의 목소리만 있으면 쉽게 딥보이스를 만들 수 있습니다.

 

딥보이스 보이스피싱은 실제 목소리와 구분하기가 쉽지 않습니다. 하지만 두 음성이 가진 특성을 통해 구분할 수 있는 방법이 있습니다.

 

1. 음높이는 거의 같지만, 음성에 실리는 에너지(㏈)는 차이가 있습니다.

실제 목소리와 달리 딥보이스는 받침이 많고 문장이 길수록 에너지가 약해지는 특성을 보입니다.

 

2. AI는 간단한 답변은 할 수 있지만 디테일한 답변은 어려워합니다.

질문에 엉뚱한 답변을 하는지 살펴보는 것도 필요합니다.

 

 

◆ 딥보이스 보이스피싱 예방을 위한 정부의 노력

AI 기술이 범죄에 악용되는 사례가 늘자, 정부에서도 딥보이스 보이스피싱 예방을 위한 노력을 하고 있습니다.

 

검찰청은 2027년까지 딥보이스 가짜음성 탐지 기술 개발에 들어갔습니다. 경찰청은 지난해 10월, 유튜브에 ‘내 딸인 줄 알았는데’라는 제목의 영상을 올리며 딥보이스 보이스피싱에 대한 주의를 당부했습니다.

 

 

※ 딥보이스 보이스피싱을 예방하기 위해서는 다음과 같은 사항을 주의해야 합니다.

● 전화나 문자를 통해 금전 요구가 들어올 경우, 일단 의심부터 하세요.

● 가족이나 지인의 목소리라고 해서 무조건 믿지 마세요.

● 전화나 문자를 통해 개인정보를 요구받을 경우, 절대 알려주지 마세요.

● 금융기관을 사칭하는 전화나 문자는 무시하세요.

● 가족 간에 미리 암호를 만들어 두고, 보이스피싱이 의심되면 암호를 통해 서로를 확인하세요.


결론

딥보이스 보이스피싱은 실제 목소리를 복제하여 피해자를 속이는 교묘한 수법입니다. 아는 목소리라고 해서 무조건 믿지 말고, 위의 방법을 통해 딥보이스 보이스피싱을 예방하시기 바랍니다.