AI로 가족 목소리 사칭, 중장년층 겨냥한 딥페이크 보이스피싱 경고 [잇인사이트 오늘칼럼]

AI로 자녀 목소리 사칭해 송금 유도 급증

50~60대 대상 딥페이크 보이스피싱 주의

영상통화 확인·보안단어로 피해 예방 가능

AI로 가족 목소리 사칭, 중장년층 겨냥한 딥페이크 보이스피싱 경고 [잇인사이트 오늘칼럼]

“아들이 급히 돈이 필요하다며 전화했는데, 알고 보니 AI가 만든 목소리였다.” 

 

최근 영국을 중심으로 가족의 음성을 모방한 ‘딥페이크 보이스피싱’ 범죄가 확산되고 있다. 피해자는 주로 50~60대 중장년층으로, 자녀나 친척의 목소리를 흉내 낸 사기 전화에 속아 거액을 송금하는 사례가 속출하고 있다.

 

BBC와 The Guardian 보도에 따르면, 이들 사기범은 짧은 음성 클립만으로도 AI를 통해 가족의 말투와 억양까지 정교하게 모방할 수 있는 기술을 사용하고 있다. 특히 음성 AI 기술이 진화함에 따라 기존의 전화 사기보다 훨씬 높은 신뢰감을 유도해 피해를 키우고 있다.

 

영국 내무부 산하 사이버범죄조사국 관계자는 “딥페이크 보이스피싱은 피해자가 음성만으로 진짜 가족이라고 믿게 만드는 고위험 범죄로, 중장년층이 주요 표적이 되고 있다”고 설명했다. 실제로 2023년 하반기 기준, 50대 이상을 대상으로 한 보이스피싱 피해 건수는 전년 대비 34% 증가한 것으로 집계됐다.

 

이같은 피해를 막기 위해 전문가들은 사전에 가족 간 ‘보안 질문’이나 ‘확인용 암호’를 설정해 두는 것이 효과적이라고 조언한다. 또한 송금 요청을 받았을 경우 반드시 영상통화나 문자 등 다른 경로로 본인 확인을 거쳐야 한다는 점을 강조하고 있다.

 

한국인터넷진흥원(KISA)도 최근 보이스피싱 관련 주의보를 발령하며, “AI 기반 음성 사기는 단순 차단이 어렵기 때문에 가족 간의 사전 예방 조치가 무엇보다 중요하다”고 밝혔다.

 

기술의 발전은 편리함을 주기도 하지만, 동시에 새로운 범죄 수단으로 악용될 수 있다. 특히 중장년층은 기존의 전화 중심 커뮤니케이션 방식에 익숙해, 음성만으로 신뢰하는 경향이 높다는 점에서 더욱 경각심이 요구된다.

 

실제 피해를 당한 60대 남성 A씨는 “목소리가 너무 똑같아 아들이라고 믿었고, 급한 사정이라는 말에 송금을 했다”며 “뒤늦게 아들과 통화해보고서야 사기임을 알았다”고 밝혔다. 이처럼 딥페이크 보이스피싱은 심리적 충격까지 유발하고 있다.

 

사기범들은 공통적으로 ‘급박한 상황’을 연출하며 판단을 흐리게 만든다. ‘지금 입금하지 않으면 큰일 난다’, ‘핸드폰이 고장나 다른 번호로 연락했다’ 등 긴박함을 강조하며 확인 절차를 생략하게 만든다.

 

결국 예방이 최선이다. 평소 가족과 ‘영상통화로 확인하자’, ‘보안 질문을 설정하자’는 약속을 정해두는 것만으로도 피해를 줄일 수 있다. 

 

독자 여러분, 전화 속 목소리가 정말 가족의 것인지 다시 한 번 확인할 준비가 되셨습니까?

 

[칼럼제공]
잇인사이트 최현웅 기자
sihun69@gmail.com
https://blog.naver.com/sihun69

작성 2025.06.26 07:54 수정 2025.06.26 07:54

RSS피드 기사제공처 : 아이티인사이트 / 등록기자: 최현웅 무단 전재 및 재배포금지

해당기사의 문의는 기사제공처에게 문의

댓글 0개 (1/1 페이지)
댓글등록- 개인정보를 유출하는 글의 게시를 삼가주세요.
등록된 댓글이 없습니다.
2023-01-30 10:21:54 / 김종현기자