
“엄마, 나야”… 그 목소리는 진짜일까?2025년, 보이스피싱은 더는 어색한 억양의 중국어 발음이나 낯선 번호에서 걸려오는 통화만으로 끝나지 않는다.이제는 가족의 이름과 목소리까지 정교하게 흉내 낼 수 있는 AI 기술이 등장했다.특히 딥러닝 기반 음성 합성 기술(Voice Cloning)은단 10초 분량의 음성만으로도 원래 화자의 말투와 억양, 감정을 그대로 복제할 수 있다.이 기술이 금융 사기와 결합되면서 ‘가족 사칭형 보이스피싱’이라는전혀 새로운 피해 유형이 확산되고 있다.이번 글에서는 AI 음성 합성으로 가족을 사칭한 실제 피해 사례를 중심으로그 위험성과 대응법을 살펴본다. “딸이 다쳤다”는 전화를 받고 800만 원을 송금한 어머니의 경험2024년 3월, 서울에 거주 중인 60대 여성 김정희 씨는 ..