사이버 보안

AI 음성 합성으로 가족을 사칭한 보이스 피싱 사례와 사이버 보안 대응법

info-news2 2025. 7. 11. 20:00

“엄마, 나야”… 그 목소리는 진짜일까?

2025년, 보이스피싱은 더는 어색한 억양의 중국어 발음이나 낯선 번호에서 걸려오는 통화만으로 끝나지 않는다.
이제는 가족의 이름과 목소리까지 정교하게 흉내 낼 수 있는 AI 기술이 등장했다.

AI 음성 합성으로 가족을 사칭한 보이스 피싱 사례와 사이버 보안 대응법

특히 딥러닝 기반 음성 합성 기술(Voice Cloning)은
단 10초 분량의 음성만으로도 원래 화자의 말투와 억양, 감정을 그대로 복제할 수 있다.
이 기술이 금융 사기와 결합되면서 ‘가족 사칭형 보이스피싱’이라는
전혀 새로운 피해 유형이 확산되고 있다.

이번 글에서는 AI 음성 합성으로 가족을 사칭한 실제 피해 사례를 중심으로
그 위험성과 대응법을 살펴본다.

 

“딸이 다쳤다”는 전화를 받고 800만 원을 송금한 어머니의 경험

2024년 3월, 서울에 거주 중인 60대 여성 김정희 씨는 오전 9시경 낯선 번호로 걸려온 전화를 받았다.
그 전화에는 다급한 목소리로 이렇게 말했다:

“엄마… 나야… 교통사고 났어… 병원비가 급해…”

그 목소리는 분명히 딸 수진 씨였다.
말투도 비슷했고, 중간중간 우는 소리까지 들렸다.
김 씨는 정신없이 병원이라는 남성에게 전화를 넘겨받았고,
상대방은 “지금 응급 수술 들어가야 하니 800만 원을 이 계좌로 빨리 보내셔야 한다”고 말했다.

결국 김 씨는 가족에게 확인하지 못한 채 송금을 진행했고,
몇 시간 뒤 실제 딸로부터 “엄마, 무슨 송금?”이라는 전화를 받고 사기를 당했음을 알게 되었다.

경찰 조사 결과, 해당 사기범은 수진 씨의 유튜브 채널과 SNS에 올라온
음성 영상 클립 20여 초를 기반으로 AI 음성 합성 도구를 사용해 가짜 목소리를 제작한 것이었다.
또한 딸의 이름, 나이, 거주지, 학교 등은 모두 SNS에서 수집된 정보였다.

 

 AI 음성 합성 기술은 어떻게 보이스피싱에 사용되는가?

단계                                                       설명
음성 수집 유튜브, SNS, 인터뷰 영상 등에서 음성 데이터 확보
딥러닝 학습 AI 음성 합성 도구(예: ElevenLabs, iSpeech)로 목소리 학습
실제 전화 시도 전화상으로 감정 조절, 울먹임, 떨림 등도 흉내 가능
사기 시나리오 진행 교통사고, 감금, 납치 등 급박한 상황 설정
긴급 송금 유도 피해자가 가족 확인 전 돈부터 보내도록 유도
 

해커는 단순히 목소리만 복제하는 게 아니다.
음성과 함께 실제 개인정보를 결합해 설득력을 높인다.
이른바 ‘AI 기반 사회공학적 공격’이다.

 

 피해가 커지는 이유

  1. 음성은 시각보다 신뢰도가 높다
    • 목소리로는 의심을 덜 하고 즉각 반응하기 쉽다
  2. 응급 상황 시 판단력이 흐려진다
    • ‘딸이 다쳤다’, ‘지금 수술 중’ 같은 설정은 곧장 행동을 유도함
  3. 전화는 증거가 남지 않는다
    • 문자나 카카오톡과 달리 통화 녹취가 없다면 확인이 어렵다
  4. 기술 장벽이 낮아졌다
    • 누구나 무료로 음성 합성 도구를 이용할 수 있음
  5. 가족 정보가 SNS에 널려 있다
    • 이름, 직장, 학교, 말투, 생일 등이 공개된 상태

 

실제 통계: 경찰청, KISA, 방송통신위원회 2024년 기준

  • 2024년 상반기 기준 AI 음성 피싱 신고 건수: 1,257건
  • 이 중 ‘가족 사칭형 피싱’ 피해가 전체의 42.3%
  • 평균 피해 금액: 약 580만 원, 최고 1억 원 피해도 존재
  • 피해자 연령대: 60대 이상 고령자 63.2%, 40~50대 24.7%

 

AI 보이스피싱 피해 징후 및 점검법

징후                                                            설명
감정이 과도하게 실려 있음 울거나 떨리는 목소리, 절박함을 강조
시간 압박 강조 “지금 안 보내면 안 돼요”, “곧 수술 들어가요”
문자나 영상 통화 회피 음성 통화만 고집, 카톡/영상통화는 피함
빠른 송금 요구 “당장 이 계좌로 보내줘요”, “이체만 되면 돼요”
개인정보 정확하게 언급 “OO중학교 다닐 때 기억 안 나?”, “아빠 이름 OOO 맞지?” 등
 

 

AI 보이스피싱 예방법 7가지

1. 의심 전화는 무조건 2차 확인

  • “잠시만 끊고 다시 연락할게요” 한 마디로 대부분의 사기 차단 가능
  • 직접 자녀 또는 가족에게 영상통화 요청하기

2. 가족 간 ‘긴급 상황 코드’ 정하기

  • “진짜 위급 상황일 땐 OO라는 단어를 꼭 써줘”
  • 가족끼리만 아는 구절 설정

3. SNS에 가족 정보 최소 공개

  • 생일, 학교명, 목소리가 담긴 영상은 가급적 비공개 전환
  • 타인이 볼 수 없는 계정 설정 필수

4. AI 음성 탐지 기능 활용

  • 일부 보이스피싱 대응 앱은 음성 합성 여부를 탐지 가능
  • 예: VoiceShield, Deepware Scanner 등

5. 부모님 스마트폰에 스미싱·피싱 차단 앱 설치

  • 후후, 알약M 등 고령자용 보안 필터링 기능 활용

6. 피해 발생 즉시 경찰·금융사에 신고

  • 112 신고, 해당 은행 고객센터 통해 송금 차단 요청

7. 전화 통화 중 무조건 ‘영상통화 요청’ 시도

  • 음성만 고집한다면 사기의 가능성 높음

 

기술의 진보는 범죄도 진화시킨다

AI 기술은 우리 삶을 편리하게 만들지만,
그 기술이 가장 사랑하는 사람의 목소리를 복제해 나를 속인다면,
그건 단순한 사기가 아니라 신뢰의 붕괴다.

우리는 이제 “엄마, 나야”라는 말조차 의심해야 하는 시대를 살고 있다.
불편하더라도 반드시 2차 확인, 반드시 영상통화 요청, 반드시 의심하는 습관이 필요하다.

진짜 가족은 확인을 서운해하지 않는다.
사기는 그것을 두려워한다.