핵심 내용
- 인공지능(AI) 음성 복제 사기는 AI를 활용해 실제 목소리를 모방하고, 감정과 긴급성을 조작하여 피해자를 속입니다.
- 사기꾼들은 소셜 미디어에서 얻은 정보를 토대로 그럴듯한 이야기를 꾸며내고, 피해자와의 친밀한 관계를 악용합니다.
- AI 음성 복제 사기의 위험 신호를 인지하고, 의심스러운 상황에서는 즉시 전화를 끊고, 실제 메시지를 통해 확인하는 것이 중요합니다.
늦은 밤, 부모님은 자녀가 위기에 처했다는 긴급한 음성 메시지를 받습니다. 자녀는 지갑을 도난당했고, 어디에 갇혀 빠져나올 수 없으니 돈을 즉시 보내달라고 요청합니다.
메시지의 목소리는 자녀의 목소리와 너무나 똑같아서 의심하기 어렵습니다. 하지만 이는 실제가 아닙니다. 당신은 정교한 AI 음성 복제 사기의 희생양이 된 것입니다.
AI 음성 복제 사기, 어떻게 작동할까요?
음성 복제 기술은 사람의 목소리를 매우 사실적인 디지털 복제본으로 만들 수 있습니다. 이 기술은 ‘딥페이크’라고도 불리며, ElevenLabs와 같은 AI 음성 복제 도구를 통해 구현됩니다. 복제된 목소리는 생성형 AI 및 음성 합성과 결합되어 감정, 억양, 미묘한 차이, 심지어 공포감까지 모방할 수 있습니다.
실제로 Christian Cawley가 The Really Useful Podcast에서 말한 목소리는 다음과 같습니다.
AI 음성 복제를 생성하는 데는 짧은 음성 샘플만 필요하며, 보통 1분 이내면 충분합니다. 공개된 소셜 미디어 게시물에서 음성 샘플을 얻는 경우가 많습니다. 특히 비디오 블로거나 영향력 있는 사람들은 게시물의 오디오 품질이 높고 접근이 쉬워서 더욱 취약합니다.
사기꾼은 이렇게 확보한 음성 샘플을 복제한 후, 텍스트 음성 변환이나 실시간 음성 변환 기술을 사용하여 가짜 전화나 음성 메시지를 만들어냅니다.
사기꾼은 피해자의 소셜 미디어를 통해 개인 정보를 수집하고, 이를 바탕으로 그럴듯한 상황을 연출합니다. 입원, 체포, 도난, 납치 등 두려움을 유발하는 상황을 꾸며내고, 복제된 목소리로 가족이나 사랑하는 사람이 위기에 처했다고 믿게 만듭니다.
이러한 충격적인 요청에 긴급함과 현실적인 목소리, 감정까지 더해지면, 사람들은 의심을 품기 어려워 성급하게 돈을 보내거나 민감한 정보를 제공하게 됩니다.
AI 음성 복제 사기가 효과적인 이유
AI 음성 복제 사기는 가족이나 친구를 대상으로 하는 사기처럼, 피해자의 친밀한 관계를 악용합니다. 사랑하는 사람으로부터 긴급한 메시지를 받으면 당황하여 판단력이 흐려지고 성급한 결정을 내릴 수 있습니다. 이는 퀴드 프로 쿼 사기에 사용되는 수법과 유사하지만, 가까운 사람의 목소리까지 더해져 효과가 더욱 극대화됩니다.
소셜 미디어를 많이 사용하거나 여행을 자주 다니는 사람들의 가족은 사기꾼이 조작한 상황과 일치하는 맥락을 갖고 있어 특히 위험합니다. 사기꾼은 공개된 소셜 미디어 계정에서 미리 개인 정보를 수집하고, 이를 활용하여 이야기를 더욱 설득력 있게 만듭니다.
AI 음성 복제 사기의 주요 징후
AI 음성 복제 사기는 정교하지만, 다음과 같은 몇 가지 위험 신호를 통해 알아챌 수 있습니다.
- 긴급성: 사기꾼은 즉시 조치를 취하지 않으면 큰일이 날 것처럼 재촉합니다.
- 비일관성: 사기꾼은 대상과의 관계에 대한 세부 사항을 모두 알지 못하므로, 상황에 맞지 않는 부분이 있을 수 있습니다.
- 비정상적인 요구: 해외 계좌로 송금을 요구하거나 암호화폐로 결제를 요구하는 것은 흔한 사기 수법입니다.
끔찍한 상황이 제시될 때 이러한 요소들을 고려하기 어려울 수 있지만, 사기를 예방하는 데 도움이 될 수 있습니다.
AI 음성 복제 사기가 의심될 때 해야 할 일
사랑하는 사람으로부터 위급한 전화나 음성 메시지를 받으면 침착함을 유지해야 합니다. 사기꾼은 당신이 당황하여 감정적으로 반응할 것이라고 기대하며, 이는 그들의 사기 수법에 더 취약하게 만듭니다.
전화를 받은 경우
전화가 AI 음성 복제 사기일 수 있다는 의심이 조금이라도 들면 즉시 전화를 끊어야 합니다. 어떠한 정보도 제공하거나 사기꾼과 계속 대화하지 마십시오. 대신, 알고 있는 번호로 사랑하는 사람에게 직접 다시 전화하여 상황의 진위를 확인해야 합니다.
사기꾼과 더 많은 대화를 하면, 당신의 목소리가 녹음되어 복제될 위험이 있습니다.
음성 메시지를 받은 경우
사기꾼이 음성 메시지를 남겼다면, 즉시 해당 오디오를 휴대전화나 노트북에 저장하십시오. 이 오디오 샘플은 AI 음성 분류 도구를 사용하여 사람의 목소리인지 확인할 수 있습니다. 이 AI 음성 분류기는 AI 글쓰기 감지기와 유사하게 작동합니다. 오디오 파일을 입력하면 분류기가 이를 사람 목소리인지, AI 생성인지 여부를 알려줍니다.
ElevenLabs 음성 분류기는 이러한 검사를 수행하는 데 유용한 도구입니다. ElevenLabs는 대부분의 AI 복제 플랫폼을 지원하므로, 음성 복제 여부를 확인하는 데 적합합니다. AI 복제 음성을 확인하는 방법은 다음과 같습니다.
아래 예시에서는 사람이 위급한 메시지를 녹음하여 분류기에 업로드했습니다. 조작 확률이 2%로 나타났습니다.
다음 예시에서는 AI 음성 복제 도구를 사용하여 동일한 위급 메시지를 생성했습니다. 사람의 귀로는 두 음성을 구별하기 어렵지만, 이 도구는 AI가 생성했을 확률이 98%라고 표시했습니다.
이 분류기를 100% 신뢰할 수는 없지만, 음성 복제 가능성을 의심해 볼 수 있는 좋은 지표가 될 수 있습니다. 추가로, 반드시 알고 있는 번호로 사랑하는 사람에게 직접 연락하여 확인해야 합니다.
AI 음성 복제 사기에 대한 최선의 방어는 예방입니다
때로는 첨단 사기에 대한 가장 좋은 방어책은 기본적인 방법일 수 있습니다.
가족이나 친구와 함께 사랑하는 사람만 아는 오프라인 암호를 설정하십시오. 긴급 상황이 발생했을 때 이 암호를 사용하면 발신자의 신원을 확실하게 확인할 수 있습니다.
마지막으로, 소셜 미디어에서 개인 정보를 보호하는 것은 사기꾼이 이야기를 구성하는 데 필요한 충분한 정보를 수집하지 못하도록 하는 중요한 단계입니다. 기억하십시오. 모든 사람과 공유하고 싶지 않다면 소셜 미디어에 올리지 않는 것이 가장 좋습니다.