목차
주요 시사점
- 음성 복제 사기는 AI를 사용하여 감정과 긴급성을 이용하여 실제 음성을 복제합니다.
- 사기꾼은 소셜 미디어 데이터를 활용하여 믿을 만한 시나리오를 만들고 개인적인 유대감을 악용합니다.
- AI 음성 복제 사기의 위험 신호를 조심하고 알아두세요. 전화를 끊고 조난 메시지를 확인하세요.
늦은 밤이다. 당신의 부모님은 당신이 곤경에 처해 있고, 지갑을 도난당했고, 당신이 어디에도 없는 곳에 갇혀 있다는 당황스러운 음성 메시지를 받습니다. 집에 갈 수 있도록 즉시 돈을 송금해야 합니다.
메시지에 담긴 목소리는 너무나 현실감 있고 틀림없이 자녀의 목소리와 똑같습니다. 하지만 사실은 그렇지 않습니다. 이것은 AI 음성 복제이며, 소름끼칠 정도로 효과적인 최첨단 사기의 표적이 되었습니다.
AI 음성 복제 사기는 어떻게 작동하나요?
음성 복제는 사람의 목소리에 대한 믿을 수 없을 만큼 사실적인 디지털 복제본을 만들 수 있습니다. 흔히 오디오라고 불리는 이 기술은 딥페이크는 ElevenLabs와 같은 AI 음성 복제 도구를 사용하여 생성됩니다(아래 AI 음성 복제 예를 확인하세요). 복제된 음성은 생성 AI 및 음성 합성과 결합되어 감정, 뉘앙스, 억양, 심지어 두려움까지 복제할 수 있습니다.
참고로 Christian Cawley가 The Really Useful Podcast에서 실제로 말하는 소리는 다음과 같습니다.
AI 음성 복제를 생성하려면 작은 음성 샘플만 필요하며, 대개 1분 이하입니다. 공개 소셜 미디어 게시물에서 음성 샘플을 가져오는 경우가 많기 때문에 게시물의 오디오 품질이 높고 쉽게 사용할 수 있기 때문에 비디오 블로거와 영향력 있는 사람들이 특히 취약해집니다.
사기꾼은 음성 샘플을 복제한 후 텍스트 음성 변환 또는 실시간 음성 음성 변환을 사용하여 가짜 전화 및 음성 메시지를 만듭니다.
사기꾼은 피해자의 소셜 미디어에 접근하여 개인 정보를 종합한 후 믿을만한 시나리오를 만듭니다. 여기에는 입원, 체포, 절도, 납치 등 두려움을 불러일으키는 모든 것이 포함될 수 있습니다. 그런 다음 복제된 목소리는 가족 구성원이 사랑하는 사람이 심각한 문제에 처해 있다고 믿도록 조작하는 데 사용됩니다.
요청의 충격과 긴급성과 결합된 목소리와 감정의 현실성은 회의론을 압도하여 돈을 이체하거나 민감한 정보를 제공하기 위한 성급한 결정으로 이어질 수 있습니다.
AI 음성 복제 사기가 효과적인 이유
가족과 친구를 대상으로 하는 대부분의 사기와 마찬가지로 AI 음성 복제 사기도 개인적인 유대 관계를 이용하므로 효과적입니다. 사랑하는 사람으로부터 조난 전화를 받으면 당황하여 판단력이 흐려져 성급한 결정을 내릴 수 있습니다. 이는 퀴드 프로 사기에 사용되는 것과 동일한 전술이지만, 가까운 사람의 목소리를 듣게 되면 효과가 더욱 악화됩니다.
소셜 미디어를 많이 사용하는 사람이나 여행하는 사람의 가족은 그들의 상황이 사기꾼이 조작한 이야기에 그럴듯한 맥락을 제공하기 때문에 특히 위험합니다. 사기꾼은 공개 소셜 미디어 계정에서 대상의 개인 데이터를 미리 수집하고 사용하여 이야기를 더욱 설득력 있게 만드는 경우가 많습니다.
AI 음성 복제 사기의 주요 징후
AI 음성 복제 사기는 정교함에도 불구하고 특정 위험 신호를 통해 드러날 수 있습니다.
- 긴급성: 사기꾼은 즉시 조치를 취하지 않으면 끔찍한 일이 일어날 것이라고 확신합니다.
- 사실: 사기꾼은 항상 대상과의 관계 뒤에 숨은 전체 내용을 알지 못하므로 불일치에 주의하세요.
- 비정상적인 요청: 해외 은행 계좌로 자금 이체를 요청하거나 암호화폐 지갑으로 결제를 요청하는 것이 일반적인 전술입니다.
끔찍한 시나리오가 제시될 때 이러한 요소를 고려하는 것은 어렵지만 사기를 예방할 수 있습니다.
AI 음성 복제 사기가 의심되는 경우 해야 할 일
위기에 처한 사랑하는 사람으로부터 전화나 음성 메시지를 받으면 침착함을 유지하세요. 사기꾼은 당신이 당황하고 감정적으로 변할 것이라고 기대합니다. 이는 그들의 전술에 대한 당신의 취약성을 증가시키기 때문입니다.
전화를 받는 경우
잠시라도 전화가 음성 복제 사기일 수 있다고 의심되면 즉시 전화를 끊으십시오. 어떠한 정보도 공유하지 말고 사기꾼과 접촉하지 마십시오. 대신, 알려진 번호로 사랑하는 사람에게 다시 전화하여 조난 전화의 진위 여부를 확인하세요.
사기꾼과 더 많이 대화하면 음성이 녹음되고 복제될 위험도 있습니다.
음성 메시지를 받은 경우
사기꾼이 음성 메시지를 남겼다면 즉시 휴대폰이나 노트북에 오디오를 저장하세요. 이 오디오 샘플은 AI 음성 분류 도구에서 사람의 목소리인지 여부를 확인하는 데 사용될 수 있습니다. 이러한 AI 음성 분류기는 AI 쓰기 감지기와 동일하게 작동합니다. 오디오 파일을 입력하기만 하면 분류자가 이를 인간 또는 AI 생성으로 표시합니다.
이 검사를 수행하는 훌륭한 도구는 ElevenLabs 음성 분류기입니다. ElevenLabs는 대부분의 AI 복제 플랫폼을 지원하므로 음성 복제 여부를 확인하는 데 이상적인 도구입니다. 이를 사용하여 AI 복제 음성을 결정하는 방법은 다음과 같습니다.
아래 예에서는 사람이 괴로운 메시지를 녹음하여 분류자에 업로드했습니다. 조작될 확률이 2%로 표시되어 있는 것을 볼 수 있습니다.
다음 예에서는 AI 음성 복제 도구를 사용하여 동일한 고통스러운 메시지가 생성되었습니다. 인간의 귀에는 음성을 구별할 수 없습니다. 그러나 이 도구는 AI가 생성될 확률이 98%라고 표시했습니다.
이 분류자를 100% 신뢰할 수는 없지만 복제된 음성이 사용 중이라는 의심을 확인할 수 있습니다. 또한 확인을 위해 알려진 번호로 사랑하는 사람에게 연락해야 합니다.
AI 음성 복제 사기에 대한 최선의 방어는 예방입니다
때때로 하이테크 사기에 대한 최선의 방어책은 로우테크 솔루션입니다.
가족, 친구와 함께 사랑하는 사람에게만 알려진 오프라인 비밀번호를 설정하세요. 긴급 통화가 필요한 경우 이 비밀번호를 사용하면 발신자의 신원을 확인할 수 있는 확실한 방법이 될 수 있습니다.
마지막으로, 소셜 미디어에서 개인 정보를 보호하는 것은 사기꾼이 이야기를 구성하기에 충분한 정보를 수집하지 못하도록 하는 큰 단계입니다. 기억하세요: 모든 사람에게 알리고 싶지 않다면 소셜 미디어에 공유하지 않는 것이 가장 좋습니다.