AI 語音克隆詐騙
極高NT$ 5 萬 - 300 萬常見
AI 變聲詐騙深偽語音詐騙AI Voice Clone Scam
📋 說明
利用 AI 語音克隆技術模仿親友的聲音進行詐騙。詐騙者從社群媒體、語音留言等取得目標親友的聲音樣本,用 AI 生成幾可亂真的語音,再打電話假裝是家人朋友,以緊急狀況(車禍、被綁架、急需手術費)要求匯款。AI 技術已跨越「無法區分」的門檻,連家人都可能被騙。2025-2026 年此類案件急速增加。
🔄 常見詐騙流程
1
詐騙者取得目標親友的聲音樣本
2
用 AI 生成擬真語音
3
打電話假裝是家人
4
編造緊急情境(車禍、綁架、急病)
5
要求立即匯款
6
受害者慌亂中匯款
🚩 紅旗特徵
⚠️
電話中的聲音雖然像但語氣不太自然
⚠️
以極度緊急的情境施壓
⚠️
要求立即匯款不要告訴其他人
⚠️
不允許你掛電話去確認
⚠️
匯款對象是陌生帳戶而非本人帳戶
📰 最新相關案例
目前尚無此類型的相關新聞案例,系統每日自動更新中。
⚡ 觸發情境
接到聽起來像家人朋友的求助電話
對方聲稱遇到緊急狀況需要錢
電話中聽到哭泣或驚慌的聲音
🛡️ 如何預防
✓
接到緊急求助電話先掛掉,主動回撥對方的手機確認
✓
事先和家人約定「暗號」用於緊急情況確認身份
✓
不要在社群媒體公開太多語音內容
✓
任何電話中的匯款要求都先冷靜查證
🔍 遇到可疑情況?
使用情境檢查,AI 即時分析風險
遇詐請撥 165 反詐騙專線、110 報警。本內容僅供參考,不取代正式報案或法律諮詢。