
利用 AI 語音克隆技術模仿親友的聲音進行詐騙。詐騙者從社群媒體、語音留言等取得目標親友的聲音樣本,用 AI 生成幾可亂真的語音,再打電話假裝是家人朋友,以緊急狀況(車禍、被綁架、急需手術費)要求匯款。AI 技術已跨越「無法區分」的門檻,連家人都可能被騙。2025-2026 年此類案件急速增加。
詐騙者取得目標親友的聲音樣本
用 AI 生成擬真語音
打電話假裝是家人
編造緊急情境(車禍、綁架、急病)
要求立即匯款
受害者慌亂中匯款
電話中的聲音雖然像但語氣不太自然
以極度緊急的情境施壓
要求立即匯款不要告訴其他人
不允許你掛電話去確認
匯款對象是陌生帳戶而非本人帳戶
目前尚無此類型的相關新聞案例,系統每日自動更新中。
接到聽起來像家人朋友的求助電話
對方聲稱遇到緊急狀況需要錢
電話中聽到哭泣或驚慌的聲音
接到緊急求助電話先掛掉,主動回撥對方的手機確認
事先和家人約定「暗號」用於緊急情況確認身份
不要在社群媒體公開太多語音內容
任何電話中的匯款要求都先冷靜查證
🔍 遇到可疑情況?
使用情境檢查,AI 即時分析風險
遇詐請撥 165 反詐騙專線、110 報警。本內容僅供參考,不取代正式報案或法律諮詢。