
AI語音合成技術讓詐騙者可以即時模擬任何人的聲音進行電話詐騙。只需要幾秒鐘的音頻樣本(可從社群影片取得),就能生成高度逼真的語音。詐騙者用AI模擬老闆的聲音要求財務轉帳、模擬親人聲音進行假綁架、或模擬銀行客服進行身份驗證。
從社群或公開影片取得目標的聲音樣本
用AI合成模擬目標的聲音
打電話給受害者進行詐騙
可能冒充老闆要求轉帳
或冒充親人聲稱緊急狀況
受害者因為聲音逼真而信以為真
緊急轉帳要求只透過電話而非書面
聲音有時有輕微的機械感
對方迴避非預期的問題
電話號碼不是對方常用號碼
要求不要跟其他人確認
通話中有不自然的停頓
犯罪集團推出名為 ATHR 的新平台,結合人類操作員與 AI 代理,透過自動化語音釣魚(Vishing)手法竊取受害者帳號密碼。此攻擊模式利用社會工程學,能大規模且精準地針對目標進行詐騙,嚴重威脅個資安全。
美國聯邦通訊委員會(FCC)指控電信服務商 Voxbeam 提供非合規且長期閒置的帳戶,用於進行針對美國消費者的「金融冒充自動撥號電話」。此類詐騙利用 AI 語音技術冒充政府或銀行人員,企圖竊取民眾財物,FCC 已對其處以高額罰款。
網路犯罪集團SLH在Telegram招募女性電訪員,冒充企業IT服務臺進行語音釣魚(Vishing)攻擊,每通電話報酬高達1,000美元。此手法利用社交工程技術,試圖透過不同身分提高詐騙成功率,嚴重威脅企業資安。
接到老闆/主管的緊急轉帳要求電話
電話中親人的聲音要求匯款
聲音聽起來是認識的人但感覺怪怪的
通話中對方對突發問題反應遲鈍
重要的轉帳指示必須用其他管道確認
跟家人約定電話確認的暗號
對電話中的緊急要求保持警覺
限制社群上的語音和影片公開程度
企業建立轉帳雙重確認機制
🔍 遇到可疑情況?
使用情境檢查,AI 即時分析風險
遇詐請撥 165 反詐騙專線、110 報警。本內容僅供參考,不取代正式報案或法律諮詢。