詐騙分子僅需三秒鐘的語音樣本即可複製目標聲音,透過 Deepfake 技術撥打電話欺騙員工轉帳。這種手法能繞過傳統防詐機制,導致企業遭受實質金錢損失。
🔍 防詐解析
詐騙分子利用 AI 技術,僅需三秒鐘的語音樣本即可完美複製目標聲音,並透過電話直接聯繫企業員工,偽裝成高層或熟識對象要求轉帳。這種手法能模擬真實語氣與背景噪音,讓受害者難以分辨真偽,從而成功騙取金錢。一般人在面對「聽起來很熟悉」的緊急電話時,往往因信任感而忽略核實步驟,導致中招。建議企業應建立「雙重確認機制」,對於涉及金錢轉帳的電話,必須透過其他管道(如內部通訊軟體或回撥確認)驗證對方身份,切勿僅憑聲音判斷。
🚩 紅旗特徵
- •僅需三秒語音即可複製聲音
- •利用 AI 技術繞過傳統防詐機制
- •針對企業員工進行社會工程攻擊
關鍵字
Deepfake語音克隆詐騙電話企業安全AI 攻擊
查看原始報導 ↗(BleepingComputer)
