當螢幕上的親人眼含淚光求救,卻可能是 AI 生成的假象
在 2026 年的今天,詐騙集團不再僅靠話術,而是直接利用「視覺」與「聽覺」的技術突破。您是否曾接到視訊電話,畫面中是焦急萬分的親人,哭訴著被綁架或急需醫療費,要求您立刻匯款?或者接到自稱熟人的電話,聲音與語氣都一模一樣,卻在最後一刻要求轉帳?
這很可能不是親人,而是AI 換臉(Deepfake)與 AI 換聲技術的產物。詐騙集團利用生成式 AI,能將受害者的親友照片或影片,瞬間換成詐騙集團成員的臉,甚至模擬出對方的語氣與語速。這種「見其面、聽其聲」的真實感,讓防詐難度從「聽話術」升級為「辨真假」。
真實案例:媽媽的「眼淚」與無法匯款的兒子
去年,陳媽媽接到兒子小杰的視訊電話。畫面中,小杰神情慌張,背景是昏暗的倉庫,他哭著說:「媽,我被綁架了,他們說不匯錢就撕票,求求你快轉錢到這個帳戶!」陳媽媽看著螢幕上兒子熟悉的臉龐,眼含淚光,瞬間崩潰,準備轉帳。
就在她輸入密碼的前一秒,她想起最近讀到的防詐文章,決定先問一個只有母子倆知道的問題:「小杰,我們家養的那隻貓叫什麼名字?」
螢幕上的「兒子」愣了一下,眼神閃爍,語氣突然變得生硬:「貓...貓叫咪咪,快點轉錢,他們要動手了!」
陳媽媽立刻掛斷,撥打小杰的手機,發現小杰正好端端地在家裡吃晚餐。原來,詐騙集團利用小杰在社群媒體上公開的影片,透過 AI 換臉技術,將他的臉換到了綁架現場的影片上,並用 AI 模擬了他的聲音。
為什麼 2026 AI 換臉詐騙如此危險?技術解析
傳統詐騙靠的是「說服」,而 AI 換臉詐騙靠的是「信任」。當您看到熟人的臉、聽到熟人的聲音,大腦會自動降低防備機制。詐騙集團的技術已能達到以下程度: