當螢幕裡的人不是本人:Deepfake 視訊詐騙的防範指南
近年,隨著人工智慧(AI)技術的快速發展,詐騙集團的作案手法也從單純的語音詐騙升級為「視覺系」的 Deepfake(深度偽造)視訊詐騙。這種手法利用 AI 換臉技術,將受害者的親友、甚至知名人物的臉部特徵,精準地套用在詐騙者的視訊畫面上,讓受害者難以分辨真偽,從而產生信任,最終落入圈套。
真實案例:當「兒子」在視訊裡求救
去年,一位陳女士接到兒子打來的視訊電話。畫面中,兒子神色慌張,背景看似在國外醫院,他哭訴自己因車禍受傷急需手術費,並要求陳女士立刻匯款到指定帳戶。陳女士看著螢幕上熟悉的臉孔,聽著兒子的聲音,心軟之下準備轉帳。就在匯款前一刻,她想起最近新聞報導的「AI 換臉」案例,決定先問一個只有母子才知道的私密問題:「我們家養的那隻貓叫什麼名字?」
螢幕裡的「兒子」愣了一下,眼神閃爍,語氣變得僵硬,說:「貓?我們家沒有養貓啊,你記錯了。」陳女士立刻察覺不對,掛斷電話並撥打兒子的手機,發現兒子正安穩地在家吃晚餐。原來,詐騙集團利用陳女士兒子在社群媒體公開的影片,透過 AI 技術生成了這段假視訊。
為什麼 Deepfake 如此難以辨識?
傳統的詐騙往往伴隨著語音的雜訊、背景的不自然或邏輯漏洞,但 Deepfake 技術能生成極度逼真的畫面與語音。AI 可以學習目標人物的微表情、說話語氣,甚至模擬眨眼和頭部轉動。對於不熟悉科技的大眾,尤其是長輩,在緊急情緒(如親人受傷、被勒索)的衝擊下,很難冷靜判斷畫面是否經過合成。
5 招自保步驟:如何識破假人?
面對視訊通話,請務必保持冷靜,並執行以下防範步驟: