聽到的聲音是親人?AI 換聲換臉來了!5 招識破「熟面孔」陷阱
過去我們常說「耳聽為虛,眼见为实」,但在 2026 年的今天,這句話可能已經過時了。隨著人工智慧(AI)技術的飛速發展,詐騙集團不再僅限於使用變聲器,他們現在能精準複製您親人、朋友甚至熟人的聲音特徵,甚至結合 AI 換臉技術,讓視訊通話中的「對方」看起來與本人一模一樣。
這聽起來很可怕,但別擔心,只要掌握關鍵特徵與應對步驟,您就能輕鬆識破這些高科技陷阱。
案例解析:當「兒子」在視訊中求救
去年,陳媽媽接到兒子小杰的 LINE 視訊通話。畫面中,小杰看起來神色慌張,背景是醫院的病房。他哭著說:「媽,我剛剛騎車撞到人,對方家屬要告我,還說要告到坐牢,我現在手腳被綁住,沒辦法拿錢,你快幫我匯款到這個帳戶,救我出來!」
陳媽媽看到兒子焦急的臉,聽著那熟悉又慌亂的聲音,心都碎了。她立刻準備匯款,卻在最後一刻想起最近新聞報導的「AI 換臉」案例,於是她靈機一動,問了一個只有母子倆知道的問題:「小杰,我們家養的那隻貓叫什麼名字?它現在幾歲了?」
畫面中的「兒子」愣了一下,眼神閃爍,語氣突然變得生硬:「媽,我現在很忙,沒時間說這個,你快匯款,不然我就完了!」
陳媽媽立刻掛斷電話,並撥打小杰的真實手機號碼。原來小杰正好端端地在家裡吃飯,根本沒有發生任何意外。這是一起典型的「AI 換臉 + AI 換聲」結合的詐騙案,詐騙集團利用 Deepfake 技術,將小杰的臉部特徵與聲音樣本合成,騙過了陳媽媽的防線。
為什麼 AI 換聲與換臉這麼難防?
傳統詐騙通常伴隨著語音的機械感或背景雜音,但現在的 AI 技術已經能模擬出呼吸聲、語氣停頓,甚至能根據對話內容即時調整表情與語氣。更可怕的是,詐騙集團只需在網路上蒐集您親友在社群媒體(如 Instagram、Facebook)上發布的影片或語音,就能在短短幾分鐘內訓練出高擬真度的 AI 模型。