
利用 AI 深偽技術即時生成假的視訊畫面,在視訊通話中假冒特定人物的臉部和聲音。常被用於假冒老闆指示匯款、假冒親友借錢,或假冒名人進行投資直播詐騙。2025-2026 年 AI 技術快速進步,深偽視訊已能做到幾乎肉眼無法辨識的程度。
詐騙者取得目標人物的影像素材
使用 AI 生成即時深偽視訊
發起視訊通話假冒身份
提出匯款或其他要求
受害者以為是真人配合執行
視訊畫面偶爾有閃爍或不自然
臉部邊緣有模糊或扭曲
表情變化不太自然
要求做一些非常規的事情(匯款等)
拒絕回答只有本人知道的問題
詐騙集團以招募「AI 臉孔模特兒」為名,誘騙年輕女性提供面部數據,進而利用 Deepfake 技術生成假影片進行詐騙。受害者不僅個資外洩,更因協助跨國犯罪集團而淪為共犯,面臨法律追訴風險。
視訊通話中對方看起來是認識的人
名人直播推薦投資
視訊會議中老闆下達緊急指示
重要決策不只靠視訊,用其他管道再次確認
約定只有雙方知道的暗號
注意視訊畫面是否有異常
對視訊中的匯款要求保持警覺
🔍 遇到可疑情況?
使用情境檢查,AI 即時分析風險
遇詐請撥 165 反詐騙專線、110 報警。本內容僅供參考,不取代正式報案或法律諮詢。