詐騙集團以招募「AI 臉孔模特兒」為名,誘騙年輕女性提供面部數據,進而利用 Deepfake 技術生成假影片進行詐騙。受害者不僅個資外洩,更因協助跨國犯罪集團而淪為共犯,面臨法律追訴風險。
🔍 防詐解析
詐騙集團利用年輕人對 AI 技術的好奇心與賺錢渴望,假借「AI 臉孔模特兒」的高薪名義,誘騙受害者提供面部照片或影片。這些數據被不法分子用於訓練 Deepfake 模型,進而偽造名人或親友視訊,進行勒索或轉帳詐騙,受害者本人卻因提供數據而成為犯罪幫兇。一般人常誤以為只是提供照片,未察覺個資被濫用於生成假影片的嚴重後果,且往往在不知情的情況下協助跨國犯罪。建議民眾對於網路高薪招募需保持警惕,切勿隨意提供面部生物特徵數據,並確認對方公司合法性,避免淪為犯罪工具。
🚩 紅旗特徵
- •以「AI 模特兒」或「高薪水建模」為名招募
- •要求提供高品質面部特寫或影片
- •拒絕簽署正規合約或要求隱密操作
關鍵字
AI 建模Deepfake跨國詐騙個資外洩假影片
查看原始報導 ↗(科技新報)
