飛象網訊 據央視網報道,一些不法分子利用“AI換臉”技術實施詐騙,已成為一種新型騙局。一張“肖像照片”、一段“貌似熟人的視頻”,都可能被不法分子利用作為詐騙的手段和工具。
“不法分子首先會通過各種公開的渠道獲取受害人的個人肖像或視頻,然后利用AI技術,對這些照片中的面容特征進行學習,從而模仿眨眼、搖頭等動作,實現(xiàn)以假亂真的效果!惫I(yè)和信息化部反詐工作專班專家李坤表示,除了讓照片上的人像活化,AI換臉技術還能實現(xiàn)在即時視頻通信狀態(tài)下的實時換臉。
利用AI技術制作換臉視頻或合成聲音來實施詐騙的確讓人防不勝防,那么如何防范這種風險呢?李坤表示,我們正在會同行業(yè)內的手機終端企業(yè),將推出AI換臉詐騙風險提醒功能。這項功能僅在手機端來本地運行,能夠有效保護用戶數據不泄露,經過用戶授權后,可為用戶提供AI換臉詐騙風險預警提醒。
當用 AI 換了臉的技術人員與記者發(fā)起視頻通話時,測試手機終端提示“對方疑似假冒身份”。點擊檢測按鈕,經過圖像掃描,系統(tǒng)提示“AI 換臉合成概率 93%”。
據了解,AI換臉主要是使用深度合成技術!痘ヂ(lián)網信息服務深度合成管理規(guī)定》提出了算法備案、安全評估的手段,要求深度合成服務提供者對深度合成的內容添加顯式或隱式水印。
中國信通院人工智能所安全與元宇宙部專家陳文弢表示,要對生成合成的內容去添加一些水印,這個水印的本質其實就是要一方面去提示公眾這個內容是由AI生成或者合成的,另一方面也是要追溯它的來源。
專家提醒,AI詐騙是隱私信息泄露與詐騙陷阱的結合,要加強對個人隱私的保護,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等,尤其涉及“朋友”“領導”等熟人要求轉賬、匯款的,務必通過多種途徑核實確認,不要未經核實隨意轉賬匯款。