發布時間:2022-07-16 12:27:01 來源:甘藍蜘蛛畫家 作者:百科
在 Deepfake 的自己職世界,真真假假,露求濫用有時的自己職確難以區分。
AI 算法「Deepfake」可以生成各種有關人物的露求濫用逼真圖像和視頻,在換臉領域已經有了廣泛的自己職應用。不過,露求濫用AI 換臉技術引發的自己職爭議不斷,比如利用 Deepfake 制作成人視頻等,露求濫用給人們造成了極大困擾。自己職
近日,露求濫用根據外媒 pcmag 報道,自己職FBI 表示有詐騙者一直使用 Deepfake 技術在遠程工作的露求濫用面試中冒充求職者,試圖謀得 IT 公司的自己職工作機會,以訪問它們的露求濫用客戶或財務數據、企業 IT 數據庫和 / 或專有信息。自己職
有些公司透露,有些申請者的個人身份信息甚至屬于另外一個人。
事情是這樣的。在當地時間 6 月 28 日,FBI 網絡犯罪投訴中心(IC3)在一次公共咨詢中表示,最近有關被冒充求職的投訴案件數量增加。詐騙者一直利用 Deepfake 技術以及從受害者那里盜取的個人身份信息,騙過雇主雇傭他們進行遠程或居家辦公工作。
這些工作涉及到 IT 和計算機編程、數據庫以及軟件相關的職位。
以往,Deepfake 使用 AI 賦能的程序來創建逼真但虛假的人物形象。在視頻方面,該技術可以將名人的臉復刻到其他人的身上;在音頻方面,該技術可以克隆一個人的聲音,操縱它說出任何你想說的話。
然而此次,FBI 的咨詢顯示,Deepfake 技術也在助長身份盜用不法行徑。在潛在申請者的在線面試中,詐騙者使用了語音欺騙或者聲音偽造技術。詐騙者一直使用這些 Deepfake 技術申請 IT 公司的遠程或居家辦公職位。
雖然 FBI 沒有說清楚這些詐騙者的最終目的是什么,但指出涉及到的職位包括訪問客戶 PII(個人身份信息)、財務數據、公司 IT 數據庫和 / 或專有信息。這類信息可以幫助詐騙者從公司中竊取有價值的資料并實施其他身份欺詐計劃。
不過,好消息是,雇主有方法來檢測 Deepfake。雖然詐騙者一直與潛在雇主進行視頻面試,但 FBI 指出,當詐騙者說話時,基于 AI 的技術仍顯示出缺陷。
比如,在鏡頭前面試者的動作和嘴唇運動與他們說話的聲音并不完全協調。有時,咳嗽、打噴嚏或其他聽覺行為與視覺呈現的內容不一致。
原文鏈接:
https://www.pcmag.com/news/fbi-scammers-are-interviewing-for-remote-jobs-using-deepfake-tech
相關文章