男子參加多人視頻會議只有他自己是真人,參加多人視頻會議,結(jié)果只有自己是真人。這事聽上去似乎匪夷所思,卻真實地發(fā)生了。近期,香港警方披露了一起多人 “AI換臉”詐騙案涉案金額高達(dá)2億港元。

在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務(wù)官發(fā)起的“多人視頻會議”,并按照要求先后轉(zhuǎn)賬多次,將2億港元分別轉(zhuǎn)賬15次,轉(zhuǎn)到5個本地銀行賬戶內(nèi)。
其后,向總部查詢才知道受騙。警方調(diào)查得知,這起案件中所謂的視頻會議中只有受害人一個人是“真人”,其他“參會人員”都是經(jīng)過“AI換臉”后的詐騙人員。

AI換臉步驟,首先,利用深度學(xué)習(xí)算法精準(zhǔn)地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關(guān)鍵面部特征。
其次,將這些特征與目標(biāo)人臉圖像進(jìn)行匹配、替換、融合。
最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。
如何避免被騙,第一,我們可以要求對方在視頻對話的時候,在臉部的前面通過揮手的方式,去進(jìn)行識別,實時偽造的視頻,因為它要對這個視頻進(jìn)行實時的生成和處理和AI的換臉。在揮手的過程中,會造成面部的數(shù)據(jù)的干擾。揮手過程中,他所偽造的這個人臉,會產(chǎn)生一定的抖動或者是一些閃現(xiàn),或者是一些異常的情況。
第二個就是,在點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。
下一篇:沒有資料 |