2017年央視的3·15晚會上提到了人臉識別的技術風險引發了大家對于人臉識別安全問題的熱議。人臉識別真的有這么容易攻破嗎?對此,國內人臉識別產業中各家企業紛紛做出了回應并發表了看法。其中一線人臉識別技術提供商Face++ 曠視在最短的時間內為大眾進行了答疑和分析,并將晚會中主持人的攻擊在自家平臺進行了檢測。

同時,曠視還為大家解讀了主持人采用的攻擊手法的原理和要點:
首先,這種手段在攻擊內容上是一種虛擬人臉的攻擊。主持人將自己的臉換成現場一名觀眾微博照片里的臉,這是一個基于軟件合成的換臉攻擊,又可叫虛擬人臉攻擊,實際上這種攻擊不可避免的會留下圖像修改痕跡。曠視表示目前先進的活體檢測技術已經能夠有效避免這種攻擊被系統通過,例如,曠視在檢測識別對象是否為虛擬人臉時會通過機器學習算法提取被修改后圖像特有局部與全局視覺特征,并對潛在的攻擊模式進行在線歸檔與分類,從而實現對這類攻擊的防御。
而在攻擊介質上,觀眾們能夠看出主持人實際上是將自己的手機對準大屏和另一部手機試圖通過人臉識別的。曠視在官方回應中稱,這是很典型的屏幕翻拍攻擊,而屏幕翻拍在底層視覺特征、環境圖像特征等方面均與真人實拍有顯著差異。對此,曠視專門研發了基于屏幕翻拍綜合檢查的防范技術,實現對此類攻擊的隔離。
為了證明主流的人臉識別技術已經能夠在此類攻擊中達到很好的攔截效果,曠視按照主持人的攻擊手法還原了晚會場景,首先曠視通過換臉軟件將兩位員工的人臉進行了動態合成:

從視頻中我們看到兩個員工其實已經非常相似,合成后也沒有很大的違和感,對于大多數人來說很難在短時間內靠肉眼判斷出這是一個合成人像。

隨后模擬攻擊者的工作人員將合成后的實時圖像對著活體檢測系統進行驗證并完成了“轉頭”、“張嘴”等序列動作。但是最終系統反饋的結果是為通過檢測。而從結果分析中可以看出,系統給出的緣由是認為操作者有明顯屏幕翻拍的攻擊行為。
從這次測試結果來看,曠視的技術能夠對此類攻擊進行有效防控,但我們仍然不能忽略315針對如日中天的人臉識別技術給我們的警示,面對險惡的不法分子,消費者們要在注意保護個人隱私的同時還要時刻保持理性和警惕。曠視也在發文中強調,人臉識別技術是對信息安全做加法、為原有的用戶認證體系中增加一道保障。同時曠視也表示在給合作伙伴提供的服務中從來不會僅僅把人臉識別作為唯一的賬戶驗證手段,并會與合作伙伴一道設計合理策略以維護用戶賬戶安全。
來源:中國網
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。