過去幾個月信息安全和數據隱私問題被人們熱議,熱議的內容中包括了英國數據分析公司 Cambridge Analytica 的數據收集策略和 Facebook 首席執行官馬克·扎克伯格在美國參議院的證詞。
人臉識別技術利用基于人臉特征點的算法進行識別,因此人臉特征點是其中的一種主要的數據形式。每次你上傳一張照片到 Facebook、Instagram,或者其他地方,你都會將照片中人的面部特征點和照片中其他物體的特征點提供給這些學習系統。
為了解決這個問題,多倫多大學的 Parham Aarabi 教授和研究生 Avishek Bose 領導的研究小組開發了一種算法來動態干擾這項技術。
這種技術原理基于“對抗性訓練”,本質上是建立起兩種相互對抗的算法。Aarabi 和 Bose 創建了兩個神經網絡,一個是識別人臉的網絡,另一個是破壞其既定目標的神經網絡。這兩個網絡互相學習,相互提升效果。
Bose 在接受 Eureka Alert 的采訪時說:“具有破壞性的人工智能可以‘攻擊’人臉識別時神經網絡所尋找的東西。例如,如果檢測 AI 正在尋找眼角,它會調整眼角,這樣眼睛就不那么明顯了。它會在照片中產生非常細微的干擾,但對探測器來說,這些干擾足以愚弄整個系統。”
在實踐中,這意味著用戶可以使用一個過濾器 (比如 Instagram 或 Snapchat 上的普通視覺過濾器),改變圖像中人眼無法察覺的特定像素,使人臉識別技術失效。
在一個包含 600 多張不同種族、光照和環境的人臉圖像的測試集上,該系統能夠將可檢測的臉從 100% 降低到 0.5%。
研究小組將在 2018 年 IEEE 多媒體信號處理國際研討會上展示他們的研究成果,之后他們希望通過一個應用程序或網站將該過濾器公之于眾。
“十年前,這些算法必須是人類定義的,但現在神經網絡可以在訓練集上自己學習,”Aarabi 說。“最后,他們可以做一些非常令人驚奇的事情。這是一個令人著迷的領域,有巨大的潛力。”
標簽:
相關資訊