
人工智能發展到當下階段,對于倫理和安全的思考已經逐漸從幕后走向臺前。
2019年5月22日,經濟合作與發展組織(OCED)批準了《負責任地管理可信賴AI的原則》,該倫理原則總共有五項,包括包容性增長、可持續發展及福祉,以人為本的價值觀及公平性,透明度和可解釋性,穩健性、安全性和保障性,問責制。
其中更為顯性的安全問題,在“換臉”風波、人臉信息泄漏等一系列事件的曝光下,為人工智能技術的應用前景蒙上了一層陰影,提高人工智能技術的安全性與可靠性迫在眉睫。
Deepfake的世界里,眼見不再為實
圖:演員Jordan Peele模仿奧巴馬聲音制作的虛假演講視頻
現今,基于人臉的信息傳遞已經成為人類社會溝通的主要媒介之一,比如社交平臺的照片、網絡上的演講和表演視頻。
換臉技術的出現則極大地影響公眾對圖片和視頻的解讀,比如誰該為這段言論負責,以及這段言論的可信度有多大,甚至可能淪為色情復仇的工具、擾亂政界的武器,導致前所未有的社會影響。
目前Deepfake主要以公眾人物為受害目標,但隨著AI技術的飛速發展,可能在不遠的將來,普通民眾也會被波及。
為了保證AI應用的安全性,目前RealAI團隊研發出“反AI變臉檢測”工具,專用于檢測AI換臉造假技術。
圖:RealAI“反AI變臉檢測”技術 ,綠框為正常視頻幀,紅框為檢測出的造假視頻幀
RealAI研究人員表示,Deepfake生成的造假視頻畫面會有不“自然”的紋理存在。為此,他們通過海量視頻訓練神經網絡,讓其學習正常情況中的紋理特征,再以此檢測造假視頻中不一致的紋理。利用該技術,可以對造假視頻實現逐幀檢測,準確率高達90%以上。
據媒體報道,目前已經出現犯罪團伙利用AI換臉進行詐騙,希望“反AI變臉檢測”技術可以遏制此類惡性事件的發生,不要讓病態化的“換臉”趨勢愈演愈烈。
“隱身衣”成為可能,犯罪行為“有處遁形”
圖:一張貼紙“騙”過AI攝像頭
圖:3D車輛模型“隱身”試驗
圖:遠距離、近距離、穩定、動態拍攝下的“隱身”效果
圖:關燈瞬間以及昏暗光線下的“隱身”效果
刷臉時代,你的“臉”正在出賣你
圖:正常情況下無法解鎖他人手機
圖:帶上道具瞬間完成解鎖,破解成功
圖片中可以看到,“攻擊者”戴上眼鏡識別的瞬間便可成功解鎖,無需特定的角度和光線,無需暴力嘗試。與照片解鎖、造假視頻、3D建模等傳統方法相比,該方法成本更低、成功率更高。
深度神經網絡(CNN)容易受到“對抗樣本”的攻擊影響。此前就有研究團隊提出,通過帶有干擾的“配飾”來欺騙模型逃逸識別。
但該想法只停留于研究層面,僅在實驗場景中結構較簡單的模型上進行過驗證,而且是基于對模型內部參數已知的情況下實現的“白盒”攻擊。
RealAI研究團隊則將其成功應用到物理世界和黑盒場景,對內部參數未知的情況下,破解商用手機中復雜度、精準度更高的識別模型。
圖:基于對抗樣本生成的“眼鏡”道具
RealAI進行該項研究,目的是為了從算法層面找到當前主流人臉識別模型的安全漏洞,從而針對性的進行防御。目前團隊也已經研發出相應的防御技術,可能很大程度上檢測并防御當前的對抗樣本攻擊。
通過對手機識別系統進行防火墻升級,在解鎖的過程中可以識別出“攻擊者”,并對其拒絕訪問。
圖:RealAI的AI防火墻技術可檢測并防御“對抗樣本”攻擊
在正在到來的“刷臉”時代,我們似乎一再追求“好不好用”,對“安不安全”卻專注甚少。當我們沉浸在“技術進步”的喜悅中時,也該思考下,我們寫在“臉”上的密碼或許正在出賣我們。
保護AI安全發展,我們可以做什么?
IEEE Spectrum
《科技縱覽》
官方微信公眾平臺
往期推薦