當?shù)貢r間 8 月26 日- 30日,歐洲頂級信息安全會議HITB(HACK IN THE BOX)GSEC 2019在新加坡召開。百度安全帶來的議題“連中三元”,成為本屆議題入選最多的國內(nèi)企業(yè),刷新歷史紀錄,再一次證明百度安全在AI安全攻防領域的領先地位。HITB(HACK IN THEBOX)是歐洲最具影響力的信息安全峰會,每年在荷蘭阿姆斯特丹及新加坡舉辦,迄今已有16年歷史,是一年一度全世界頂尖信息安全研究員及大咖共同分享前沿課題及攻防技術的盛會。圖| 百度安全攜AI安全三大議題亮相HITB GSEC 2019Deepfakes“換臉術”的安全性時下儼然成為輿論的焦點,不僅僅在于其早已超出了娛樂的范疇、被技術濫用對知名人士造成版權及隱私的困擾,同時也因AI換臉黑產(chǎn)的不斷蔓延,引發(fā)了企業(yè)及監(jiān)管部門的關注。針對視頻內(nèi)容真實性的技術檢測及工具共享迫在眉睫。本屆HITB上,百度安全研究員WANG YANG、DOU GOODMAN、JAY XIONG 帶來的最新研究成果顯示,基于深度學習卷積神經(jīng)網(wǎng)絡(CNN)可以有效針對AI換臉視頻進行“打假”。報告中提及兩類基于CNN的檢測方式,無論是基于簡單CNN構(gòu)建的探測器對于圖像低層次特征(low-level feature)的提取與分析,還是利用FaceNet作為人臉特征的向量提取器,繼而針對SVM二分類器(binary classification)進行機器學習,在檢測AI換臉(Deepfakes)、人臉融合(Face Merge)中均有可觀的表現(xiàn),分辨真假的準確率分別高達99%、94%。值得指出的是,百度安全研究員將在既往檢測方式中表現(xiàn)不佳的經(jīng)壓縮放、過曝、剪切、翻轉(zhuǎn)后的圖像納入模型訓練的范疇,顯著提升檢測模型的魯棒性。同時,為向業(yè)內(nèi)分享百度在人臉識別檢測的研究成果,促進多方部門開展聯(lián)合開發(fā)及測量評估,百度安全目前已開源業(yè)內(nèi)首個AI換臉檢測工具,點擊文末“閱讀原文”查看。不僅是“假臉”鑒別,還有虛假新聞的治理。社交媒體裹挾的巨大流量、內(nèi)容生產(chǎn)及傳播方式,使得假新聞的滋生及擴散變得輕而易舉,如被蓄意操控利用,后果難以估量。當下國內(nèi)外各大社交平臺紛紛加強人工在內(nèi)容審核中的權重,這是辨別信息真?zhèn)蔚暮梅椒ǎ谀承┨厥鈭鼍跋乱矔Σ粡男。在特征識別、身份驗證、歸因分類等領域,人工智能正在發(fā)揮關鍵作用,從諸多看似錯綜復雜且毫無關聯(lián)的關系中捕捉關系脈絡,譬如通過文本特征(詞庫、詞頻、陳述結(jié)構(gòu)、語氣風格甚至標點)的分析,定位到匿名作者——是的,通常情況下,他們?yōu)檠谏w身份而選擇了匿名。受FaceNet在人臉特征識別、驗證、分類等領域廣泛應用的啟發(fā),本屆HITB上,百度安全研究員ZHONGHOU LV、DOU GOODMAN利用深度神經(jīng)網(wǎng)絡,將提取的文本特征向量映射到歐幾里德空間的球形表面中,最終通過歐幾里德距離表示文本相似性:同一作者的文本距離較短,不同作者的文本距離較遠。過程中,百度安全研究員創(chuàng)新性的引入TripletLoss(三元組損失,深度學習中的一種損失函數(shù),用于訓練差異性較小的樣本)進行機器學習,且引入隨機選擇(Random Selection)、動態(tài)選擇(Dynamic Selection)策略,顯著提升檢測精度和效率。結(jié)果表明,上述方法相較此前學術界基于線性空間的研究,尤其在作者數(shù)量龐大的情況下,表現(xiàn)出良好的性能。深度學習模型容易受到對抗樣本的攻擊,這在業(yè)內(nèi)已不是新鮮事。對圖像數(shù)據(jù)疊加人類難以通過感官辨識到的細微擾動,就可以“欺騙”模型,指鹿為馬,甚至無中生有。業(yè)內(nèi)將這種影響AI決策邊界的細微擾動稱之為“對抗樣本”(Adversarial ExampleAttack)。然而,通過精確數(shù)據(jù)篡改可以達到完美欺騙機器識別的數(shù)字世界攻擊效果,在實際物理環(huán)境的諸多限制之下,往往會失去作⽤——欺騙探測器可不是件容易事。繼百度安全在Blackhat Europe 2018上首次驗證“在物理世界中,對抗樣本在機器識別領域是⼀個實際存在的威脅”之后,在本屆HITB上,百度安全研究員JAY XIONG、WANG YANG、DOU GOODMAN借鑒訓練深度神經(jīng)網(wǎng)絡的思路,在物理世界生成對抗樣本,成功欺騙目標檢測器。無論是針對Deepfakes“換臉術”的AI打假,還是追蹤虛假新聞,均屬于模型攻擊檢測的范疇。目前業(yè)界對于AI模型安全的思路大多聚焦于“攻”,關注于對抗樣本的生成技術,而無法對模型安全性進行檢測。技術一小步,從“攻”到“防”一大步。百度安全業(yè)內(nèi)首創(chuàng)AdvBox對抗樣本工具箱,針對AI算法模型提供安全性研究和解決方案,目前已應用于百度深度學習開源平臺PaddlePaddle及當下主流深度學習平臺,可高效地使用最新的生成方法構(gòu)造對抗樣本數(shù)據(jù)集用于對抗樣本的特征統(tǒng)計、攻擊全新的AI應用,加固業(yè)務AI模型,為模型安全性研究和應用提供重要的支持。百度安全的研究證明,人工智能時代不僅要面對曾經(jīng)的云管端的安全問題,機器學習算法自身的安全性亦存在漏洞,存在現(xiàn)實威脅性。百度安全于2018年將首創(chuàng)的七大技術——KARMA系統(tǒng)自適應熱修復、OpenRASP下一代云端安全防護系統(tǒng)、MesaLockLinux內(nèi)存安全操作系統(tǒng)、MesaLink TLS下一代安全通信庫、AdvBox對抗樣本工具箱、MesaTEE下一代可信安全計算服務、HugeGraph大規(guī)模圖數(shù)據(jù)庫——開源匯成AI安全“七種武器”,全面解決云管端以及大數(shù)據(jù)和算法層面的一系列安全風險問題,實現(xiàn)由傳統(tǒng)安全時代的強管理向AI時代的強技術支撐下的核心管理的轉(zhuǎn)變,全面應對AI時代下層出不窮且日益復雜的生態(tài)安全問題及挑戰(zhàn)。
·請注意語言文明,尊重網(wǎng)絡道德,并承擔一切因您的行為而直接或間接引起的法律責任。
·長沙社區(qū)通管理員有權保留或刪除其管轄留言中的任意非法內(nèi)容。