正在閱讀:

當(dāng)“深度偽造”再進(jìn)化,光靠意識防范已經(jīng)不夠了

掃一掃下載界面新聞APP

當(dāng)“深度偽造”再進(jìn)化,光靠意識防范已經(jīng)不夠了

深偽技術(shù)不斷進(jìn)化的當(dāng)下,每個人都有可能成為受害者,任何人也都可以成為攻擊者。

圖片來源:界面新聞 匡達(dá)

文|數(shù)科社

2024年是“超級大選年”,來自全球70多個國家和地區(qū),都將在今年進(jìn)行大選,參與選舉的公民覆蓋超過全球半數(shù)人口。

在AI技術(shù)爆發(fā)的當(dāng)口,今年的選舉競爭不僅比過去更加激烈,同時正面臨著一個最主要的威脅——深度偽造(deepfakes)的擾亂。

據(jù)美國《華盛頓郵報》不久前報道,印度大選剛剛拉開帷幕之際,一位擅長運用AI拍攝寶萊塢電影和電視廣告的從業(yè)者被數(shù)百名政客找上門,其中多半是讓他幫忙偽造競爭對手出丑的音頻或圖片。

在各國日益激烈的政治競爭中,AI這把雙刃劍成了不少政客手中的選舉武器,一面靠它拉攏選民,一面用他刺倒對手。而自生成式AI技術(shù)井噴以來,深度偽造信息開始充斥著互聯(lián)網(wǎng)的每一個角落,深受其害的并非只有政客,還有越來越多的普通人。

就在大約兩年前,深度偽造這項技術(shù)尚只有熟練的黑客和專業(yè)人士才能使用。但現(xiàn)在,只需要一部手機或電腦,人人都能揮舞起這把利器。

當(dāng)“深度偽造”再進(jìn)化

“深度偽造(Deepfake)”一詞由深度學(xué)習(xí)(Deep Learning)和偽造(fake)組合而來,是一種能夠?qū)⑷说拿娌勘砬楹吐曇襞c另一個人的圖像和聲音結(jié)合起來,從而創(chuàng)造出虛假的視頻或音頻的人工智能技術(shù)。

2014年,由蒙特利爾大學(xué)提出的生成對抗網(wǎng)絡(luò)(GAN)不僅提高了數(shù)據(jù)生成的逼真程度,也大大降低了深度合成的門檻。近十年,深偽技術(shù)日趨成熟,生成式AI橫空出世后,擴散模型(Diffusion Model)訓(xùn)練路線的Deepfake數(shù)量不斷增加,并逐漸從單一模態(tài)向跨模態(tài)或多模態(tài)演變。

對于深度偽造而言,處理錄制的聲音和圖像從來不是什么新鮮事,但擴散模型的出現(xiàn)卻使這項技術(shù)超越了將一張人臉貼到另一個身體上的范疇,而是允許它從頭開始創(chuàng)建一個深度偽造品,無需編輯原始內(nèi)容。

真正引發(fā)擔(dān)憂的是,如今這項技術(shù)的門檻與成本已降低到任何一個會上網(wǎng)的普通人都可使用。英國政府網(wǎng)站稱,近年來,“深度偽造”變得越來越普遍,全世界每個月的這類圖像瀏覽量達(dá)數(shù)百萬次。

深度偽造再進(jìn)化的背后是虛假內(nèi)容泛濫成災(zāi),它被用于篡改選舉、身份欺詐、詐騙、傳播假新聞和誣陷造謠。

今年1月,美國流行樂歌星泰勒·斯威夫特的“AI偽造照片”在社交媒體上瘋傳,“驚動”美國白宮。除了名人之外,普通女性也成為了深度偽造色情圖片的主要侵害群體。

據(jù)媒體報道,2023年9月,西班牙發(fā)生一起利用AI的深度偽造技術(shù)制作少女裸照的事件,至少有28名11歲至17歲的少女成為受害者,疑犯不僅將裸照在校園內(nèi)及網(wǎng)絡(luò)上傳播,甚至還利用裸照進(jìn)行勒索。

到目前為止,如果說深度偽造圖片和視頻,還能靠社交媒體力量和千萬網(wǎng)友的甄別找出肉眼可見的紕漏,那么由AI驅(qū)動的顆粒狀剪輯而出的音頻則是深度偽造內(nèi)容中最潛在的威脅。

上個月,美國馬里蘭州一所高中,該校一名校長因偽造的錄音而被誣陷為種族主義者。法庭記錄顯示,這段錄音經(jīng)過外部專家進(jìn)行分析,其中一人表示,錄音中“包含事后經(jīng)過人工編輯的人工智能生成內(nèi)容的痕跡”。

人的視覺與聽覺之間的脫節(jié),往往會造成聽到的比看到的更容易被蒙騙。深度偽造音頻的欺騙力,相信不少網(wǎng)友在近兩年比較火的“AI孫燕姿”音頻內(nèi)容上已有體會。

深偽技術(shù)不斷進(jìn)化的當(dāng)下,每個人都有可能成為受害者,任何人也都可以成為攻擊者。

以AI對抗AI

當(dāng)深度偽造隨AI技術(shù)的更迭實現(xiàn)再進(jìn)化,人們光靠意識、道德防范已經(jīng)不夠了。

今年年初,香港一家跨國公司經(jīng)歷了一場損失慘重的“變臉”詐騙,損失高達(dá)2億港元。據(jù)相關(guān)報道稱,詐騙者通過公司的YouTube視頻和從其他公開渠道獲取的媒體資料,利用深度偽造技術(shù)偽造了英國公司高層管理人員的形象和聲音,并制作出多人參與視頻會議的偽冒視頻,實則會議內(nèi)只有參加的職員一人為“真人”。

過去兩年里,被深偽技術(shù)加持的視頻、電話詐騙案例不斷上演,如何防御深度偽造內(nèi)容的攻擊,已成為全球網(wǎng)絡(luò)安全專家和互聯(lián)網(wǎng)科技企業(yè)亟待攻克的重要課題。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,隨著深度學(xué)習(xí)算法不斷優(yōu)化和創(chuàng)新,Deepfake帶來的安全風(fēng)險和隱私侵犯問題愈加嚴(yán)峻,且生成的內(nèi)容越來越難以區(qū)分真?zhèn)?,業(yè)界和學(xué)術(shù)界需要多管齊下,不斷提高“以AI對抗AI”的能力。

偽造視頻的檢測過程涉及多個關(guān)鍵技術(shù)環(huán)節(jié)。如深度偽造視頻在細(xì)節(jié)處理上往往難以達(dá)到完美,例如光照、陰影或面部動作的連貫性等方面可能存在不一致性。因此,異常檢測算法就在此發(fā)揮了重要作用。

早在2021年,中國信通院就倡議發(fā)起了立“可信人臉識別守護(hù)計劃”,旨在通過標(biāo)準(zhǔn)制定、測試評估、行業(yè)自律等手段,防范人臉識別技術(shù)帶來的風(fēng)險。近年來,百度、阿里、騰訊、字節(jié)跳動以及科大訊飛等AI頭部企業(yè),也在通過開發(fā)先進(jìn)的AI算法和工具,積極提升對深度偽造內(nèi)容的識別能力。

如螞蟻數(shù)科上個月剛發(fā)布了Deepfake身份防御產(chǎn)品“ZOLOZ Deeper”,主要通過全鏈路安全技術(shù),幫助用戶規(guī)避在刷臉認(rèn)證場景中的“AI 換臉”風(fēng)險。

螞蟻集團在金融業(yè)務(wù)場景無疑有著深厚的用戶基數(shù)和實戰(zhàn)攻防經(jīng)驗積累,據(jù) ZOLOZ產(chǎn)品總監(jiān)陶冶介紹,團隊在2017年開始拓展海外業(yè)務(wù),短短兩年服務(wù)了十多個國家。

她表示,2023年AIGC爆發(fā),深度偽造技術(shù)迎來全方位升級,不只是在人臉進(jìn)行偽造,就連偽造生成的證件也越發(fā)逼真。譬如一張照片把它通過另外一個人的視頻,變成可以微笑,可以進(jìn)行眨眼的模式叫做活化,還可以編輯它的表情,把人變老、化妝、換發(fā)型等,顯然能夠給身份認(rèn)證過程中增加一定的難度。

想要知道如何防守,先要了解對方如何攻擊。在螞蟻天璣實驗室,會有大量模擬人以及機械的方式去做自動化攻擊測評。通過GAN模型生成超測試樣本,交給ZOLOZ Deeper進(jìn)行判別訓(xùn)練,每個月進(jìn)行超過20000次的攻防測評,模擬上百種偽造攻擊情況。

“Deepfake攻和防是一個相對且不斷精進(jìn)的過程,你在進(jìn)步,Deepfake也在進(jìn)步,我們要做的就是跑在它的前面。” 陶冶說道。

一場持久戰(zhàn)

在AIGC時代,與深度偽造技術(shù)的攻防已經(jīng)演變成一場需要各方參與的持久戰(zhàn),想要保證比黑產(chǎn)、黑客早半步,并不是一件易事。

石霖用“發(fā)現(xiàn)的都沒發(fā)生,發(fā)生的都沒發(fā)現(xiàn)”這句話來概括這場攻防戰(zhàn)的走向。在他看來,攻防是一個很大的命題,安全防護(hù)等級提高的同時,黑產(chǎn)也在嘗試升級各種攻擊方式,“一些成功的攻擊手段可能大家都沒檢測出來,沒有成功的可能都被防住了?!?/p>

企業(yè)近年來通過建立獎金池和生態(tài)響應(yīng)中心,以吸引更頂尖的白帽黑客幫助發(fā)現(xiàn)平臺漏洞,進(jìn)而強化自身防護(hù)能力。如ZOLO此次設(shè)立了超百萬的獎金池,支持安全極客來挖掘 ZOLOZ Deeper的漏洞。

從國家和政府層面而言,相關(guān)法律法規(guī)的出臺與有效監(jiān)管,也是防范AI濫用的關(guān)鍵。

2022年12月,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》發(fā)布,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。去年,國家網(wǎng)信辦、國家發(fā)展改革委、教育部等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,進(jìn)一步明確了生成式人工智能的行業(yè)發(fā)展規(guī)范。

從技術(shù)發(fā)展潮流的角度出發(fā),人工智能行業(yè)不可能完全摒棄深度偽造這項技術(shù),但作為公眾可以采取一些措施來避免或減少被攻擊的可能。

深度偽造技術(shù)雖已發(fā)展至真假難辨,但如果沒有數(shù)據(jù)投喂訓(xùn)練,是不可能憑空制作出一張真人的人臉或是聲音的。因此,在提高防詐騙意識之前,我們可以先提高防止個人隱私泄露的意識,如將社交資料設(shè)為私密,減少或者杜絕在社交媒體上分享賬戶、家庭家人、交通出行、工作崗位等敏感信息等。

其次,不管是個人用戶還是涉及到收集大量用戶隱私信息的企業(yè),都應(yīng)嚴(yán)守科技與道德倫理底線。

歐盟主要通過個人信息保護(hù)和虛假信息治理等法律法規(guī)來從法律層面限制人工智能造假技術(shù)的應(yīng)用。如谷歌、Meta等在歐盟擁有巨量用戶的大型科技公司,采取措施來打擊其平臺上的深度偽造和虛假賬戶,否則將面臨高達(dá)其全球營業(yè)額6%的罰款。

國內(nèi)像短視頻社交巨頭抖音去年發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議》,明確平臺不鼓勵利用AI生成虛擬人物進(jìn)行低質(zhì)創(chuàng)作,將嚴(yán)格處罰違規(guī)使用AI生成虛擬人物發(fā)布違背科學(xué)常識、弄虛作假、造謠傳謠的內(nèi)容。今年3月以來,打擊違規(guī)內(nèi)容的力度進(jìn)一步加大。

眼下,無論是對于AIGC的運用,還是與深度偽造技術(shù)的攻防,人類都還有很長的路要走。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

當(dāng)“深度偽造”再進(jìn)化,光靠意識防范已經(jīng)不夠了

深偽技術(shù)不斷進(jìn)化的當(dāng)下,每個人都有可能成為受害者,任何人也都可以成為攻擊者。

圖片來源:界面新聞 匡達(dá)

文|數(shù)科社

2024年是“超級大選年”,來自全球70多個國家和地區(qū),都將在今年進(jìn)行大選,參與選舉的公民覆蓋超過全球半數(shù)人口。

在AI技術(shù)爆發(fā)的當(dāng)口,今年的選舉競爭不僅比過去更加激烈,同時正面臨著一個最主要的威脅——深度偽造(deepfakes)的擾亂。

據(jù)美國《華盛頓郵報》不久前報道,印度大選剛剛拉開帷幕之際,一位擅長運用AI拍攝寶萊塢電影和電視廣告的從業(yè)者被數(shù)百名政客找上門,其中多半是讓他幫忙偽造競爭對手出丑的音頻或圖片。

在各國日益激烈的政治競爭中,AI這把雙刃劍成了不少政客手中的選舉武器,一面靠它拉攏選民,一面用他刺倒對手。而自生成式AI技術(shù)井噴以來,深度偽造信息開始充斥著互聯(lián)網(wǎng)的每一個角落,深受其害的并非只有政客,還有越來越多的普通人。

就在大約兩年前,深度偽造這項技術(shù)尚只有熟練的黑客和專業(yè)人士才能使用。但現(xiàn)在,只需要一部手機或電腦,人人都能揮舞起這把利器。

當(dāng)“深度偽造”再進(jìn)化

“深度偽造(Deepfake)”一詞由深度學(xué)習(xí)(Deep Learning)和偽造(fake)組合而來,是一種能夠?qū)⑷说拿娌勘砬楹吐曇襞c另一個人的圖像和聲音結(jié)合起來,從而創(chuàng)造出虛假的視頻或音頻的人工智能技術(shù)。

2014年,由蒙特利爾大學(xué)提出的生成對抗網(wǎng)絡(luò)(GAN)不僅提高了數(shù)據(jù)生成的逼真程度,也大大降低了深度合成的門檻。近十年,深偽技術(shù)日趨成熟,生成式AI橫空出世后,擴散模型(Diffusion Model)訓(xùn)練路線的Deepfake數(shù)量不斷增加,并逐漸從單一模態(tài)向跨模態(tài)或多模態(tài)演變。

對于深度偽造而言,處理錄制的聲音和圖像從來不是什么新鮮事,但擴散模型的出現(xiàn)卻使這項技術(shù)超越了將一張人臉貼到另一個身體上的范疇,而是允許它從頭開始創(chuàng)建一個深度偽造品,無需編輯原始內(nèi)容。

真正引發(fā)擔(dān)憂的是,如今這項技術(shù)的門檻與成本已降低到任何一個會上網(wǎng)的普通人都可使用。英國政府網(wǎng)站稱,近年來,“深度偽造”變得越來越普遍,全世界每個月的這類圖像瀏覽量達(dá)數(shù)百萬次。

深度偽造再進(jìn)化的背后是虛假內(nèi)容泛濫成災(zāi),它被用于篡改選舉、身份欺詐、詐騙、傳播假新聞和誣陷造謠。

今年1月,美國流行樂歌星泰勒·斯威夫特的“AI偽造照片”在社交媒體上瘋傳,“驚動”美國白宮。除了名人之外,普通女性也成為了深度偽造色情圖片的主要侵害群體。

據(jù)媒體報道,2023年9月,西班牙發(fā)生一起利用AI的深度偽造技術(shù)制作少女裸照的事件,至少有28名11歲至17歲的少女成為受害者,疑犯不僅將裸照在校園內(nèi)及網(wǎng)絡(luò)上傳播,甚至還利用裸照進(jìn)行勒索。

到目前為止,如果說深度偽造圖片和視頻,還能靠社交媒體力量和千萬網(wǎng)友的甄別找出肉眼可見的紕漏,那么由AI驅(qū)動的顆粒狀剪輯而出的音頻則是深度偽造內(nèi)容中最潛在的威脅。

上個月,美國馬里蘭州一所高中,該校一名校長因偽造的錄音而被誣陷為種族主義者。法庭記錄顯示,這段錄音經(jīng)過外部專家進(jìn)行分析,其中一人表示,錄音中“包含事后經(jīng)過人工編輯的人工智能生成內(nèi)容的痕跡”。

人的視覺與聽覺之間的脫節(jié),往往會造成聽到的比看到的更容易被蒙騙。深度偽造音頻的欺騙力,相信不少網(wǎng)友在近兩年比較火的“AI孫燕姿”音頻內(nèi)容上已有體會。

深偽技術(shù)不斷進(jìn)化的當(dāng)下,每個人都有可能成為受害者,任何人也都可以成為攻擊者。

以AI對抗AI

當(dāng)深度偽造隨AI技術(shù)的更迭實現(xiàn)再進(jìn)化,人們光靠意識、道德防范已經(jīng)不夠了。

今年年初,香港一家跨國公司經(jīng)歷了一場損失慘重的“變臉”詐騙,損失高達(dá)2億港元。據(jù)相關(guān)報道稱,詐騙者通過公司的YouTube視頻和從其他公開渠道獲取的媒體資料,利用深度偽造技術(shù)偽造了英國公司高層管理人員的形象和聲音,并制作出多人參與視頻會議的偽冒視頻,實則會議內(nèi)只有參加的職員一人為“真人”。

過去兩年里,被深偽技術(shù)加持的視頻、電話詐騙案例不斷上演,如何防御深度偽造內(nèi)容的攻擊,已成為全球網(wǎng)絡(luò)安全專家和互聯(lián)網(wǎng)科技企業(yè)亟待攻克的重要課題。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,隨著深度學(xué)習(xí)算法不斷優(yōu)化和創(chuàng)新,Deepfake帶來的安全風(fēng)險和隱私侵犯問題愈加嚴(yán)峻,且生成的內(nèi)容越來越難以區(qū)分真?zhèn)?,業(yè)界和學(xué)術(shù)界需要多管齊下,不斷提高“以AI對抗AI”的能力。

偽造視頻的檢測過程涉及多個關(guān)鍵技術(shù)環(huán)節(jié)。如深度偽造視頻在細(xì)節(jié)處理上往往難以達(dá)到完美,例如光照、陰影或面部動作的連貫性等方面可能存在不一致性。因此,異常檢測算法就在此發(fā)揮了重要作用。

早在2021年,中國信通院就倡議發(fā)起了立“可信人臉識別守護(hù)計劃”,旨在通過標(biāo)準(zhǔn)制定、測試評估、行業(yè)自律等手段,防范人臉識別技術(shù)帶來的風(fēng)險。近年來,百度、阿里、騰訊、字節(jié)跳動以及科大訊飛等AI頭部企業(yè),也在通過開發(fā)先進(jìn)的AI算法和工具,積極提升對深度偽造內(nèi)容的識別能力。

如螞蟻數(shù)科上個月剛發(fā)布了Deepfake身份防御產(chǎn)品“ZOLOZ Deeper”,主要通過全鏈路安全技術(shù),幫助用戶規(guī)避在刷臉認(rèn)證場景中的“AI 換臉”風(fēng)險。

螞蟻集團在金融業(yè)務(wù)場景無疑有著深厚的用戶基數(shù)和實戰(zhàn)攻防經(jīng)驗積累,據(jù) ZOLOZ產(chǎn)品總監(jiān)陶冶介紹,團隊在2017年開始拓展海外業(yè)務(wù),短短兩年服務(wù)了十多個國家。

她表示,2023年AIGC爆發(fā),深度偽造技術(shù)迎來全方位升級,不只是在人臉進(jìn)行偽造,就連偽造生成的證件也越發(fā)逼真。譬如一張照片把它通過另外一個人的視頻,變成可以微笑,可以進(jìn)行眨眼的模式叫做活化,還可以編輯它的表情,把人變老、化妝、換發(fā)型等,顯然能夠給身份認(rèn)證過程中增加一定的難度。

想要知道如何防守,先要了解對方如何攻擊。在螞蟻天璣實驗室,會有大量模擬人以及機械的方式去做自動化攻擊測評。通過GAN模型生成超測試樣本,交給ZOLOZ Deeper進(jìn)行判別訓(xùn)練,每個月進(jìn)行超過20000次的攻防測評,模擬上百種偽造攻擊情況。

“Deepfake攻和防是一個相對且不斷精進(jìn)的過程,你在進(jìn)步,Deepfake也在進(jìn)步,我們要做的就是跑在它的前面。” 陶冶說道。

一場持久戰(zhàn)

在AIGC時代,與深度偽造技術(shù)的攻防已經(jīng)演變成一場需要各方參與的持久戰(zhàn),想要保證比黑產(chǎn)、黑客早半步,并不是一件易事。

石霖用“發(fā)現(xiàn)的都沒發(fā)生,發(fā)生的都沒發(fā)現(xiàn)”這句話來概括這場攻防戰(zhàn)的走向。在他看來,攻防是一個很大的命題,安全防護(hù)等級提高的同時,黑產(chǎn)也在嘗試升級各種攻擊方式,“一些成功的攻擊手段可能大家都沒檢測出來,沒有成功的可能都被防住了。”

企業(yè)近年來通過建立獎金池和生態(tài)響應(yīng)中心,以吸引更頂尖的白帽黑客幫助發(fā)現(xiàn)平臺漏洞,進(jìn)而強化自身防護(hù)能力。如ZOLO此次設(shè)立了超百萬的獎金池,支持安全極客來挖掘 ZOLOZ Deeper的漏洞。

從國家和政府層面而言,相關(guān)法律法規(guī)的出臺與有效監(jiān)管,也是防范AI濫用的關(guān)鍵。

2022年12月,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》發(fā)布,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。去年,國家網(wǎng)信辦、國家發(fā)展改革委、教育部等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,進(jìn)一步明確了生成式人工智能的行業(yè)發(fā)展規(guī)范。

從技術(shù)發(fā)展潮流的角度出發(fā),人工智能行業(yè)不可能完全摒棄深度偽造這項技術(shù),但作為公眾可以采取一些措施來避免或減少被攻擊的可能。

深度偽造技術(shù)雖已發(fā)展至真假難辨,但如果沒有數(shù)據(jù)投喂訓(xùn)練,是不可能憑空制作出一張真人的人臉或是聲音的。因此,在提高防詐騙意識之前,我們可以先提高防止個人隱私泄露的意識,如將社交資料設(shè)為私密,減少或者杜絕在社交媒體上分享賬戶、家庭家人、交通出行、工作崗位等敏感信息等。

其次,不管是個人用戶還是涉及到收集大量用戶隱私信息的企業(yè),都應(yīng)嚴(yán)守科技與道德倫理底線。

歐盟主要通過個人信息保護(hù)和虛假信息治理等法律法規(guī)來從法律層面限制人工智能造假技術(shù)的應(yīng)用。如谷歌、Meta等在歐盟擁有巨量用戶的大型科技公司,采取措施來打擊其平臺上的深度偽造和虛假賬戶,否則將面臨高達(dá)其全球營業(yè)額6%的罰款。

國內(nèi)像短視頻社交巨頭抖音去年發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議》,明確平臺不鼓勵利用AI生成虛擬人物進(jìn)行低質(zhì)創(chuàng)作,將嚴(yán)格處罰違規(guī)使用AI生成虛擬人物發(fā)布違背科學(xué)常識、弄虛作假、造謠傳謠的內(nèi)容。今年3月以來,打擊違規(guī)內(nèi)容的力度進(jìn)一步加大。

眼下,無論是對于AIGC的運用,還是與深度偽造技術(shù)的攻防,人類都還有很長的路要走。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。