正在閱讀:

AI入侵,可以“以模治模”

掃一掃下載界面新聞APP

AI入侵,可以“以模治模”

人工智能創(chuàng)造的世界也需要規(guī)則。

圖片來源:界面新聞 匡達

文|獵云網 邵延港

誰能想到,一場多人參加的跨國視頻會議,竟然只有一個人是真人,其余的“參會人員”全部是經過AI換臉的詐騙“人員”。最后的結果就是受害人將2億港元分別轉賬15次,轉賬到5個本地銀行賬戶。

“AI換臉”的話題已經被討論了很多年,如今已經真實到看不出破綻了嗎?

新一輪的AI浪潮,大模型的能力進一步增強,這種新技術也在加速向現(xiàn)實世界沖擊。無論是ChatGPT,還是sora,AIGC都在“努力”創(chuàng)造一個真假難辨的世界:虛擬與現(xiàn)實的交織、身份與形象的混淆、聲音與真實的錯位、文字與真實的界限模糊。

如今,AI這個潘多拉的魔盒被進一步打開。AIGC是未來十年甚至更長周期的技術趨勢和變革動力,而技術發(fā)展的兩面性,在帶來機遇和發(fā)展同時,也帶來新的風險和挑戰(zhàn)。

不過,歷史的發(fā)展規(guī)律仍舊沒有變,無論是否為虛擬創(chuàng)造的產物,“作惡”的從來不是作為工具的AI本身。好在,AI也提供了一種新的途徑來鑒別AIGC,即更了解自己的AI去打敗AI自己。

AIGC安全問題泛濫

毫無疑問,各種AI引發(fā)的問題背后,是技術的進步。從Transformer網絡到ChatGPT,從最初專用于人臉深度合成的 DeepFaceLab發(fā)展到通用視頻生成服務Gen-2,各種生成式人工智能模型如今已經不稀奇了。

大模型能做到這種程度的原因,終究還是機器學習能力的躍升。中文垂直創(chuàng)作大模型公司波形智能創(chuàng)始人姜昱辰這樣比喻:人工智能學習方法跟我們人非常相像。把東西教給AI,它再進行學習和消化,之后就是模仿與創(chuàng)作。在初期,AI的反饋可能不盡如人意,但做過個性化的范式訓練時,AIGC的“人味”會更明顯。

AIGC能做到也不只是如此。中文大模型已經經過層層打磨,寫一篇質量過關,看不出“機器味”的稿子早已不是難事。隨著大模型的應用越來越廣泛,馬斯克有當前最大參數(shù)大模型,谷歌有性能最強大模型,這些都能為之帶來更多的想象力。

當今年OpenAI再次祭出大殺器sora時,APUS董事長兼CEO李濤直言:它不僅展示了人工智能在視頻生成領域的強大能力,更觸及了人類對創(chuàng)作、真實性和未來的認知。

騰訊云天御安全專家黃澤豐表示,AIGC的安全存在于三個階段:一是數(shù)據訓練階段的AI內生安全,二是大模型部署運營時的AI應用安全,三是推廣到公眾后的AI衍生安全。

如今公眾關注的如AI人臉詐騙這類問題,已經是一個非常復雜的問題。

黃澤豐表示:AI換臉早期更多是通過社交工程學詐騙,通過不法手段獲取個人的信息,再進行加工處理進行欺詐;而現(xiàn)在演變?yōu)榭梢詫崟r模擬人臉的同時,將嘴型和眨眼等動作進行合成,極大的提升了迷惑性。

AIGC的安全挑戰(zhàn)讓世界真假難辨,內容合規(guī)與幻覺一直是AIGC的首先要解決的問題。AI換臉視頻的形成,關鍵在于個人信息的泄露,而當人臉信息被惡意使用時,對于各種系統(tǒng)安全、金融安全、個人隱私等問題形成連鎖反應。據悉,AIGC的快速發(fā)展已經引發(fā)了黑灰產的新一輪的攻擊,利用AI換臉、批量生成版權內容套現(xiàn)獲利等問題頻發(fā)。

以前,東南亞詐騙團伙利用病毒去獲取用戶信息,做成視頻去欺騙銀行,獲得一些轉賬或者是貸款的問題,整個系統(tǒng)非常成熟?,F(xiàn)在,有人可以基于人臉合成、擬聲等AI技術進行臉部替換,并結合表情驅動做出眨眼、張嘴等動作來構造虛假的人臉視頻,同時通過攝像頭劫持進行攻擊。

AIGC可以帶來繽紛多彩的世界,但其對安全的刁難又該如何化解?

用大模型對抗大模型

面對AIGC帶來的震撼,李濤也感慨道:通過完全虛擬構建展示真實場景,在未來這種“真實”與“虛擬”的界限模糊,讓我們不得不去思考:在AI時代,我們應該如何定義和理解真實與虛擬。

大模型對于模擬對象的了解已經達到很高的程度,對于以往的偽造內容,現(xiàn)有檢測系統(tǒng)的檢測準確率可以達到90%以上,但是對基于大模型生成的內容,其檢測效果并不好。

但現(xiàn)在有一個明確的思路,就是用大模型對抗大模型。

黃澤豐表示,想要鑒別AI視頻詐騙,首先要確保設備是否處在安全的系統(tǒng)環(huán)境里,例如系統(tǒng)可能被解鎖、篡改、重置、“雙開”等等。

但是,現(xiàn)在AI對AI,這種檢測更難,除了前端要這樣做檢測,后端就要以同樣的模型來檢測不同的動作,或者是更多的信息維度。

無論AI如何模擬,由于AIGC是通過算法和模型生成的,它們往往具有一些特定的模式或特征,AIGC終究會在人類面前露出馬腳。利用AI的深度學習技術,我們可以訓練模型來識別這些特征,從而判斷一段內容是否是由AI生成的。

當然,AIGC內容安全新挑戰(zhàn)不僅體現(xiàn)在“天文級”的數(shù)據體量,處理的內容也更加復雜。在內容生成階段,新型AI偽造、虛假、違背倫理、不適內容、未成年人等違規(guī)內容,以及AI問答產生專業(yè)性內容,都超出傳統(tǒng)內容風控的范疇。

作為安全領域的專家,黃澤豐認為AIGC的鑒別不會是100%準確。目前,AIGC在一些細節(jié)上還是有很大的特征,例如AI渲染過的圖經常會有一些沒有邏輯的。但有時候,AIGC內容還會經過二次修改,比如文章和代碼,這樣情況就會很難去鑒別。

但有思路就要有嘗試。

獵云網了解到,螞蟻數(shù)科有一支ZOLOZ“數(shù)字身份打假隊”,專注于辨別數(shù)字身份欺詐。據介紹,數(shù)字身份打假隊早在2020年就在儲備用AIGC打敗AIGC這項防御能力,而在當時,這樣的真實攻擊并不多見。于是,他們同樣用“左右手互搏”的方式打磨系統(tǒng)。先用AIGC 批量生成虛擬人臉,再利用生成的樣本來攻擊自己,從而不斷地優(yōu)化防御能力。

面對AI詐騙這類人臉合成攻擊,騰訊云慧眼也用AI打敗AI,其開發(fā)的遠近活模式,相比傳統(tǒng)的活體檢測技術,遠近活體通過對交互過程中人臉的形變信息建模,并對交互行為進行分析,從而分辨出是真人還是攻擊,能夠有效檢測并攔截新型 AIGC 攻擊以及高清紙片、翻拍、面具等常見攻擊。

作為安全廠商,360最新上線了360安全大模型,其中提出了“以模治?!钡姆桨?,即采用“小模型”的技術保障大模型安全的技術路線。

在產業(yè)界,用魔法打敗魔法的思路已經被推廣。作為AI檢測與安全領域的技術服務商們,不只在鉆研,也在持續(xù)向外界賦能,AIGC的標簽也不會只隱藏在暗處。

AIGC主導的世界

給AIGC內容打上標簽,更多的是無奈,而AI被濫用已經不是新鮮事了,當下AI被濫用情況急需被遏止。

如今,安全行業(yè)圍繞AI的攻擊和防御一直是個業(yè)界焦點。在黑灰產產業(yè)化、鏈條化的分工模式下,應用AI發(fā)起安全攻擊的門檻越來越低。

當AIGC的能力逐漸增強,大模型高效泛化內容生成的特點,會讓黑客以更低的門檻和成本,發(fā)動更密集的攻擊。相比較而言,防守需要更縝密的邏輯關聯(lián),更精準的溯源能力。在新技術的實踐落地過程中,成本效率將會經歷更嚴峻的考驗周期。

但也不是所有事情都需要去鑒別是否由AI生成,不是因為有時候AI也“無能為力”,而是AIGC是挑戰(zhàn)也是機遇。

當AI作為輔助時,人類生產效率的可觀提升,被視為一場生產力的變革。多模態(tài)的AIGC技術可以超越人類原有的表現(xiàn)形式去創(chuàng)造新的表現(xiàn)形式,自動化生成大量內容,不僅可以節(jié)省人力和時間成本,對于嚴謹?shù)膶I(yè)領域的內容可以減少或消除誤差。

但無論內容是AI創(chuàng)造的,還是人創(chuàng)造的,這個內容對社會有用,它就是有意義的;如果說信息有害,無論是人的創(chuàng)造還是AIGC的創(chuàng)造,都需要去鑒別出來。

國內某網文平臺編輯告訴獵云網,“AI寫小說在四五年前就有了,只不過這類文章很難達到簽約標準,從質量上一眼就能看出來,并且目前還沒聽說哪一本AI寫的書出了不錯的成績。” AI可以加速稿件更新進度,提高作者效率,但只要文章的反饋好,誰還會在意它是怎么生成的呢?

但用AIGC去偽造內容,本身就是一條歧路。AIGC內容的版權風險,幾乎成為共識,畢竟這個生產過程,也是學習過程,人類的學習也離不開初期的模仿。

對于內容是否由AI主導要因地制宜,多數(shù)觀點認為還是要給AI發(fā)揮的土壤。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AI入侵,可以“以模治?!?/h1>

人工智能創(chuàng)造的世界也需要規(guī)則。

圖片來源:界面新聞 匡達

文|獵云網 邵延港

誰能想到,一場多人參加的跨國視頻會議,竟然只有一個人是真人,其余的“參會人員”全部是經過AI換臉的詐騙“人員”。最后的結果就是受害人將2億港元分別轉賬15次,轉賬到5個本地銀行賬戶。

“AI換臉”的話題已經被討論了很多年,如今已經真實到看不出破綻了嗎?

新一輪的AI浪潮,大模型的能力進一步增強,這種新技術也在加速向現(xiàn)實世界沖擊。無論是ChatGPT,還是sora,AIGC都在“努力”創(chuàng)造一個真假難辨的世界:虛擬與現(xiàn)實的交織、身份與形象的混淆、聲音與真實的錯位、文字與真實的界限模糊。

如今,AI這個潘多拉的魔盒被進一步打開。AIGC是未來十年甚至更長周期的技術趨勢和變革動力,而技術發(fā)展的兩面性,在帶來機遇和發(fā)展同時,也帶來新的風險和挑戰(zhàn)。

不過,歷史的發(fā)展規(guī)律仍舊沒有變,無論是否為虛擬創(chuàng)造的產物,“作惡”的從來不是作為工具的AI本身。好在,AI也提供了一種新的途徑來鑒別AIGC,即更了解自己的AI去打敗AI自己。

AIGC安全問題泛濫

毫無疑問,各種AI引發(fā)的問題背后,是技術的進步。從Transformer網絡到ChatGPT,從最初專用于人臉深度合成的 DeepFaceLab發(fā)展到通用視頻生成服務Gen-2,各種生成式人工智能模型如今已經不稀奇了。

大模型能做到這種程度的原因,終究還是機器學習能力的躍升。中文垂直創(chuàng)作大模型公司波形智能創(chuàng)始人姜昱辰這樣比喻:人工智能學習方法跟我們人非常相像。把東西教給AI,它再進行學習和消化,之后就是模仿與創(chuàng)作。在初期,AI的反饋可能不盡如人意,但做過個性化的范式訓練時,AIGC的“人味”會更明顯。

AIGC能做到也不只是如此。中文大模型已經經過層層打磨,寫一篇質量過關,看不出“機器味”的稿子早已不是難事。隨著大模型的應用越來越廣泛,馬斯克有當前最大參數(shù)大模型,谷歌有性能最強大模型,這些都能為之帶來更多的想象力。

當今年OpenAI再次祭出大殺器sora時,APUS董事長兼CEO李濤直言:它不僅展示了人工智能在視頻生成領域的強大能力,更觸及了人類對創(chuàng)作、真實性和未來的認知。

騰訊云天御安全專家黃澤豐表示,AIGC的安全存在于三個階段:一是數(shù)據訓練階段的AI內生安全,二是大模型部署運營時的AI應用安全,三是推廣到公眾后的AI衍生安全。

如今公眾關注的如AI人臉詐騙這類問題,已經是一個非常復雜的問題。

黃澤豐表示:AI換臉早期更多是通過社交工程學詐騙,通過不法手段獲取個人的信息,再進行加工處理進行欺詐;而現(xiàn)在演變?yōu)榭梢詫崟r模擬人臉的同時,將嘴型和眨眼等動作進行合成,極大的提升了迷惑性。

AIGC的安全挑戰(zhàn)讓世界真假難辨,內容合規(guī)與幻覺一直是AIGC的首先要解決的問題。AI換臉視頻的形成,關鍵在于個人信息的泄露,而當人臉信息被惡意使用時,對于各種系統(tǒng)安全、金融安全、個人隱私等問題形成連鎖反應。據悉,AIGC的快速發(fā)展已經引發(fā)了黑灰產的新一輪的攻擊,利用AI換臉、批量生成版權內容套現(xiàn)獲利等問題頻發(fā)。

以前,東南亞詐騙團伙利用病毒去獲取用戶信息,做成視頻去欺騙銀行,獲得一些轉賬或者是貸款的問題,整個系統(tǒng)非常成熟?,F(xiàn)在,有人可以基于人臉合成、擬聲等AI技術進行臉部替換,并結合表情驅動做出眨眼、張嘴等動作來構造虛假的人臉視頻,同時通過攝像頭劫持進行攻擊。

AIGC可以帶來繽紛多彩的世界,但其對安全的刁難又該如何化解?

用大模型對抗大模型

面對AIGC帶來的震撼,李濤也感慨道:通過完全虛擬構建展示真實場景,在未來這種“真實”與“虛擬”的界限模糊,讓我們不得不去思考:在AI時代,我們應該如何定義和理解真實與虛擬。

大模型對于模擬對象的了解已經達到很高的程度,對于以往的偽造內容,現(xiàn)有檢測系統(tǒng)的檢測準確率可以達到90%以上,但是對基于大模型生成的內容,其檢測效果并不好。

但現(xiàn)在有一個明確的思路,就是用大模型對抗大模型。

黃澤豐表示,想要鑒別AI視頻詐騙,首先要確保設備是否處在安全的系統(tǒng)環(huán)境里,例如系統(tǒng)可能被解鎖、篡改、重置、“雙開”等等。

但是,現(xiàn)在AI對AI,這種檢測更難,除了前端要這樣做檢測,后端就要以同樣的模型來檢測不同的動作,或者是更多的信息維度。

無論AI如何模擬,由于AIGC是通過算法和模型生成的,它們往往具有一些特定的模式或特征,AIGC終究會在人類面前露出馬腳。利用AI的深度學習技術,我們可以訓練模型來識別這些特征,從而判斷一段內容是否是由AI生成的。

當然,AIGC內容安全新挑戰(zhàn)不僅體現(xiàn)在“天文級”的數(shù)據體量,處理的內容也更加復雜。在內容生成階段,新型AI偽造、虛假、違背倫理、不適內容、未成年人等違規(guī)內容,以及AI問答產生專業(yè)性內容,都超出傳統(tǒng)內容風控的范疇。

作為安全領域的專家,黃澤豐認為AIGC的鑒別不會是100%準確。目前,AIGC在一些細節(jié)上還是有很大的特征,例如AI渲染過的圖經常會有一些沒有邏輯的。但有時候,AIGC內容還會經過二次修改,比如文章和代碼,這樣情況就會很難去鑒別。

但有思路就要有嘗試。

獵云網了解到,螞蟻數(shù)科有一支ZOLOZ“數(shù)字身份打假隊”,專注于辨別數(shù)字身份欺詐。據介紹,數(shù)字身份打假隊早在2020年就在儲備用AIGC打敗AIGC這項防御能力,而在當時,這樣的真實攻擊并不多見。于是,他們同樣用“左右手互搏”的方式打磨系統(tǒng)。先用AIGC 批量生成虛擬人臉,再利用生成的樣本來攻擊自己,從而不斷地優(yōu)化防御能力。

面對AI詐騙這類人臉合成攻擊,騰訊云慧眼也用AI打敗AI,其開發(fā)的遠近活模式,相比傳統(tǒng)的活體檢測技術,遠近活體通過對交互過程中人臉的形變信息建模,并對交互行為進行分析,從而分辨出是真人還是攻擊,能夠有效檢測并攔截新型 AIGC 攻擊以及高清紙片、翻拍、面具等常見攻擊。

作為安全廠商,360最新上線了360安全大模型,其中提出了“以模治?!钡姆桨?,即采用“小模型”的技術保障大模型安全的技術路線。

在產業(yè)界,用魔法打敗魔法的思路已經被推廣。作為AI檢測與安全領域的技術服務商們,不只在鉆研,也在持續(xù)向外界賦能,AIGC的標簽也不會只隱藏在暗處。

AIGC主導的世界

給AIGC內容打上標簽,更多的是無奈,而AI被濫用已經不是新鮮事了,當下AI被濫用情況急需被遏止。

如今,安全行業(yè)圍繞AI的攻擊和防御一直是個業(yè)界焦點。在黑灰產產業(yè)化、鏈條化的分工模式下,應用AI發(fā)起安全攻擊的門檻越來越低。

當AIGC的能力逐漸增強,大模型高效泛化內容生成的特點,會讓黑客以更低的門檻和成本,發(fā)動更密集的攻擊。相比較而言,防守需要更縝密的邏輯關聯(lián),更精準的溯源能力。在新技術的實踐落地過程中,成本效率將會經歷更嚴峻的考驗周期。

但也不是所有事情都需要去鑒別是否由AI生成,不是因為有時候AI也“無能為力”,而是AIGC是挑戰(zhàn)也是機遇。

當AI作為輔助時,人類生產效率的可觀提升,被視為一場生產力的變革。多模態(tài)的AIGC技術可以超越人類原有的表現(xiàn)形式去創(chuàng)造新的表現(xiàn)形式,自動化生成大量內容,不僅可以節(jié)省人力和時間成本,對于嚴謹?shù)膶I(yè)領域的內容可以減少或消除誤差。

但無論內容是AI創(chuàng)造的,還是人創(chuàng)造的,這個內容對社會有用,它就是有意義的;如果說信息有害,無論是人的創(chuàng)造還是AIGC的創(chuàng)造,都需要去鑒別出來。

國內某網文平臺編輯告訴獵云網,“AI寫小說在四五年前就有了,只不過這類文章很難達到簽約標準,從質量上一眼就能看出來,并且目前還沒聽說哪一本AI寫的書出了不錯的成績。” AI可以加速稿件更新進度,提高作者效率,但只要文章的反饋好,誰還會在意它是怎么生成的呢?

但用AIGC去偽造內容,本身就是一條歧路。AIGC內容的版權風險,幾乎成為共識,畢竟這個生產過程,也是學習過程,人類的學習也離不開初期的模仿。

對于內容是否由AI主導要因地制宜,多數(shù)觀點認為還是要給AI發(fā)揮的土壤。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。