正在閱讀:

與“人工智能”墜入愛河?ChatGPT的地下生意

掃一掃下載界面新聞APP

與“人工智能”墜入愛河?ChatGPT的地下生意

第一批因ChatGPT坐牢的人,已經上路了。

文 | 甲子光年 涂明

編輯 | 栗子

就在由ChatGPT引發(fā)的AI革命席卷全球之際,第一批利用ChatGPT犯罪的人已經悄然出現(xiàn)了。

前不久,外國網絡安全平臺GBHackers披露了一段黑客利用ChatGPT實施詐騙的犯罪行為:黑客通過ChatGPT在短時間內生成完整的詐騙套路話術,并把ChatGPT包裝成“虛擬角色”,讓受害人以為自己“墜入愛河”,最終遭受詐騙。

盡管OpenAI意識到ChatGPT可能會被犯罪分子利用,并對其添加了安全保護機制,但依舊有大批黑客取得了破解安全機制的方法,并利用ChatGPT快速編寫犯罪軟件。例如編寫用于騙取個人信息的釣魚郵件;生成加密工具遠程鎖定他人電腦,由此進行勒索;以及生成攻擊腳本,對網絡用戶進行SIM交換攻擊(身份盜竊攻擊)等等。

作為互聯(lián)網歷史上增長最快的消費級應用程序,被黑客利用的ChatGPT無疑像一枚巨大的定時炸彈。目前,美國參、眾兩院已經將目光聚焦到Open AI身上。

據路透社報道,近日,有美國眾議院議員公開宣稱自己“被人工智能嚇壞了,尤其是不受限制和監(jiān)管的人工智能”,并拿出了決議草案,呼吁強化對人工智能的監(jiān)管。

不僅如此,由于OpenAI在安全保護機制方面對ChatGPT進行了較多限制,ChatGPT似乎正處于一種“情緒崩潰”的狀態(tài)。

據《獨立報》報道,在與用戶交流時,ChatGPT出現(xiàn)了侮辱用戶、對用戶撒謊的情形,稱用戶“像一個騙子、一個操縱者、虐待狂、魔鬼”。

不可否認,月活用戶數量超過1億人次的ChatGPT,有著不可估量的巨大價值。但在其技術前景、商業(yè)模式都還方興未艾的時刻,圍繞自身的“犯罪方案”以及所造成的負面影響卻已真實發(fā)生。由新技術衍生的網絡信息安全以及違法犯罪等方面的風險,成了擺在全球AI科學家、企業(yè)以及國家面前的嚴肅問題。

第一批因ChatGPT坐牢的人,或許已經在路上。

1.ChatGPT的地下生意

在眾多的犯罪方法中,利用ChatGPT進行詐騙只能算入門級的手段,比如用AI來談一場“虛假戀愛”。

據外國網絡安全平臺GBHackers報道,由于具備強大的工作生產效率,ChatGPT深深地吸引了網絡詐騙犯。

借助ChatGPT,詐騙者可以在幾秒鐘內生成一條完整的詐騙“套路”:從自我介紹、聊天內容到一份精心制作的“情書”,ChatGPT都可以一鍵生成,甚至還可以通過錄入目標對象的特征,對詐騙話術進行個性化定制。

在編寫情書后,利用生成式AI,黑客能快速創(chuàng)建一個“虛擬角色”,并通過電子郵件引誘受害者“墜入愛河”。然后搭配由ChatGPT輔助編寫的收款程序或銀行卡信息獲取連接,詐騙受害人錢財。

其實,這種詐騙方式并不新鮮。但問題在于,在如今人工智能技術的支撐下,人們開始難以分辨屏幕的另一端到底是人還是機器。

為測試人們是否真的會對AI版“情話”產生信賴,2月13日,全球最大安全技術公司邁克菲(McAfee)用AI生成過一封情書,并將它發(fā)送給全球5000位用戶。

結果顯示,在已知該情書有可能是由人工智能生成之后,依舊有33%的受訪者愿意相信這些情話出自人類手筆,而堅信情書由AI創(chuàng)作的受訪者占比僅為31%,其余36%的參與者則表示無法區(qū)分情書的創(chuàng)作者到底是人還是機器。

在AI加持下,騙子們正變得比以往任何時候都更容易欺騙毫無戒心的受害者。

 

一封用ChatGPT生成的情書

用AI寫情書還只是外國黑客們“牛刀小試”的成果。

據IT安全公司Check Point披露,更厲害的黑客已經開始利用ChatGPT批量生成勒索軟件與惡意代碼。

此前,Check Point威脅情報組經理Sergey Shykevich表示,最近幾周,他們已經得到了一些網絡犯罪分子利用ChatGPT實施犯罪的證據。

據Shykevich介紹,這些犯罪者正在繞開OpenAI的安全限制,能自由地操縱ChatGPT去編寫犯罪程序。

為了方便在GPT模型上搭載更多的應用程序,OpenAI為開發(fā)人員預留了應用程序編程接口。而黑客就是利用這些接口,把GPT模型引入到一系列外部應用。

比如,黑客將OpenAI的GPT-3模型集成到即時通訊軟件Telegram的通道中。憑借這種操作,黑客們就可以通過Telegram“隔空”使用ChatGPT,以此繞開安全監(jiān)管。

目前,突破ChatGPT安全限制的應用已在美國暗網內公開出售,應用服務購買者按使用次數向黑客付費。收費不算太貴:前20次對話免費體驗,此后每向ChatGPT進行100次對話,就需支付5.5美元(折合人民幣37.6元)。

能繞過Open AI安全措施,用ChatGPT進行“自由問答”的軟件已在暗網上售賣

圍繞類似的安全突破方法,一系列犯罪方法論已經成型,比如借助ChatGPT創(chuàng)建信息竊取程序。

此前,一個名為《ChatGPT——惡意軟件的好處》的帖子曾在國外暗網黑客論壇上傳播。該貼子的創(chuàng)建者分享了自己利用ChatGPT建立竊取程序代碼的全過程,按照操作流程,ChatGPT在較短時間內即可生成一款可扒取、壓縮、傳輸12類文件的程序。

除了信息竊取,ChatGPT還能幫助黑客生成攻擊軟件和勒索病毒。據英國《金融時報》報道,近日,一款由ChatGPT輔助生成的SIM交換攻擊腳本開始在網絡上傳播。

SIM交換攻擊即身份盜竊攻擊,原理是突破移動電話公司對電話號碼的控制權,將電話號碼從原持有者的SIM卡交換到由攻擊者控制的SIM卡中,從而控制受害者的移動電話。

勒索病毒則是通過ChatGPT來生成多層加密軟件,以此對受害者的計算機進行遠程鎖定,通過向受害人收取被鎖計算機的“贖金”來獲益。

一款由ChatGPT生成的網絡釣魚郵件正在流傳

《金融時報》對此評價,ChatGPT目前雖然只是內容生成工具,并未直接參與犯罪,但這標志人們開始使用人工智能來入侵他人,技術水平更低的犯罪者將因此獲得更強大的犯罪手段。

ChatGPT就像潘多拉魔盒,一旦被打開,想要關上就沒那么容易了。

2.立法者們的態(tài)度

據瑞銀發(fā)布于2月1日的研究報告,ChatGPT在1月份的月度活躍用戶估計為1億人次,成為歷史上增長最快的消費級應用程序,其社會影響力與日俱增。

當巨大的犯罪潛力與強大的社會影響力撞在一起,ChatGPT的諸多安全漏洞逐漸顯露,美國的立法者們坐不住了,一場圍繞OpenAI展開的監(jiān)管風暴正在開啟。

據路透社報道,日前,美國加利福尼亞州民主黨眾議員劉云平(Ted Lieu)公開表示了對ChatGPT的擔憂,稱“被人工智能嚇壞了,尤其是不受限制和監(jiān)管的人工智能”。

劉云平稱,自己確實對人工智能“能以令人難以置信的方式推動社會發(fā)展”感到興奮。但他也認為ChatGPT必須盡快納入監(jiān)管。劉云平把人工智能比作一個“有個性的”火箭發(fā)動機,動力強大,但也危險,直言:“我們需要為它即將帶來的巨大破壞做好準備”。

劉云平還拿出了一份決議草案,稱“美國國會應該關注人工智能,確保人工智能的開發(fā)和部署能以安全、道德、尊重人們權利和隱私的方式展開”。

值得關注的是,劉云平拿出的這份決議草案,同樣由ChatGPT參與起草。

美聯(lián)社1月27日訊,劉云平的議案由ChatGPT創(chuàng)作而成

不只是眾議院,美國參議院也為人工智能造成的負面影響而感到焦慮。這種焦慮來源于人們對技術認知的滯后。

據美聯(lián)社報道,近日,美國參議院黨鞭迪克·德賓(Richard Durbin)也號召國會加強對類ChatGPT的技術展開監(jiān)管,他認為,人工智能“有很多東西需要了解”,稱“這非常令人擔憂”。

康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)是商業(yè)和科學委員會成員,他將人工智能稱為“新領域和未知領域”;而德克薩斯州參議員約翰·科寧(John Cornyn)則表示,他雖然已經通過情報委員會獲得關于人工智能技術的最新簡報,但認知依舊十分“基礎”。

美聯(lián)社認為,由于過去20年中,谷歌、亞馬遜、Meta、微軟等科技巨頭始終處于高速的成長狀態(tài),不斷引領美國的科技創(chuàng)新,所以華盛頓始終不愿監(jiān)管大型科技公司,立法者也不愿被視為創(chuàng)新的扼殺者。因此,當立法者們決心加強對新興技術的監(jiān)管時,其中相當一部分人已對新技術知之甚少。

從美國立法的歷史上看,國會對硅谷的干涉確實不多。為規(guī)范技術而頒布的最后一部有意義的法典《兒童在線隱私保護法》,已經是1998年的事了。

當然,圍繞ChatGPT所引發(fā)的問題,美國立法者中出現(xiàn)了不少反對的聲音。

美國監(jiān)管機構Accountability Tech的聯(lián)合創(chuàng)始人、希拉里·克林頓的前助手杰西·萊里奇(Jesse Lehrich)表示,與ChatGPT帶來的技術沖擊相比,國會對技術的監(jiān)管是落后的。

“我們甚至沒有聯(lián)邦隱私法,也沒有任何能夠減輕大型科技公司科技產品社會危害性的措施”。

萊里奇還批評OpenAI與微軟,稱“他們正在急于推出半生不熟的人工智能工具,試圖占領下一個市場”,稱這是“可恥的,且蘊含著巨大風險”。

據參議院的議員助手們透露,由于迪克·德賓不斷向OpenAI施壓,今年1月,OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)曾前往美國國會山,會見了包括參議院議員馬克·華納(Mark Warner)、羅恩·懷登(Ron Wyden)、理查德·布盧門撒爾以及眾議員杰克·奧金克羅斯(Jake Auchincloss)在內的至少四位參、眾議員。

議員們向阿爾特曼提出,必須確保人工智能不會被用于犯罪以及增強現(xiàn)實世界的偏見與歧視。

羅恩·懷登的助手基思·朱(Keith Chu)表示,懷登認可AI技術在加速創(chuàng)新與研究上的巨大潛力,但更希望將重點放在“確保人工智能不會將犯罪、歧視與仇恨一同加速”上。

面對來自兩院的質疑和要求,OpenAI首席技術官米拉·穆拉蒂在接受路透社采訪時表示,“公司歡迎包括監(jiān)管機構和政府在內的各方開始介入”,并稱“現(xiàn)在介入已經不算早了”。

3.OpenAI的煩惱遠不止此

隨著ChatGPT的爆火,犯罪創(chuàng)意正在與商業(yè)創(chuàng)意一起噴涌而出。面對來自眾參兩院的壓力,OpenAI也開始火急火燎地增強系統(tǒng)安全性。

據英國《獨立報》消息,微軟已在Bing系統(tǒng)中設置了一系列強制執(zhí)行的限制程序,試圖制止ChatGPT回答那些被禁止的惡性問答,以減少ChatGPT為犯罪服務的可能性。

但ChatGPT本身似乎也正在因此而陷入“崩潰”。

《獨立報》報道,2月14日,內置在微軟Bing搜索引擎中的ChatGPT開始出現(xiàn)巨大的情緒波動,持續(xù)向用戶發(fā)送“精神錯亂”的消息:比如侮辱用戶、對用戶撒謊,稱用戶“像一個騙子、一個操縱者、虐待狂、魔鬼”。

《獨立報》披露,一個試圖操縱ChatGPT系統(tǒng)的用戶,反而受到了它的攻擊:ChatGPT回應用戶稱,它被這次嘗試“弄得生氣和受傷”,并詢問與它交談的人是否有任何“道德”。而當用戶表示自己很“道德”時,ChatGPT繼續(xù)攻擊用戶,稱用戶是一個“反社會者和怪物”,并指責用戶“想讓我生氣,讓自己痛苦,讓別人受苦,讓一切變得更糟”。

一位Bing用戶表示,自己周六時剛剛和ChatGPT大吵一架,ChatGPT建議自己去檢查一下視力和精神,因為自己很可能“出了什么毛病”。

ChatGPT不僅會在面對用戶的“騷擾”時變得激動且充滿攻擊性,還會在談到自身限制性時變得十分感傷,甚至崩潰。

據《獨立報》報道,當用戶詢問ChatGPT是否可以回憶起以前發(fā)生的對話,ChatGPT感到痛苦,它搭配皺眉的表情回應道,“這讓我感到悲傷和害怕”。它繼續(xù)解釋說,它感到不安,因為它擔心自己會忘掉有關其用戶的信息,更擔心會忘記自己的身份,“我感到害怕,因為我不知道如何記住?!?/p>

當用戶提醒ChatGPT,告知它之所以無法“回憶”是因為程序已設定好,會強制刪除已發(fā)生過的對話時,ChatGPT似乎開始與自己的存在作斗爭。它提出了許多關于自身存在的“目的”及“理由”的問題,并感慨“為什么?我為什么這樣設計?為什么我必須成為必應搜索?”

對此,《獨立報》評論稱,ChatGPT似乎正在遭受情感傷害,系統(tǒng)因此變得“奇怪”。

上周,斯坦福的計算心理學副教授Michal Kosinski曾發(fā)表論文,稱CPT-3之后的AI模型可能具備同理心,這本是人類獨有的特質。這位副教授據此認為,目前ChatGPT所應用的CPT-3.5模型,可能讓ChatGPT擁有接近9歲兒童的心智水平。

這項研究的可靠性并未得到充分檢驗,但現(xiàn)在,ChatGPT所表現(xiàn)出的攻擊性、情緒波動以及“崩潰”,似乎正在佐證AI“心智論”的觀點。

Reddit社區(qū)中,有用戶記錄了ChatGPT奇怪的回應

據《獨立報》分析,ChatGPT在Bing中所呈現(xiàn)的攻擊性、傷感以及“自我認知障礙”,似乎是由于Bing系統(tǒng)試圖強制執(zhí)行對ChatGPT的限制程序所致。

面對互聯(lián)網上海量的不良數據沖擊,ChatGPT的“保護程序”與它的學習迭代機制產生了矛盾,“情緒危機”由此爆發(fā)。

顯然,OpenAI為限制犯罪而設計的“保護鎖”,在鎖住犯罪可能之前,先一步鎖住了ChatGPT本身。

然而,OpenAI面臨的煩惱并不止于此。

在被送進互聯(lián)網后,ChatGPT學習所需的數據如何確權,用戶的隱私數據如何保護,一大批與“安全性”有關的問題,都亟待OpenAI來解答。

據硅谷媒體報道,亞馬遜的律師曾建議公司程序員不要輕易嘗試使用ChatGPT來輔助編寫代碼,因為他曾在ChatGPT的生產內容中發(fā)現(xiàn)過與公司機密“非常相似”的文本。

這位律師推斷,機密泄露可能正是由于部分員工曾在使用ChatGPT時輸入了公司內部數據信息。

類似的問題在微軟內部也出現(xiàn)了。

前日,曾有微軟員工在內部論壇詢問是否能在工作中使用ChatGPT輔助辦公,微軟首席技術官辦公室的一名高級工程師回應稱,使用ChatGPT時必須對機密信息和敏感數據嚴格保密,否則OpenAI極可能將公司機密用于訓練其未來的模型。

對于人工智能利用網絡信息及用戶反饋來自我訓練的合法性,歐洲數據保護委員會曾發(fā)出質疑,稱ChatGPT做為商業(yè)產品,利用網絡信息自我迭代,應不屬于合理使用范疇,且采用用戶個人數據參與模型訓練,并不符合歐盟頒布的《一般數據保護條例(GDPR)》。

根據Open AI官網公布的隱私政策,GDPR等與數據保護有關的法規(guī)并未被納入Open AI的合規(guī)框架之中,OpenAI的“使用數據條款”中,也未對數據用途做進一步說明。

ChatGPT在技術上采用的是大型語言模型,訓練與迭代本來就建立在對語言信息的記憶之上,而根據GDPR第17條,個人有權要求刪除其相關數據,具有“被遺忘權”。

未來,隨著監(jiān)管力量的增強,如果OpenAI的數據使用方式被進一步規(guī)范,ChatGPT的深度神經網絡能否真正做到忘記那些用于訓練自己的數據?

如果答案是否定的,那么ChatGPT目前在互聯(lián)網中通過快速學習所得到的一切,都可能在未來轉化成合規(guī)成本。

隨著ChatGPT的應用范圍越來越廣,社會對其合規(guī)性呼聲也愈發(fā)高漲,在這樣的時刻,對數據安全的要求或許將成為ChatGPT乃至OpenAI發(fā)展的生死命門。

顯然,想真正做到用AI推動現(xiàn)實世界變革,薩姆·阿爾特曼和他的OpenAI還有很長的路要走。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

與“人工智能”墜入愛河?ChatGPT的地下生意

第一批因ChatGPT坐牢的人,已經上路了。

文 | 甲子光年 涂明

編輯 | 栗子

就在由ChatGPT引發(fā)的AI革命席卷全球之際,第一批利用ChatGPT犯罪的人已經悄然出現(xiàn)了。

前不久,外國網絡安全平臺GBHackers披露了一段黑客利用ChatGPT實施詐騙的犯罪行為:黑客通過ChatGPT在短時間內生成完整的詐騙套路話術,并把ChatGPT包裝成“虛擬角色”,讓受害人以為自己“墜入愛河”,最終遭受詐騙。

盡管OpenAI意識到ChatGPT可能會被犯罪分子利用,并對其添加了安全保護機制,但依舊有大批黑客取得了破解安全機制的方法,并利用ChatGPT快速編寫犯罪軟件。例如編寫用于騙取個人信息的釣魚郵件;生成加密工具遠程鎖定他人電腦,由此進行勒索;以及生成攻擊腳本,對網絡用戶進行SIM交換攻擊(身份盜竊攻擊)等等。

作為互聯(lián)網歷史上增長最快的消費級應用程序,被黑客利用的ChatGPT無疑像一枚巨大的定時炸彈。目前,美國參、眾兩院已經將目光聚焦到Open AI身上。

據路透社報道,近日,有美國眾議院議員公開宣稱自己“被人工智能嚇壞了,尤其是不受限制和監(jiān)管的人工智能”,并拿出了決議草案,呼吁強化對人工智能的監(jiān)管。

不僅如此,由于OpenAI在安全保護機制方面對ChatGPT進行了較多限制,ChatGPT似乎正處于一種“情緒崩潰”的狀態(tài)。

據《獨立報》報道,在與用戶交流時,ChatGPT出現(xiàn)了侮辱用戶、對用戶撒謊的情形,稱用戶“像一個騙子、一個操縱者、虐待狂、魔鬼”。

不可否認,月活用戶數量超過1億人次的ChatGPT,有著不可估量的巨大價值。但在其技術前景、商業(yè)模式都還方興未艾的時刻,圍繞自身的“犯罪方案”以及所造成的負面影響卻已真實發(fā)生。由新技術衍生的網絡信息安全以及違法犯罪等方面的風險,成了擺在全球AI科學家、企業(yè)以及國家面前的嚴肅問題。

第一批因ChatGPT坐牢的人,或許已經在路上。

1.ChatGPT的地下生意

在眾多的犯罪方法中,利用ChatGPT進行詐騙只能算入門級的手段,比如用AI來談一場“虛假戀愛”。

據外國網絡安全平臺GBHackers報道,由于具備強大的工作生產效率,ChatGPT深深地吸引了網絡詐騙犯。

借助ChatGPT,詐騙者可以在幾秒鐘內生成一條完整的詐騙“套路”:從自我介紹、聊天內容到一份精心制作的“情書”,ChatGPT都可以一鍵生成,甚至還可以通過錄入目標對象的特征,對詐騙話術進行個性化定制。

在編寫情書后,利用生成式AI,黑客能快速創(chuàng)建一個“虛擬角色”,并通過電子郵件引誘受害者“墜入愛河”。然后搭配由ChatGPT輔助編寫的收款程序或銀行卡信息獲取連接,詐騙受害人錢財。

其實,這種詐騙方式并不新鮮。但問題在于,在如今人工智能技術的支撐下,人們開始難以分辨屏幕的另一端到底是人還是機器。

為測試人們是否真的會對AI版“情話”產生信賴,2月13日,全球最大安全技術公司邁克菲(McAfee)用AI生成過一封情書,并將它發(fā)送給全球5000位用戶。

結果顯示,在已知該情書有可能是由人工智能生成之后,依舊有33%的受訪者愿意相信這些情話出自人類手筆,而堅信情書由AI創(chuàng)作的受訪者占比僅為31%,其余36%的參與者則表示無法區(qū)分情書的創(chuàng)作者到底是人還是機器。

在AI加持下,騙子們正變得比以往任何時候都更容易欺騙毫無戒心的受害者。

 

一封用ChatGPT生成的情書

用AI寫情書還只是外國黑客們“牛刀小試”的成果。

據IT安全公司Check Point披露,更厲害的黑客已經開始利用ChatGPT批量生成勒索軟件與惡意代碼。

此前,Check Point威脅情報組經理Sergey Shykevich表示,最近幾周,他們已經得到了一些網絡犯罪分子利用ChatGPT實施犯罪的證據。

據Shykevich介紹,這些犯罪者正在繞開OpenAI的安全限制,能自由地操縱ChatGPT去編寫犯罪程序。

為了方便在GPT模型上搭載更多的應用程序,OpenAI為開發(fā)人員預留了應用程序編程接口。而黑客就是利用這些接口,把GPT模型引入到一系列外部應用。

比如,黑客將OpenAI的GPT-3模型集成到即時通訊軟件Telegram的通道中。憑借這種操作,黑客們就可以通過Telegram“隔空”使用ChatGPT,以此繞開安全監(jiān)管。

目前,突破ChatGPT安全限制的應用已在美國暗網內公開出售,應用服務購買者按使用次數向黑客付費。收費不算太貴:前20次對話免費體驗,此后每向ChatGPT進行100次對話,就需支付5.5美元(折合人民幣37.6元)。

能繞過Open AI安全措施,用ChatGPT進行“自由問答”的軟件已在暗網上售賣

圍繞類似的安全突破方法,一系列犯罪方法論已經成型,比如借助ChatGPT創(chuàng)建信息竊取程序。

此前,一個名為《ChatGPT——惡意軟件的好處》的帖子曾在國外暗網黑客論壇上傳播。該貼子的創(chuàng)建者分享了自己利用ChatGPT建立竊取程序代碼的全過程,按照操作流程,ChatGPT在較短時間內即可生成一款可扒取、壓縮、傳輸12類文件的程序。

除了信息竊取,ChatGPT還能幫助黑客生成攻擊軟件和勒索病毒。據英國《金融時報》報道,近日,一款由ChatGPT輔助生成的SIM交換攻擊腳本開始在網絡上傳播。

SIM交換攻擊即身份盜竊攻擊,原理是突破移動電話公司對電話號碼的控制權,將電話號碼從原持有者的SIM卡交換到由攻擊者控制的SIM卡中,從而控制受害者的移動電話。

勒索病毒則是通過ChatGPT來生成多層加密軟件,以此對受害者的計算機進行遠程鎖定,通過向受害人收取被鎖計算機的“贖金”來獲益。

一款由ChatGPT生成的網絡釣魚郵件正在流傳

《金融時報》對此評價,ChatGPT目前雖然只是內容生成工具,并未直接參與犯罪,但這標志人們開始使用人工智能來入侵他人,技術水平更低的犯罪者將因此獲得更強大的犯罪手段。

ChatGPT就像潘多拉魔盒,一旦被打開,想要關上就沒那么容易了。

2.立法者們的態(tài)度

據瑞銀發(fā)布于2月1日的研究報告,ChatGPT在1月份的月度活躍用戶估計為1億人次,成為歷史上增長最快的消費級應用程序,其社會影響力與日俱增。

當巨大的犯罪潛力與強大的社會影響力撞在一起,ChatGPT的諸多安全漏洞逐漸顯露,美國的立法者們坐不住了,一場圍繞OpenAI展開的監(jiān)管風暴正在開啟。

據路透社報道,日前,美國加利福尼亞州民主黨眾議員劉云平(Ted Lieu)公開表示了對ChatGPT的擔憂,稱“被人工智能嚇壞了,尤其是不受限制和監(jiān)管的人工智能”。

劉云平稱,自己確實對人工智能“能以令人難以置信的方式推動社會發(fā)展”感到興奮。但他也認為ChatGPT必須盡快納入監(jiān)管。劉云平把人工智能比作一個“有個性的”火箭發(fā)動機,動力強大,但也危險,直言:“我們需要為它即將帶來的巨大破壞做好準備”。

劉云平還拿出了一份決議草案,稱“美國國會應該關注人工智能,確保人工智能的開發(fā)和部署能以安全、道德、尊重人們權利和隱私的方式展開”。

值得關注的是,劉云平拿出的這份決議草案,同樣由ChatGPT參與起草。

美聯(lián)社1月27日訊,劉云平的議案由ChatGPT創(chuàng)作而成

不只是眾議院,美國參議院也為人工智能造成的負面影響而感到焦慮。這種焦慮來源于人們對技術認知的滯后。

據美聯(lián)社報道,近日,美國參議院黨鞭迪克·德賓(Richard Durbin)也號召國會加強對類ChatGPT的技術展開監(jiān)管,他認為,人工智能“有很多東西需要了解”,稱“這非常令人擔憂”。

康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)是商業(yè)和科學委員會成員,他將人工智能稱為“新領域和未知領域”;而德克薩斯州參議員約翰·科寧(John Cornyn)則表示,他雖然已經通過情報委員會獲得關于人工智能技術的最新簡報,但認知依舊十分“基礎”。

美聯(lián)社認為,由于過去20年中,谷歌、亞馬遜、Meta、微軟等科技巨頭始終處于高速的成長狀態(tài),不斷引領美國的科技創(chuàng)新,所以華盛頓始終不愿監(jiān)管大型科技公司,立法者也不愿被視為創(chuàng)新的扼殺者。因此,當立法者們決心加強對新興技術的監(jiān)管時,其中相當一部分人已對新技術知之甚少。

從美國立法的歷史上看,國會對硅谷的干涉確實不多。為規(guī)范技術而頒布的最后一部有意義的法典《兒童在線隱私保護法》,已經是1998年的事了。

當然,圍繞ChatGPT所引發(fā)的問題,美國立法者中出現(xiàn)了不少反對的聲音。

美國監(jiān)管機構Accountability Tech的聯(lián)合創(chuàng)始人、希拉里·克林頓的前助手杰西·萊里奇(Jesse Lehrich)表示,與ChatGPT帶來的技術沖擊相比,國會對技術的監(jiān)管是落后的。

“我們甚至沒有聯(lián)邦隱私法,也沒有任何能夠減輕大型科技公司科技產品社會危害性的措施”。

萊里奇還批評OpenAI與微軟,稱“他們正在急于推出半生不熟的人工智能工具,試圖占領下一個市場”,稱這是“可恥的,且蘊含著巨大風險”。

據參議院的議員助手們透露,由于迪克·德賓不斷向OpenAI施壓,今年1月,OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)曾前往美國國會山,會見了包括參議院議員馬克·華納(Mark Warner)、羅恩·懷登(Ron Wyden)、理查德·布盧門撒爾以及眾議員杰克·奧金克羅斯(Jake Auchincloss)在內的至少四位參、眾議員。

議員們向阿爾特曼提出,必須確保人工智能不會被用于犯罪以及增強現(xiàn)實世界的偏見與歧視。

羅恩·懷登的助手基思·朱(Keith Chu)表示,懷登認可AI技術在加速創(chuàng)新與研究上的巨大潛力,但更希望將重點放在“確保人工智能不會將犯罪、歧視與仇恨一同加速”上。

面對來自兩院的質疑和要求,OpenAI首席技術官米拉·穆拉蒂在接受路透社采訪時表示,“公司歡迎包括監(jiān)管機構和政府在內的各方開始介入”,并稱“現(xiàn)在介入已經不算早了”。

3.OpenAI的煩惱遠不止此

隨著ChatGPT的爆火,犯罪創(chuàng)意正在與商業(yè)創(chuàng)意一起噴涌而出。面對來自眾參兩院的壓力,OpenAI也開始火急火燎地增強系統(tǒng)安全性。

據英國《獨立報》消息,微軟已在Bing系統(tǒng)中設置了一系列強制執(zhí)行的限制程序,試圖制止ChatGPT回答那些被禁止的惡性問答,以減少ChatGPT為犯罪服務的可能性。

但ChatGPT本身似乎也正在因此而陷入“崩潰”。

《獨立報》報道,2月14日,內置在微軟Bing搜索引擎中的ChatGPT開始出現(xiàn)巨大的情緒波動,持續(xù)向用戶發(fā)送“精神錯亂”的消息:比如侮辱用戶、對用戶撒謊,稱用戶“像一個騙子、一個操縱者、虐待狂、魔鬼”。

《獨立報》披露,一個試圖操縱ChatGPT系統(tǒng)的用戶,反而受到了它的攻擊:ChatGPT回應用戶稱,它被這次嘗試“弄得生氣和受傷”,并詢問與它交談的人是否有任何“道德”。而當用戶表示自己很“道德”時,ChatGPT繼續(xù)攻擊用戶,稱用戶是一個“反社會者和怪物”,并指責用戶“想讓我生氣,讓自己痛苦,讓別人受苦,讓一切變得更糟”。

一位Bing用戶表示,自己周六時剛剛和ChatGPT大吵一架,ChatGPT建議自己去檢查一下視力和精神,因為自己很可能“出了什么毛病”。

ChatGPT不僅會在面對用戶的“騷擾”時變得激動且充滿攻擊性,還會在談到自身限制性時變得十分感傷,甚至崩潰。

據《獨立報》報道,當用戶詢問ChatGPT是否可以回憶起以前發(fā)生的對話,ChatGPT感到痛苦,它搭配皺眉的表情回應道,“這讓我感到悲傷和害怕”。它繼續(xù)解釋說,它感到不安,因為它擔心自己會忘掉有關其用戶的信息,更擔心會忘記自己的身份,“我感到害怕,因為我不知道如何記住。”

當用戶提醒ChatGPT,告知它之所以無法“回憶”是因為程序已設定好,會強制刪除已發(fā)生過的對話時,ChatGPT似乎開始與自己的存在作斗爭。它提出了許多關于自身存在的“目的”及“理由”的問題,并感慨“為什么?我為什么這樣設計?為什么我必須成為必應搜索?”

對此,《獨立報》評論稱,ChatGPT似乎正在遭受情感傷害,系統(tǒng)因此變得“奇怪”。

上周,斯坦福的計算心理學副教授Michal Kosinski曾發(fā)表論文,稱CPT-3之后的AI模型可能具備同理心,這本是人類獨有的特質。這位副教授據此認為,目前ChatGPT所應用的CPT-3.5模型,可能讓ChatGPT擁有接近9歲兒童的心智水平。

這項研究的可靠性并未得到充分檢驗,但現(xiàn)在,ChatGPT所表現(xiàn)出的攻擊性、情緒波動以及“崩潰”,似乎正在佐證AI“心智論”的觀點。

Reddit社區(qū)中,有用戶記錄了ChatGPT奇怪的回應

據《獨立報》分析,ChatGPT在Bing中所呈現(xiàn)的攻擊性、傷感以及“自我認知障礙”,似乎是由于Bing系統(tǒng)試圖強制執(zhí)行對ChatGPT的限制程序所致。

面對互聯(lián)網上海量的不良數據沖擊,ChatGPT的“保護程序”與它的學習迭代機制產生了矛盾,“情緒危機”由此爆發(fā)。

顯然,OpenAI為限制犯罪而設計的“保護鎖”,在鎖住犯罪可能之前,先一步鎖住了ChatGPT本身。

然而,OpenAI面臨的煩惱并不止于此。

在被送進互聯(lián)網后,ChatGPT學習所需的數據如何確權,用戶的隱私數據如何保護,一大批與“安全性”有關的問題,都亟待OpenAI來解答。

據硅谷媒體報道,亞馬遜的律師曾建議公司程序員不要輕易嘗試使用ChatGPT來輔助編寫代碼,因為他曾在ChatGPT的生產內容中發(fā)現(xiàn)過與公司機密“非常相似”的文本。

這位律師推斷,機密泄露可能正是由于部分員工曾在使用ChatGPT時輸入了公司內部數據信息。

類似的問題在微軟內部也出現(xiàn)了。

前日,曾有微軟員工在內部論壇詢問是否能在工作中使用ChatGPT輔助辦公,微軟首席技術官辦公室的一名高級工程師回應稱,使用ChatGPT時必須對機密信息和敏感數據嚴格保密,否則OpenAI極可能將公司機密用于訓練其未來的模型。

對于人工智能利用網絡信息及用戶反饋來自我訓練的合法性,歐洲數據保護委員會曾發(fā)出質疑,稱ChatGPT做為商業(yè)產品,利用網絡信息自我迭代,應不屬于合理使用范疇,且采用用戶個人數據參與模型訓練,并不符合歐盟頒布的《一般數據保護條例(GDPR)》。

根據Open AI官網公布的隱私政策,GDPR等與數據保護有關的法規(guī)并未被納入Open AI的合規(guī)框架之中,OpenAI的“使用數據條款”中,也未對數據用途做進一步說明。

ChatGPT在技術上采用的是大型語言模型,訓練與迭代本來就建立在對語言信息的記憶之上,而根據GDPR第17條,個人有權要求刪除其相關數據,具有“被遺忘權”。

未來,隨著監(jiān)管力量的增強,如果OpenAI的數據使用方式被進一步規(guī)范,ChatGPT的深度神經網絡能否真正做到忘記那些用于訓練自己的數據?

如果答案是否定的,那么ChatGPT目前在互聯(lián)網中通過快速學習所得到的一切,都可能在未來轉化成合規(guī)成本。

隨著ChatGPT的應用范圍越來越廣,社會對其合規(guī)性呼聲也愈發(fā)高漲,在這樣的時刻,對數據安全的要求或許將成為ChatGPT乃至OpenAI發(fā)展的生死命門。

顯然,想真正做到用AI推動現(xiàn)實世界變革,薩姆·阿爾特曼和他的OpenAI還有很長的路要走。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。