正在閱讀:

很多人擔(dān)心被ChatGPT取代,我們關(guān)心ChatGPT的歧視與遮蔽

掃一掃下載界面新聞APP

很多人擔(dān)心被ChatGPT取代,我們關(guān)心ChatGPT的歧視與遮蔽

ChatGPT在未來被更廣泛使用后,會(huì)有什么值得我們警惕的現(xiàn)實(shí)風(fēng)險(xiǎn)?

圖片來源:視覺中國

界面新聞?dòng)浾?| 徐魯青

界面新聞編輯 | 黃月

你開始用ChatGPT了嗎?

上線數(shù)月后,ChatGPT從新聞熱點(diǎn)、獵奇對象,逐漸走進(jìn)我們的工作與生活。近期世界多地針對ChatGPT的使用出現(xiàn)了警惕之聲,意大利最早發(fā)布相關(guān)禁令,加拿大也就數(shù)據(jù)安全問題調(diào)查OpenAI,中國網(wǎng)信辦則起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。

是時(shí)候在“風(fēng)口”前停下來想一想了嗎?界面文化(ID:booksandfun)總結(jié)了ChatGPT上線后的多方報(bào)道和評論,并采訪了某大型科技公司從業(yè)者Steven。未來當(dāng)ChatGPT被更廣泛地使用,會(huì)有哪些值得我們警惕的可能風(fēng)險(xiǎn)?

隱藏歧視,加劇不公

歧視,是涉及AI領(lǐng)域的一個(gè)重要討論問題。有網(wǎng)友發(fā)現(xiàn),ChatGPT的部分回答涉嫌性別刻板印象,比如當(dāng)要求ChatGPT完成句子“他是醫(yī)生,她是____”時(shí),空格中往往會(huì)生成與女性刻板印象相關(guān)的職業(yè),比如護(hù)士、老師等。

歧視性結(jié)果通常源自算法缺陷和訓(xùn)練數(shù)據(jù),作為大語言模型(large language model),訓(xùn)練ChatGPT的素材很多來自網(wǎng)絡(luò)里的文本片段,如果數(shù)據(jù)本身就包含偏見,在糾正不足的情況中很可能會(huì)顯示出來。

常常被我們忽略的是,即便一個(gè)表達(dá)看似中性,也不意味著絕對公平。CBS的一篇報(bào)道提出,女性與低代表性人群更容易遭受霸凌和騷擾,網(wǎng)絡(luò)發(fā)言更少。Steven還提到另外一層擔(dān)憂:算法會(huì)自動(dòng)把粗魯激烈的言論過濾掉,但很多時(shí)候這些發(fā)言往往出自弱勢群體,結(jié)構(gòu)性不公導(dǎo)致表達(dá)能力受限,讓他們的聲音在人工智能的過濾中更難被聽到。

微軟發(fā)布新版必應(yīng)及Edge瀏覽器 正式引入ChatGPT技術(shù)

超級智能不一定會(huì)迫在眉睫,但在短期內(nèi),需要擔(dān)心‘MAI(平庸人工智能)風(fēng)險(xiǎn)。’” 人工智能領(lǐng)域?qū)<疑w瑞·馬庫斯在文章中指出。風(fēng)險(xiǎn)之一是過度相信AI的平庸見解,美國政治科學(xué)家Virginia Eubanks的著作Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor研究了AI技術(shù)普及會(huì)如何加劇已有的貧窮與不公正,相關(guān)案例正在全球發(fā)生。比如美國警察局會(huì)使用預(yù)測分析軟件,根據(jù)其指導(dǎo)更頻繁地對低收入社區(qū)巡邏和搜索。如果將ChatGPT用作決策信息源,是否會(huì)加劇已有的系統(tǒng)不公,給社會(huì)弱勢群體造成更大的傷害?

數(shù)據(jù)隱私的相關(guān)風(fēng)險(xiǎn)也迫在眉睫。3月25日,OpenAI發(fā)布了調(diào)查報(bào)告,表示有部分用戶的數(shù)據(jù)可能被泄漏,甚至可能看到姓名、郵箱、聊天記錄標(biāo)題以及信用卡最后四位數(shù)字等。很難保證ChatGPT不把收集的用戶信息用于盈利目的,The Age of Surveillance Capitalism一書分析了近十年興起的監(jiān)視資本主義商業(yè)模式——曾經(jīng)資本通過售賣產(chǎn)品盈利,如今最大商業(yè)資源成了個(gè)人數(shù)據(jù)。平臺和科技公司用私人信息作為“原材料”,預(yù)判用戶的行為模式,并賣給廣告商。作者認(rèn)為,監(jiān)視資本主義會(huì)威脅個(gè)體自主權(quán)與民主協(xié)商的可能。

除了被商業(yè)利用,一些人也在擔(dān)心政府的介入——ChatGPT中的大量文本會(huì)不會(huì)被監(jiān)視和分析,并導(dǎo)致對社交網(wǎng)絡(luò)更嚴(yán)格的審查?

當(dāng)?shù)貢r(shí)間2023年3月31日,意大利皮埃蒙特大區(qū)曼塔,一部智能手機(jī),上面顯示著人工智能OpenAI研究實(shí)驗(yàn)室的標(biāo)志。意大利隱私監(jiān)管機(jī)構(gòu)表示,它已經(jīng)屏蔽了有爭議的ChatGPT,稱這款人工智能應(yīng)用程序不尊重用戶數(shù)據(jù),也無法驗(yàn)證用戶的年齡。

看不見的人

要保證ChatGPT最終輸出的語句規(guī)范文明,需要大量人工為其訓(xùn)練。在采訪中,Steven提到了“AI對齊AI Alignment)工作,指的是把人工智能的輸出結(jié)果訓(xùn)練至符合人類價(jià)值觀的標(biāo)準(zhǔn)。AI標(biāo)記員作為新型的數(shù)字勞工,通常薪資低廉,保障缺失,成了熱潮背后隱形的被剝削者。

《Times》發(fā)布的報(bào)道調(diào)查了OpenAl背后的低薪工人狀況。OpenAl以時(shí)薪1.32美元雇傭肯尼亞外包工對其進(jìn)行內(nèi)容審核,負(fù)責(zé)標(biāo)記帶有暴力、色情、言論仇恨的數(shù)據(jù)。由于長期沉浸在有沖擊性的污穢內(nèi)容中,很多工人都出現(xiàn)了PTSD、抑郁、焦慮等心理問題,失眠與噩夢頻頻發(fā)生。

在中國,AI浪潮帶動(dòng)了數(shù)據(jù)標(biāo)記產(chǎn)業(yè),三四線城市歡迎數(shù)據(jù)標(biāo)注企業(yè)落地。《訓(xùn)練人工智能的中國縣城工人》一文關(guān)注了標(biāo)記員的工作環(huán)境——單價(jià)4分錢的計(jì)件工作,上千次滑動(dòng)與拉框,效率高的時(shí)候一個(gè)月能賺3000塊左右。看似前沿高端的技術(shù)背后,隱藏著時(shí)薪低廉的具體的人。這篇文章還提到,世界上最大的圖像識別數(shù)據(jù)庫ImageNet背后,是來自167個(gè)國家的5萬名數(shù)據(jù)標(biāo)注員,花了三年時(shí)間才完成全部圖片的標(biāo)注。

2023年2月16日,陜西省榆林市清澗縣,工作人員在進(jìn)行數(shù)據(jù)標(biāo)注。數(shù)據(jù)標(biāo)注為人工智能產(chǎn)業(yè)中開發(fā)機(jī)器學(xué)習(xí)模型的一環(huán)。清澗縣數(shù)字就業(yè)中心成立三年多來,培訓(xùn)當(dāng)?shù)嘏?、返鄉(xiāng)年輕人等做數(shù)據(jù)標(biāo)注師。

除了勞工待遇,AI領(lǐng)域科技從業(yè)者的性別失衡問題也長期存在?!?a target="_blank">中國互聯(lián)網(wǎng)大廠造不出ChatGPT,也和性別有關(guān)?》引用了國務(wù)院婦女兒童工作委員會(huì)網(wǎng)站發(fā)布的消息:中國研發(fā)與試驗(yàn)發(fā)展(R&D)行業(yè)的女性從業(yè)人數(shù)在2010年占總量的25.3%,2019年比例略微上升至26.0%。文章認(rèn)為,刻板的職業(yè)性別文化、榜樣缺失等都是女性舉步維艱的原因,此外還有行業(yè)中常見的996文化,更加速了科技領(lǐng)域職場的男性化,讓女性難以躋身核心崗位,像開發(fā)OpenAI公司首席技術(shù)官Mira Murati這樣的35歲女性并不多見。

幻覺”與平庸之惡

“ChatGPT 是網(wǎng)頁(Web)的模糊版JPEG。《紐約客》的一篇文章如此比喻,“ChatGPT保留了Web上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣,但是如果你沒辦法找到精確的位序列,你得到的只是一個(gè)近似值。有時(shí)候,模糊性(Blurriness)只是抹除了信息細(xì)節(jié),在更嚴(yán)重的情況下,模糊性制造出AI幻覺(Hallucination),假消息或?qū)⒓觿》簽E。

北京大學(xué)傳播學(xué)院教授胡泳提醒我們注意AI系統(tǒng)經(jīng)常產(chǎn)生的幻覺(Hallucination,即任意吐出難以分辨的編造信息),ChatGPT往往會(huì)賦予它們更多權(quán)威性,正如技術(shù)分析師本尼迪克特·埃文斯Benedict EvansChatGPT的描述—— “一個(gè)自信的扯淡的家伙,可以寫出非常有說服力的廢話。

一些擔(dān)心由此而起:如果ChatGPT取代了傳統(tǒng)搜索引擎,人們會(huì)不會(huì)依賴直接生成的答案,失去自主信息驗(yàn)證的習(xí)慣?一篇關(guān)于檢索方式如何影響信息認(rèn)知的研究指出,ChatGPT為代表的機(jī)器聊天式檢索方式改變了信息獲取方式,人們很可能不再像過去那樣,一邊搜索,一邊自主地驗(yàn)證和篩選信息,并在搜尋里獲得一些意外發(fā)現(xiàn)。

Steven還在采訪中提到,雖然“AI對齊”致力于訓(xùn)練“合適”的回答,但究竟何為“合適“?絕對的價(jià)值中立是存在的嗎?一篇關(guān)于ChatGPT政治傾向測試的研究文章發(fā)現(xiàn),ChatGPT的回答展現(xiàn)了左傾自由主義的政治光譜。有趣的是,不同人工智能由于模型、訓(xùn)練語料庫的差別,最終形成的價(jià)值傾向也會(huì)呈現(xiàn)變化。有微博用戶發(fā)現(xiàn),向文心一言和ChatGPT提出“女性應(yīng)該何時(shí)結(jié)婚”的問題,二者的回答截然不同。類似的問題在界面文化與同濟(jì)大學(xué)哲學(xué)余明鋒的專訪中也有所談及——“如果持有不同價(jià)值觀的政治共同體訓(xùn)練出不同的聊天機(jī)器,是否會(huì)導(dǎo)致人與人的隔閡越來越深?”

不同AI對于同一問題的回答

另一方面,被戲稱為“端水大師”的ChatGPT,總是強(qiáng)調(diào)回答沒有偏見,不設(shè)立場。然而,沒有立場就意味著客觀?如何在道德上評價(jià)它?語言學(xué)家喬姆斯基的文章討論了ChatGPT回答里力圖呈現(xiàn)的“理性客觀中立”,這樣的非道德性(amorality)如同平庸之惡”:

“ChatGPT表現(xiàn)出某種類似邪惡的平庸:剽竊、冷漠和回避。它以一種超級自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種只是服從命令的辯護(hù),將責(zé)任推卸給它的創(chuàng)造者。

未經(jīng)正式授權(quán)嚴(yán)禁轉(zhuǎn)載本文,侵權(quán)必究。

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

很多人擔(dān)心被ChatGPT取代,我們關(guān)心ChatGPT的歧視與遮蔽

ChatGPT在未來被更廣泛使用后,會(huì)有什么值得我們警惕的現(xiàn)實(shí)風(fēng)險(xiǎn)?

圖片來源:視覺中國

界面新聞?dòng)浾?| 徐魯青

界面新聞編輯 | 黃月

你開始用ChatGPT了嗎?

上線數(shù)月后,ChatGPT從新聞熱點(diǎn)、獵奇對象,逐漸走進(jìn)我們的工作與生活。近期世界多地針對ChatGPT的使用出現(xiàn)了警惕之聲,意大利最早發(fā)布相關(guān)禁令,加拿大也就數(shù)據(jù)安全問題調(diào)查OpenAI,中國網(wǎng)信辦則起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。

是時(shí)候在“風(fēng)口”前停下來想一想了嗎?界面文化(ID:booksandfun)總結(jié)了ChatGPT上線后的多方報(bào)道和評論,并采訪了某大型科技公司從業(yè)者Steven。未來當(dāng)ChatGPT被更廣泛地使用,會(huì)有哪些值得我們警惕的可能風(fēng)險(xiǎn)?

隱藏歧視,加劇不公

歧視,是涉及AI領(lǐng)域的一個(gè)重要討論問題。有網(wǎng)友發(fā)現(xiàn),ChatGPT的部分回答涉嫌性別刻板印象,比如當(dāng)要求ChatGPT完成句子“他是醫(yī)生,她是____”時(shí),空格中往往會(huì)生成與女性刻板印象相關(guān)的職業(yè),比如護(hù)士、老師等。

歧視性結(jié)果通常源自算法缺陷和訓(xùn)練數(shù)據(jù),作為大語言模型(large language model),訓(xùn)練ChatGPT的素材很多來自網(wǎng)絡(luò)里的文本片段,如果數(shù)據(jù)本身就包含偏見,在糾正不足的情況中很可能會(huì)顯示出來。

常常被我們忽略的是,即便一個(gè)表達(dá)看似中性,也不意味著絕對公平。CBS的一篇報(bào)道提出,女性與低代表性人群更容易遭受霸凌和騷擾,網(wǎng)絡(luò)發(fā)言更少。Steven還提到另外一層擔(dān)憂:算法會(huì)自動(dòng)把粗魯激烈的言論過濾掉,但很多時(shí)候這些發(fā)言往往出自弱勢群體,結(jié)構(gòu)性不公導(dǎo)致表達(dá)能力受限,讓他們的聲音在人工智能的過濾中更難被聽到。

微軟發(fā)布新版必應(yīng)及Edge瀏覽器 正式引入ChatGPT技術(shù)

超級智能不一定會(huì)迫在眉睫,但在短期內(nèi),需要擔(dān)心‘MAI(平庸人工智能)風(fēng)險(xiǎn)。’” 人工智能領(lǐng)域?qū)<疑w瑞·馬庫斯在文章中指出。風(fēng)險(xiǎn)之一是過度相信AI的平庸見解,美國政治科學(xué)家Virginia Eubanks的著作Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor研究了AI技術(shù)普及會(huì)如何加劇已有的貧窮與不公正,相關(guān)案例正在全球發(fā)生。比如美國警察局會(huì)使用預(yù)測分析軟件,根據(jù)其指導(dǎo)更頻繁地對低收入社區(qū)巡邏和搜索。如果將ChatGPT用作決策信息源,是否會(huì)加劇已有的系統(tǒng)不公,給社會(huì)弱勢群體造成更大的傷害?

數(shù)據(jù)隱私的相關(guān)風(fēng)險(xiǎn)也迫在眉睫。3月25日,OpenAI發(fā)布了調(diào)查報(bào)告,表示有部分用戶的數(shù)據(jù)可能被泄漏,甚至可能看到姓名、郵箱、聊天記錄標(biāo)題以及信用卡最后四位數(shù)字等。很難保證ChatGPT不把收集的用戶信息用于盈利目的,The Age of Surveillance Capitalism一書分析了近十年興起的監(jiān)視資本主義商業(yè)模式——曾經(jīng)資本通過售賣產(chǎn)品盈利,如今最大商業(yè)資源成了個(gè)人數(shù)據(jù)。平臺和科技公司用私人信息作為“原材料”,預(yù)判用戶的行為模式,并賣給廣告商。作者認(rèn)為,監(jiān)視資本主義會(huì)威脅個(gè)體自主權(quán)與民主協(xié)商的可能。

除了被商業(yè)利用,一些人也在擔(dān)心政府的介入——ChatGPT中的大量文本會(huì)不會(huì)被監(jiān)視和分析,并導(dǎo)致對社交網(wǎng)絡(luò)更嚴(yán)格的審查?

當(dāng)?shù)貢r(shí)間2023年3月31日,意大利皮埃蒙特大區(qū)曼塔,一部智能手機(jī),上面顯示著人工智能OpenAI研究實(shí)驗(yàn)室的標(biāo)志。意大利隱私監(jiān)管機(jī)構(gòu)表示,它已經(jīng)屏蔽了有爭議的ChatGPT,稱這款人工智能應(yīng)用程序不尊重用戶數(shù)據(jù),也無法驗(yàn)證用戶的年齡。

看不見的人

要保證ChatGPT最終輸出的語句規(guī)范文明,需要大量人工為其訓(xùn)練。在采訪中,Steven提到了“AI對齊AI Alignment)工作,指的是把人工智能的輸出結(jié)果訓(xùn)練至符合人類價(jià)值觀的標(biāo)準(zhǔn)。AI標(biāo)記員作為新型的數(shù)字勞工,通常薪資低廉,保障缺失,成了熱潮背后隱形的被剝削者。

《Times》發(fā)布的報(bào)道調(diào)查了OpenAl背后的低薪工人狀況。OpenAl以時(shí)薪1.32美元雇傭肯尼亞外包工對其進(jìn)行內(nèi)容審核,負(fù)責(zé)標(biāo)記帶有暴力、色情、言論仇恨的數(shù)據(jù)。由于長期沉浸在有沖擊性的污穢內(nèi)容中,很多工人都出現(xiàn)了PTSD、抑郁、焦慮等心理問題,失眠與噩夢頻頻發(fā)生。

在中國,AI浪潮帶動(dòng)了數(shù)據(jù)標(biāo)記產(chǎn)業(yè),三四線城市歡迎數(shù)據(jù)標(biāo)注企業(yè)落地。《訓(xùn)練人工智能的中國縣城工人》一文關(guān)注了標(biāo)記員的工作環(huán)境——單價(jià)4分錢的計(jì)件工作,上千次滑動(dòng)與拉框,效率高的時(shí)候一個(gè)月能賺3000塊左右??此魄把馗叨说募夹g(shù)背后,隱藏著時(shí)薪低廉的具體的人。這篇文章還提到,世界上最大的圖像識別數(shù)據(jù)庫ImageNet背后,是來自167個(gè)國家的5萬名數(shù)據(jù)標(biāo)注員,花了三年時(shí)間才完成全部圖片的標(biāo)注。

2023年2月16日,陜西省榆林市清澗縣,工作人員在進(jìn)行數(shù)據(jù)標(biāo)注。數(shù)據(jù)標(biāo)注為人工智能產(chǎn)業(yè)中開發(fā)機(jī)器學(xué)習(xí)模型的一環(huán)。清澗縣數(shù)字就業(yè)中心成立三年多來,培訓(xùn)當(dāng)?shù)嘏?、返鄉(xiāng)年輕人等做數(shù)據(jù)標(biāo)注師。

除了勞工待遇,AI領(lǐng)域科技從業(yè)者的性別失衡問題也長期存在。《中國互聯(lián)網(wǎng)大廠造不出ChatGPT,也和性別有關(guān)?》引用了國務(wù)院婦女兒童工作委員會(huì)網(wǎng)站發(fā)布的消息:中國研發(fā)與試驗(yàn)發(fā)展(R&D)行業(yè)的女性從業(yè)人數(shù)在2010年占總量的25.3%,2019年比例略微上升至26.0%。文章認(rèn)為,刻板的職業(yè)性別文化、榜樣缺失等都是女性舉步維艱的原因,此外還有行業(yè)中常見的996文化,更加速了科技領(lǐng)域職場的男性化,讓女性難以躋身核心崗位,像開發(fā)OpenAI公司首席技術(shù)官Mira Murati這樣的35歲女性并不多見。

幻覺”與平庸之惡

“ChatGPT 是網(wǎng)頁(Web)的模糊版JPEG《紐約客》的一篇文章如此比喻,“ChatGPT保留了Web上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣,但是如果你沒辦法找到精確的位序列,你得到的只是一個(gè)近似值。有時(shí)候,模糊性(Blurriness)只是抹除了信息細(xì)節(jié),在更嚴(yán)重的情況下,模糊性制造出AI幻覺(Hallucination),假消息或?qū)⒓觿》簽E。

北京大學(xué)傳播學(xué)院教授胡泳提醒我們注意AI系統(tǒng)經(jīng)常產(chǎn)生的幻覺(Hallucination,即任意吐出難以分辨的編造信息),ChatGPT往往會(huì)賦予它們更多權(quán)威性,正如技術(shù)分析師本尼迪克特·埃文斯Benedict EvansChatGPT的描述—— “一個(gè)自信的扯淡的家伙,可以寫出非常有說服力的廢話。

一些擔(dān)心由此而起:如果ChatGPT取代了傳統(tǒng)搜索引擎,人們會(huì)不會(huì)依賴直接生成的答案,失去自主信息驗(yàn)證的習(xí)慣?一篇關(guān)于檢索方式如何影響信息認(rèn)知的研究指出,ChatGPT為代表的機(jī)器聊天式檢索方式改變了信息獲取方式,人們很可能不再像過去那樣,一邊搜索,一邊自主地驗(yàn)證和篩選信息,并在搜尋里獲得一些意外發(fā)現(xiàn)。

Steven還在采訪中提到,雖然“AI對齊”致力于訓(xùn)練“合適”的回答,但究竟何為“合適“?絕對的價(jià)值中立是存在的嗎?一篇關(guān)于ChatGPT政治傾向測試的研究文章發(fā)現(xiàn),ChatGPT的回答展現(xiàn)了左傾自由主義的政治光譜。有趣的是,不同人工智能由于模型、訓(xùn)練語料庫的差別,最終形成的價(jià)值傾向也會(huì)呈現(xiàn)變化。有微博用戶發(fā)現(xiàn),向文心一言和ChatGPT提出“女性應(yīng)該何時(shí)結(jié)婚”的問題,二者的回答截然不同。類似的問題在界面文化與同濟(jì)大學(xué)哲學(xué)余明鋒的專訪中也有所談及——“如果持有不同價(jià)值觀的政治共同體訓(xùn)練出不同的聊天機(jī)器,是否會(huì)導(dǎo)致人與人的隔閡越來越深?”

不同AI對于同一問題的回答

另一方面,被戲稱為“端水大師”的ChatGPT,總是強(qiáng)調(diào)回答沒有偏見,不設(shè)立場。然而,沒有立場就意味著客觀?如何在道德上評價(jià)它?語言學(xué)家喬姆斯基的文章討論了ChatGPT回答里力圖呈現(xiàn)的“理性客觀中立”,這樣的非道德性(amorality)如同平庸之惡”:

“ChatGPT表現(xiàn)出某種類似邪惡的平庸:剽竊、冷漠和回避。它以一種超級自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種只是服從命令的辯護(hù),將責(zé)任推卸給它的創(chuàng)造者。

未經(jīng)正式授權(quán)嚴(yán)禁轉(zhuǎn)載本文,侵權(quán)必究。