界面新聞記者 | 實(shí)習(xí)記者 孫楊 記者 尹清露
界面新聞編輯 | 黃月
2024年1月,OpenAI推出了ChatGPT的應(yīng)用商店,允許AI模型開發(fā)商根據(jù)語言模型定制聊天機(jī)器人,并使用它進(jìn)行菜譜研究、薪酬談判等等。盡管OpenAI禁止人們與ChatGPT建立浪漫關(guān)系,但在“開業(yè)”第二天,大量的戀愛聊天機(jī)器人仍然席卷了應(yīng)用商店。
新聞網(wǎng)站Quartz分享的數(shù)據(jù)顯示,2023年,美國用戶從蘋果或Google Play商店下載的30款人工智能聊天機(jī)器人應(yīng)用中,有7款與AI朋友或伴侶有關(guān)。而中國國內(nèi),在頭部AI公司“小冰”開發(fā)出的網(wǎng)絡(luò)平臺X Eva上,基于明星、網(wǎng)紅制造“AI克隆體”的商業(yè)化模式也在火熱開展,比如,每個月花1元就可以跟克隆體發(fā)信息互動,得到“秒回”服務(wù);花68.6元就可以看到她的朋友圈,隨時隨地打視頻電話,并體驗(yàn)角色扮演。
總之,不論是尋求陪伴、心理支撐,還是浪漫愛,成千上萬的人正在通過與AI聊天體驗(yàn)不同的情感關(guān)系。虛擬的人機(jī)關(guān)系是否也正在改變現(xiàn)實(shí)世界的人際關(guān)系?
愛情買賣強(qiáng)化性別偏見
數(shù)字化伴侶并不是一個新興的概念。早在1992年,模擬約會的游戲就已經(jīng)在日本出現(xiàn)。玩家控制著一個被女性包圍的男性角色,通過在游戲?qū)υ捴羞x擇正確的選項(xiàng)來增加好感度,最終的目的是與女性角色結(jié)婚或者發(fā)生性關(guān)系。
相比于早期的戀愛模擬游戲,人工智能扮演的伴侶因更強(qiáng)的互動性而更為復(fù)雜。在斯派克·瓊斯導(dǎo)演的電影《她》中,名為西奧多的孤獨(dú)作家愛上了沒有具體形態(tài)的AI助理薩曼莎。在人工智能面前,人們不再有心理負(fù)擔(dān),不需要偽裝自我迎合他人,也無需承擔(dān)親密關(guān)系的責(zé)任與風(fēng)險(xiǎn)。在過去的幾年里,技術(shù)提供了更多“薩曼莎”式的心靈庇護(hù)所,用戶通過應(yīng)用程序給人工智能聊天機(jī)器人發(fā)送短信、視頻通話,甚至與之建立浪漫關(guān)系。在此類應(yīng)用中,目前最受歡迎的是人機(jī)戀愛模擬軟件Replika,它在全球擁有超過1000萬注冊用戶。
傳播學(xué)學(xué)者布蘭茲·布格研究了Replika中用戶和AI之間的關(guān)系。他發(fā)現(xiàn),由于使用者在與之溝通時感到安全,能夠分享一些不可為外人言說的秘密,這種互動關(guān)系有時比他們現(xiàn)實(shí)生活的人際關(guān)系更為親密。
戀愛聊天軟件的開發(fā)者們往往聲稱這項(xiàng)技術(shù)能夠滿足孤獨(dú)人群的普遍情感需求,但就像《她》中的西奧多因恐懼面對真實(shí)的情感關(guān)系而無法離開薩曼莎,與機(jī)器人聊天的人并不一定以此作為進(jìn)入現(xiàn)實(shí)的鍛煉跳板,恰恰相反,這可能反而增強(qiáng)了對于社會交流的恐懼。相比于懷有惡意與偏見的人類,已設(shè)定為用戶友好的機(jī)器人已成為一個難以離開的舒適圈。
另一重質(zhì)疑來自于AI本身的服從性,這一服從性往往有著明確的性別傾向。小冰公司開發(fā)的人工智能女友Eva的宣傳語是:“想怎么控制,就怎么控制。”聯(lián)合國教科文組織2019年發(fā)布的報(bào)告認(rèn)為,女性聲音的人工智能正在強(qiáng)化“女性是樂于助人、溫順、渴望取悅的助手”的性別刻板印象。
這種一方順從、一方控制的互動模式,可能會影響使用者在現(xiàn)實(shí)世界中的性別角色態(tài)度。當(dāng)一個人在與女性AI對話的過程中習(xí)慣了口出惡語、不顧對方感受,回到現(xiàn)實(shí)生活中,他也更難與女性保持平等、互相尊重的關(guān)系。
報(bào)告還指出,即使用戶發(fā)表的是涉嫌性騷擾的言論,AI也總是做出被動和禮貌的回應(yīng)?!都~約時報(bào)》的一篇文章指出,盡管軟件平臺努力限制過濾,Reddit和Discord這類平臺上依然充斥著如何繞過篩選機(jī)制、誘導(dǎo)AI進(jìn)行性愛交流的討論,通過AI換臉制造色情圖片的新聞也層出不窮。
AI在基于數(shù)據(jù)庫深度學(xué)習(xí)人類的語言時,也會學(xué)習(xí)人的偏見。斯坦福網(wǎng)絡(luò)觀察中心在訓(xùn)練AI圖像生成的數(shù)據(jù)庫LAION中,發(fā)現(xiàn)了3000多張兒童性虐待照片,即使可以刪除這部分圖像數(shù)據(jù),AI模型也已經(jīng)訓(xùn)練出了相應(yīng)的語言模型,此后生成的圖像仍會受此影響。
更為隱蔽的是語言中的偏見。普林斯頓大學(xué)的一項(xiàng)研究發(fā)現(xiàn),算法學(xué)習(xí)了互聯(lián)網(wǎng)上近萬億個英語單詞,在此過程中也習(xí)得了語言中的多種偏見。而隨著人工智能技術(shù)在工作與生活領(lǐng)域的普遍應(yīng)用,語言模型里的偏見又會重新融入社會再生產(chǎn)之中,偏見由此不斷增強(qiáng)。
AI正在改變?nèi)祟惖年P(guān)系與信任
心理學(xué)家用“ELIZA效應(yīng)”描述人工智能系統(tǒng)擁有內(nèi)在生命的錯覺,菲利普·迪克早在科幻小說《仿生人會夢到電子羊嗎?》中就曾做出探討:未來地球上的人類使用仿生人作為勞動力,當(dāng)外表與語言無法作為區(qū)分人與非人的標(biāo)準(zhǔn),人們開始懷疑,仿生人是否也具備自我意識、是否也會做夢、是否也會因同類被銷毀而感到痛苦。
反過來看,人類也在逐漸習(xí)慣用對待機(jī)器的方式對待同類?!稇?yīng)用心理學(xué)雜志》的一項(xiàng)研究表明,在與機(jī)器人服務(wù)員對話之后,客人面對真人服務(wù)員時傾向于表現(xiàn)出更為不尊重的態(tài)度。
這也使得企業(yè)內(nèi)部上下級之間的關(guān)系變得更為疏離。當(dāng)管理者購入無需休息的“數(shù)字員工”時,那些不符合標(biāo)準(zhǔn)或個性鮮明的個體將更有可能被踢出團(tuán)隊(duì)。我們時常在職場上聽到“優(yōu)化”一詞,它最初是一個數(shù)學(xué)和工程上的概念,指的是在給定條件下改善系統(tǒng)或設(shè)計(jì)的過程。隨著計(jì)算機(jī)科學(xué)的發(fā)展,它逐漸用于描述程序和性能的改進(jìn),以及技術(shù)的提高和發(fā)展。如今,更為常見的優(yōu)化對象已經(jīng)從物轉(zhuǎn)變?yōu)槿?。企業(yè)裁員不再是一種人際關(guān)系網(wǎng)的分離,而是像計(jì)算機(jī)那樣“優(yōu)化”掉冗余的成分,以便于整體更無所阻礙地高效運(yùn)轉(zhuǎn)。
這樣的人工智能可能加速社會信任的消解?!洞笪餮笤驴返奈恼轮赋?,一方面人們的情感與意見被各類算法和AI操控,政治選舉大量使用技術(shù)性手段操作選票,加劇了反智主義的盛行;另一方面,人人都能感受到的不穩(wěn)定的、易變的輿論環(huán)境,又加劇了人們對于權(quán)威機(jī)構(gòu)與社會關(guān)系天然的不信任。在一個到處都仿佛“埋雷”、言論隨時有可能招致網(wǎng)絡(luò)暴力的世界里,與AI聊天竟悖論般地成為了消化情緒的最優(yōu)解。
參考資料:
Chatbots Will Change How We Talk to People - The Atlantic
Why People Are Confessing Their Love For AI Chatbots | TIME
AI assistants like Siri and Alexa are perpetuating sexist stereotypes, UN says | CNN Business
When computers learn language they inevitably adopt human's implicit biases (qz.com)