正在閱讀:

算法的“毒泡泡”,當(dāng)真可以戒掉嗎?

掃一掃下載界面新聞APP

算法的“毒泡泡”,當(dāng)真可以戒掉嗎?

想要逃離乃至對抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 張賀飛

編輯|沈潔

關(guān)掉個(gè)性化推薦功能后,林陌陷入了深深的焦慮。

“以前打開今日頭條,首頁里總會有很多自己感興趣的內(nèi)容,雖然覺得自己的可能被算法裹挾了,但真的節(jié)省了很多不必要的信息篩選?,F(xiàn)在關(guān)掉了個(gè)性化推薦,滿屏都是和自己無關(guān)的垃圾信息?!?/p>

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》正式實(shí)施后,不少APP上線了算法關(guān)閉按鈕,允許用戶在后臺關(guān)掉“個(gè)性化推薦”。向來對算法推薦有微辭的林陌,第一時(shí)間就關(guān)掉了多個(gè)APP的推薦功能,但結(jié)果并不是預(yù)想中的那般。

“本來可以在工作間隙刷刷喜歡的短視頻或圖文內(nèi)容,可在關(guān)掉算法推薦后,內(nèi)容的匹配度大不如前,在屏幕上下滑好幾頁都找不到喜歡的內(nèi)容,碎片化時(shí)間都浪費(fèi)在了找內(nèi)容上,而且廣告推薦一個(gè)沒少?!?/p>

像林陌這樣的用戶顯然不在少數(shù),長期生活在算法編織的環(huán)境中,本能上有一種被算法支配的恐懼,卻也在無形中養(yǎng)成了對算法的依賴,想要逃離乃至對抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼爾·波茲曼曾在《技術(shù)壟斷》一書中斷言:每一種新技術(shù)都既是包袱又是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物。

算法的出現(xiàn)、應(yīng)用和演變,準(zhǔn)確地佐證了波茲曼的斷言。算法本質(zhì)上是一種分析、預(yù)測的數(shù)學(xué)技術(shù),強(qiáng)調(diào)的是相關(guān)性,可以用來提高信息和商品推薦的準(zhǔn)確性,也有利于降低用戶的時(shí)間成本。然而法律監(jiān)管和用戶意識的“滯后”,再加上算法和互聯(lián)網(wǎng)商業(yè)模式的深度捆綁,逐漸滋生了許多亂象。

最早被討論的是“信息繭房”。這是哈佛大學(xué)法學(xué)院教授凱斯·桑斯坦在《網(wǎng)絡(luò)共和國》中提出的概念,公眾在信息傳播過程中會過度偏向自身感興趣的內(nèi)容,減少和其他信息的接觸,不知不覺間為自己制造了一個(gè)“信息繭房”,漸漸沉浸在一個(gè)越來越窄的世界,甚至產(chǎn)生一些極端的認(rèn)知。

桑斯坦提出“信息繭房”概念的時(shí)間是2006年,可由于概念本身過于學(xué)術(shù)化,加上“算法推薦”在那個(gè)時(shí)候還是一個(gè)相對陌生的詞匯,并未被太多人所關(guān)注。直到移動互聯(lián)網(wǎng)浪潮的到來,一些創(chuàng)業(yè)者開始用算法去討好用戶,不斷猜測并推薦用戶偏好的內(nèi)容,以增強(qiáng)所謂的用戶粘性和用戶時(shí)長,“信息繭房”逐漸成了一種常態(tài)化的社會現(xiàn)象。

但算法的弊端被大多數(shù)人聲討的導(dǎo)火索,卻是和用戶利益直接相關(guān)的大數(shù)據(jù)殺熟。電商平臺、出行APP、外賣平臺等都被曝出大數(shù)據(jù)殺熟的案例,系統(tǒng)會根據(jù)用戶標(biāo)簽推送不同的折扣,同一件商品給新用戶比較低的價(jià)格,而老用戶的價(jià)格要明顯高一些。北京消費(fèi)者協(xié)會曾對“殺熟”問題進(jìn)行調(diào)查問卷,過半用戶表示經(jīng)歷過“大數(shù)據(jù)殺熟”。

不過算法在輿論場上的公開抨擊,還要等到“數(shù)據(jù)隱私”的發(fā)酵。剛剛在社交網(wǎng)站上聊到某件商品,轉(zhuǎn)身就出現(xiàn)在了電商平臺的推薦頁面,甚至有網(wǎng)友吐槽自己的電話內(nèi)容可能被電商APP監(jiān)聽。個(gè)中的因果關(guān)系其實(shí)并不難解釋,算法的訓(xùn)練離不開數(shù)據(jù)原料,用戶的瀏覽記錄、停留時(shí)長、興趣愛好等都被平臺偷偷記錄,而為了算法推薦的準(zhǔn)確性,一些平臺不無越界侵犯用戶隱私的嫌疑。

借用一個(gè)有些陰謀論色彩的說法:就像是一個(gè)溫水煮青蛙的過程,先用算法推薦構(gòu)建了一張張封閉的“信息繭房”,生活在“繭房”的用戶成為一茬茬被收割的對象,至于收割的方式,或是大數(shù)據(jù)殺熟,或是監(jiān)聽用戶隱私……至此,算法不再是“沒有價(jià)值觀”的技術(shù)名詞,開始和“毒”字掛了鉤。

02 “靴子”終落地

當(dāng)算法被越來越多人詬病,一步步走向污名化的時(shí)候,對平臺的算法推薦進(jìn)行治理的呼吁愈演愈烈,監(jiān)管的靴子陸續(xù)落地。

前面提到的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》就是相應(yīng)的產(chǎn)物。由網(wǎng)信辦在2021年8月份提出,并于2022年3月1日正式施行?!肮芾硪?guī)定”的矛頭直指算法推薦功能,提出算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。

截止到目前,不少互聯(lián)網(wǎng)大廠已經(jīng)響應(yīng)號召,微信、抖音、淘寶、美團(tuán)、百度、微博、小紅書等熱門APP,均上線了個(gè)性化內(nèi)容推薦和個(gè)性化廣告推薦的關(guān)閉按鈕,只是在執(zhí)行力度上仍有所保留。

比如網(wǎng)信辦規(guī)定平臺要在顯著位置上線算法關(guān)閉鍵,現(xiàn)實(shí)中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關(guān)掉“個(gè)性化推薦”功能,需要打開APP、點(diǎn)擊“我的”、找到“隱私設(shè)置”、打開“個(gè)性化推薦設(shè)置”、關(guān)掉“個(gè)性化推薦”等至少5個(gè)步驟,關(guān)閉入口隱藏的比較深且操作繁瑣。

即便監(jiān)管的靴子已經(jīng)落地,而且留下了近7個(gè)月的整改時(shí)間,不少APP應(yīng)付監(jiān)管的態(tài)度卻非常微妙,乃至存在對抗監(jiān)管的可能。畢竟算法推薦早已是許多平臺的流量密碼,一旦用戶關(guān)掉“個(gè)性化推薦”,可能讓用戶的打開頻率變低、停留時(shí)長變短,進(jìn)而影響平臺賴以生存的廣告收入。

于是一些平臺并未對非算法推薦進(jìn)行產(chǎn)品優(yōu)化,采取了“一刀切”的產(chǎn)品邏輯,用戶在關(guān)掉“個(gè)性化推薦”后,幾乎找不到符合興趣的內(nèi)容,本質(zhì)上在逼迫用戶二選一:要么犧牲掉用戶體驗(yàn),要么乖乖回歸算法推薦。

這還只是觸及了算法推薦的蛋糕,倘若進(jìn)一步涉及到商品推薦、隱私保護(hù)等環(huán)節(jié),不排除一些平臺會給出更加狡詐的應(yīng)對策略?;蛟S這才是“技術(shù)霸凌”的題中之意,不只是平臺利用技術(shù)進(jìn)行了多少越界行為,還涉及到對用戶行為的綁架,想要逃離“算法陷阱”,必須要付出足夠大的代價(jià)。

讓人沮喪的是,算法規(guī)則在時(shí)間的推移下越來越復(fù)雜,對大部分用戶而言就是一個(gè)看不透的“黑箱”,無法理解算法的運(yùn)作原理,也不知曉有哪些濫用的行為??赡苤皇窃谀硞€(gè)短視頻上多停留了幾秒,只是打開某個(gè)商品鏈接忘記關(guān)閉,就會被平臺記錄、利用算法分析,無形中編織了一張?zhí)硬坏舻木W(wǎng)。

至少在監(jiān)管對“算法推薦”動刀時(shí),已經(jīng)驗(yàn)證了一個(gè)不太樂觀的事實(shí):大多數(shù)用戶很難走出算法的“圍城”,看似被賦予了拒絕的權(quán)利,想要行使權(quán)力的難度和代價(jià),卻會讓大多數(shù)人放棄改變的想法。

03 戒不掉的“癮”

正如德國存在主義哲學(xué)家雅斯貝爾斯的觀點(diǎn):“技術(shù)僅是一種手段,它本身并無善惡,一切取決于人從中造出什么,它為什么目的而服務(wù)于人?!?/p>

這種“技術(shù)無罪”的理念,在國內(nèi)衍生出了“算法沒有價(jià)值觀”的結(jié)論,同時(shí)也成了一些人為算法推薦“洗地”的理論根源。譬如“信息繭房”的話題引發(fā)公開討論時(shí),某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂信息繭房的技術(shù)之路,算法顯然是修路者之一,它肯定不是路障?!?/p>

其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“信息繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不愿接觸的信息,而非把責(zé)任全部歸咎于外部的客觀原因。

此類觀點(diǎn)看似難以辯駁,卻選擇性忽略了另一個(gè)既定現(xiàn)實(shí):每每提到移動互聯(lián)網(wǎng)時(shí)代的創(chuàng)始人,“洞悉人性”可以說是時(shí)常出現(xiàn)的一個(gè)評價(jià),張一鳴、黃崢等都曾被媒體這般評論。折射到算法誘發(fā)的一系列問題上,那些“始作俑者”所擅長的,正是費(fèi)盡心思地讓用戶上癮,然后毀掉你的自律。

普林斯頓大學(xué)心理學(xué)博士亞當(dāng)·奧爾特,在《欲罷不能》中特意解釋了互聯(lián)網(wǎng)的種種“上癮”行為,并將其細(xì)分為6個(gè)要素,即預(yù)設(shè)可望而不可即的誘人目標(biāo)、提供不可抗拒的積極反饋、毫不費(fèi)力的讓用戶感到進(jìn)步、給予逐漸升級的挑戰(zhàn)、營造未完成的緊張感、增加令人癡迷的社會互動。

如果說奧爾特是從產(chǎn)品經(jīng)理的角度,透析了游戲、短視頻等產(chǎn)品引導(dǎo)用戶上癮的原理,著名戰(zhàn)略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產(chǎn)力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業(yè)大批量制造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產(chǎn)品填滿人們的生活,進(jìn)而沉浸在“快樂”中不知不覺地喪失思考能力。

直接將算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實(shí)在于,算法強(qiáng)化了用戶的即時(shí)滿足心理,放大了多巴胺的刺激和誘惑,讓大多數(shù)用戶漸漸適應(yīng)了“娛樂至死”的狀態(tài)。

令人遺憾的地方正在于此,極大多數(shù)用戶不會主動克制自己,習(xí)慣性地接受算法的推薦內(nèi)容,讓算法收集自己的數(shù)據(jù),無意識地告訴算法哪些是自己喜歡的內(nèi)容,最終被框定在一個(gè)看不見的“舒適區(qū)”中。即使監(jiān)管層面已經(jīng)做出了反應(yīng),為用戶打開了逃離算法的大門,可想讓用戶靠自律、靠隱私意識的覺醒拒絕成癮,并不是一條可行的路徑,解鈴的鑰匙仍然掌握在系鈴人手中。

04 治理的“命門”

并非是想挑起用戶和平臺間的對立,在“算法有毒”的現(xiàn)實(shí)語境下,需要“自律”的恰恰是手握算法行使“權(quán)力”的互聯(lián)網(wǎng)平臺。

英國學(xué)者杰米·薩斯坎德在《算法的力量》一書中提到了這樣一幕:互聯(lián)網(wǎng)公司內(nèi)部幾乎沒有工程師會思考其工作導(dǎo)致的系統(tǒng)性后果,他們中的大部分只需要解決某些分散的技術(shù)問題就可以交差了。

而這樣的情況絕非是少數(shù),每當(dāng)輿論開始聲討算法的原罪時(shí),涉及其中的互聯(lián)網(wǎng)公司都會拋出“技術(shù)無罪”的擋箭牌。原因離不開算法運(yùn)作的“黑箱”機(jī)制,即工程師負(fù)責(zé)提供數(shù)據(jù)、模型和架構(gòu),算法就會給出答案,對中間的運(yùn)作過程和原理可能并不清楚,甚至工程師自己都覺得是被誤解的一方。

然而早在幾年前的時(shí)候,阿里云的程序員就曾在媒體采訪中驕傲地宣稱:“我們現(xiàn)在已經(jīng)能夠做到全中國幾億人口的淘寶界面都是不一樣的,而且?guī)缀踝龅搅嗣爰壐?。”同樣存在算法的不可解釋性,互?lián)網(wǎng)大廠們樂見算法產(chǎn)生的正向結(jié)果,卻不愿對算法的過程和結(jié)果負(fù)起相應(yīng)責(zé)任。

2020年上線的紀(jì)錄片《監(jiān)視資本主義:智能陷阱》,用一句話巧妙地闡述了其中的癥結(jié):“如果你沒有花錢買產(chǎn)品,那么你就是待價(jià)而沽的商品?!毕M(fèi)者無須為算法提供的服務(wù)直接付費(fèi),可隱形的價(jià)碼早已被標(biāo)注。

現(xiàn)實(shí)中的案例證明,互聯(lián)網(wǎng)企業(yè)并非沒有矯正的空間。早在2019年的Google I/O上,谷歌就公布了一項(xiàng)名為概念激活向量測試(TCAV)的技術(shù),對算法偏見、算法歧視等問題進(jìn)行技術(shù)上的監(jiān)督。

歸根結(jié)底還是商業(yè)利益和用戶權(quán)益的平衡,“不作為”偏偏是大多數(shù)企業(yè)的首要選擇。不只是關(guān)閉“個(gè)性化推薦”入口上的遮遮掩掩,在用戶增長進(jìn)入瓶頸時(shí),不少平臺刻意利用算法“殺時(shí)間”,抖音、快手、B站乃至知乎都有人為制造“時(shí)間黑洞”的嫌疑,算法在某種程度上成了“算計(jì)”的工具。

可把眼光稍微放長遠(yuǎn)一些,所有的商業(yè)根基都離不開用戶信任。由于企業(yè)的趨利、監(jiān)管的滯后、個(gè)體的默許,已然攪起了信息繭房、大數(shù)據(jù)殺熟等輿論漩渦,何嘗不是用戶試圖對抗算法的一種外在表現(xiàn)?技術(shù)固然有著兩面性,身處其中的平臺方卻有能力進(jìn)行取舍,適當(dāng)限制算法應(yīng)用的邊界,調(diào)整想要的“目標(biāo)函數(shù)”。

能否喚醒互聯(lián)網(wǎng)平臺的“良知”,才是算法治理的“命門”所在。還是以針對算法推薦的整改為例為例,基于算法對用戶行為的“鎖定效應(yīng)”,讓用戶在算法推薦有無間進(jìn)行二選一是一種策略;對算法進(jìn)行場景化、精細(xì)化的治理,站在用戶的立場上給出更好的解決方案也是一種策略。

但愿一些互聯(lián)網(wǎng)平臺能夠站在歷史的正確一邊。

注:林陌為化名。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

算法的“毒泡泡”,當(dāng)真可以戒掉嗎?

想要逃離乃至對抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 張賀飛

編輯|沈潔

關(guān)掉個(gè)性化推薦功能后,林陌陷入了深深的焦慮。

“以前打開今日頭條,首頁里總會有很多自己感興趣的內(nèi)容,雖然覺得自己的可能被算法裹挾了,但真的節(jié)省了很多不必要的信息篩選?,F(xiàn)在關(guān)掉了個(gè)性化推薦,滿屏都是和自己無關(guān)的垃圾信息?!?/p>

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》正式實(shí)施后,不少APP上線了算法關(guān)閉按鈕,允許用戶在后臺關(guān)掉“個(gè)性化推薦”。向來對算法推薦有微辭的林陌,第一時(shí)間就關(guān)掉了多個(gè)APP的推薦功能,但結(jié)果并不是預(yù)想中的那般。

“本來可以在工作間隙刷刷喜歡的短視頻或圖文內(nèi)容,可在關(guān)掉算法推薦后,內(nèi)容的匹配度大不如前,在屏幕上下滑好幾頁都找不到喜歡的內(nèi)容,碎片化時(shí)間都浪費(fèi)在了找內(nèi)容上,而且廣告推薦一個(gè)沒少?!?/p>

像林陌這樣的用戶顯然不在少數(shù),長期生活在算法編織的環(huán)境中,本能上有一種被算法支配的恐懼,卻也在無形中養(yǎng)成了對算法的依賴,想要逃離乃至對抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼爾·波茲曼曾在《技術(shù)壟斷》一書中斷言:每一種新技術(shù)都既是包袱又是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物。

算法的出現(xiàn)、應(yīng)用和演變,準(zhǔn)確地佐證了波茲曼的斷言。算法本質(zhì)上是一種分析、預(yù)測的數(shù)學(xué)技術(shù),強(qiáng)調(diào)的是相關(guān)性,可以用來提高信息和商品推薦的準(zhǔn)確性,也有利于降低用戶的時(shí)間成本。然而法律監(jiān)管和用戶意識的“滯后”,再加上算法和互聯(lián)網(wǎng)商業(yè)模式的深度捆綁,逐漸滋生了許多亂象。

最早被討論的是“信息繭房”。這是哈佛大學(xué)法學(xué)院教授凱斯·桑斯坦在《網(wǎng)絡(luò)共和國》中提出的概念,公眾在信息傳播過程中會過度偏向自身感興趣的內(nèi)容,減少和其他信息的接觸,不知不覺間為自己制造了一個(gè)“信息繭房”,漸漸沉浸在一個(gè)越來越窄的世界,甚至產(chǎn)生一些極端的認(rèn)知。

桑斯坦提出“信息繭房”概念的時(shí)間是2006年,可由于概念本身過于學(xué)術(shù)化,加上“算法推薦”在那個(gè)時(shí)候還是一個(gè)相對陌生的詞匯,并未被太多人所關(guān)注。直到移動互聯(lián)網(wǎng)浪潮的到來,一些創(chuàng)業(yè)者開始用算法去討好用戶,不斷猜測并推薦用戶偏好的內(nèi)容,以增強(qiáng)所謂的用戶粘性和用戶時(shí)長,“信息繭房”逐漸成了一種常態(tài)化的社會現(xiàn)象。

但算法的弊端被大多數(shù)人聲討的導(dǎo)火索,卻是和用戶利益直接相關(guān)的大數(shù)據(jù)殺熟。電商平臺、出行APP、外賣平臺等都被曝出大數(shù)據(jù)殺熟的案例,系統(tǒng)會根據(jù)用戶標(biāo)簽推送不同的折扣,同一件商品給新用戶比較低的價(jià)格,而老用戶的價(jià)格要明顯高一些。北京消費(fèi)者協(xié)會曾對“殺熟”問題進(jìn)行調(diào)查問卷,過半用戶表示經(jīng)歷過“大數(shù)據(jù)殺熟”。

不過算法在輿論場上的公開抨擊,還要等到“數(shù)據(jù)隱私”的發(fā)酵。剛剛在社交網(wǎng)站上聊到某件商品,轉(zhuǎn)身就出現(xiàn)在了電商平臺的推薦頁面,甚至有網(wǎng)友吐槽自己的電話內(nèi)容可能被電商APP監(jiān)聽。個(gè)中的因果關(guān)系其實(shí)并不難解釋,算法的訓(xùn)練離不開數(shù)據(jù)原料,用戶的瀏覽記錄、停留時(shí)長、興趣愛好等都被平臺偷偷記錄,而為了算法推薦的準(zhǔn)確性,一些平臺不無越界侵犯用戶隱私的嫌疑。

借用一個(gè)有些陰謀論色彩的說法:就像是一個(gè)溫水煮青蛙的過程,先用算法推薦構(gòu)建了一張張封閉的“信息繭房”,生活在“繭房”的用戶成為一茬茬被收割的對象,至于收割的方式,或是大數(shù)據(jù)殺熟,或是監(jiān)聽用戶隱私……至此,算法不再是“沒有價(jià)值觀”的技術(shù)名詞,開始和“毒”字掛了鉤。

02 “靴子”終落地

當(dāng)算法被越來越多人詬病,一步步走向污名化的時(shí)候,對平臺的算法推薦進(jìn)行治理的呼吁愈演愈烈,監(jiān)管的靴子陸續(xù)落地。

前面提到的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》就是相應(yīng)的產(chǎn)物。由網(wǎng)信辦在2021年8月份提出,并于2022年3月1日正式施行。“管理規(guī)定”的矛頭直指算法推薦功能,提出算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。

截止到目前,不少互聯(lián)網(wǎng)大廠已經(jīng)響應(yīng)號召,微信、抖音、淘寶、美團(tuán)、百度、微博、小紅書等熱門APP,均上線了個(gè)性化內(nèi)容推薦和個(gè)性化廣告推薦的關(guān)閉按鈕,只是在執(zhí)行力度上仍有所保留。

比如網(wǎng)信辦規(guī)定平臺要在顯著位置上線算法關(guān)閉鍵,現(xiàn)實(shí)中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關(guān)掉“個(gè)性化推薦”功能,需要打開APP、點(diǎn)擊“我的”、找到“隱私設(shè)置”、打開“個(gè)性化推薦設(shè)置”、關(guān)掉“個(gè)性化推薦”等至少5個(gè)步驟,關(guān)閉入口隱藏的比較深且操作繁瑣。

即便監(jiān)管的靴子已經(jīng)落地,而且留下了近7個(gè)月的整改時(shí)間,不少APP應(yīng)付監(jiān)管的態(tài)度卻非常微妙,乃至存在對抗監(jiān)管的可能。畢竟算法推薦早已是許多平臺的流量密碼,一旦用戶關(guān)掉“個(gè)性化推薦”,可能讓用戶的打開頻率變低、停留時(shí)長變短,進(jìn)而影響平臺賴以生存的廣告收入。

于是一些平臺并未對非算法推薦進(jìn)行產(chǎn)品優(yōu)化,采取了“一刀切”的產(chǎn)品邏輯,用戶在關(guān)掉“個(gè)性化推薦”后,幾乎找不到符合興趣的內(nèi)容,本質(zhì)上在逼迫用戶二選一:要么犧牲掉用戶體驗(yàn),要么乖乖回歸算法推薦。

這還只是觸及了算法推薦的蛋糕,倘若進(jìn)一步涉及到商品推薦、隱私保護(hù)等環(huán)節(jié),不排除一些平臺會給出更加狡詐的應(yīng)對策略。或許這才是“技術(shù)霸凌”的題中之意,不只是平臺利用技術(shù)進(jìn)行了多少越界行為,還涉及到對用戶行為的綁架,想要逃離“算法陷阱”,必須要付出足夠大的代價(jià)。

讓人沮喪的是,算法規(guī)則在時(shí)間的推移下越來越復(fù)雜,對大部分用戶而言就是一個(gè)看不透的“黑箱”,無法理解算法的運(yùn)作原理,也不知曉有哪些濫用的行為??赡苤皇窃谀硞€(gè)短視頻上多停留了幾秒,只是打開某個(gè)商品鏈接忘記關(guān)閉,就會被平臺記錄、利用算法分析,無形中編織了一張?zhí)硬坏舻木W(wǎng)。

至少在監(jiān)管對“算法推薦”動刀時(shí),已經(jīng)驗(yàn)證了一個(gè)不太樂觀的事實(shí):大多數(shù)用戶很難走出算法的“圍城”,看似被賦予了拒絕的權(quán)利,想要行使權(quán)力的難度和代價(jià),卻會讓大多數(shù)人放棄改變的想法。

03 戒不掉的“癮”

正如德國存在主義哲學(xué)家雅斯貝爾斯的觀點(diǎn):“技術(shù)僅是一種手段,它本身并無善惡,一切取決于人從中造出什么,它為什么目的而服務(wù)于人?!?/p>

這種“技術(shù)無罪”的理念,在國內(nèi)衍生出了“算法沒有價(jià)值觀”的結(jié)論,同時(shí)也成了一些人為算法推薦“洗地”的理論根源。譬如“信息繭房”的話題引發(fā)公開討論時(shí),某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂信息繭房的技術(shù)之路,算法顯然是修路者之一,它肯定不是路障?!?/p>

其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“信息繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不愿接觸的信息,而非把責(zé)任全部歸咎于外部的客觀原因。

此類觀點(diǎn)看似難以辯駁,卻選擇性忽略了另一個(gè)既定現(xiàn)實(shí):每每提到移動互聯(lián)網(wǎng)時(shí)代的創(chuàng)始人,“洞悉人性”可以說是時(shí)常出現(xiàn)的一個(gè)評價(jià),張一鳴、黃崢等都曾被媒體這般評論。折射到算法誘發(fā)的一系列問題上,那些“始作俑者”所擅長的,正是費(fèi)盡心思地讓用戶上癮,然后毀掉你的自律。

普林斯頓大學(xué)心理學(xué)博士亞當(dāng)·奧爾特,在《欲罷不能》中特意解釋了互聯(lián)網(wǎng)的種種“上癮”行為,并將其細(xì)分為6個(gè)要素,即預(yù)設(shè)可望而不可即的誘人目標(biāo)、提供不可抗拒的積極反饋、毫不費(fèi)力的讓用戶感到進(jìn)步、給予逐漸升級的挑戰(zhàn)、營造未完成的緊張感、增加令人癡迷的社會互動。

如果說奧爾特是從產(chǎn)品經(jīng)理的角度,透析了游戲、短視頻等產(chǎn)品引導(dǎo)用戶上癮的原理,著名戰(zhàn)略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產(chǎn)力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業(yè)大批量制造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產(chǎn)品填滿人們的生活,進(jìn)而沉浸在“快樂”中不知不覺地喪失思考能力。

直接將算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實(shí)在于,算法強(qiáng)化了用戶的即時(shí)滿足心理,放大了多巴胺的刺激和誘惑,讓大多數(shù)用戶漸漸適應(yīng)了“娛樂至死”的狀態(tài)。

令人遺憾的地方正在于此,極大多數(shù)用戶不會主動克制自己,習(xí)慣性地接受算法的推薦內(nèi)容,讓算法收集自己的數(shù)據(jù),無意識地告訴算法哪些是自己喜歡的內(nèi)容,最終被框定在一個(gè)看不見的“舒適區(qū)”中。即使監(jiān)管層面已經(jīng)做出了反應(yīng),為用戶打開了逃離算法的大門,可想讓用戶靠自律、靠隱私意識的覺醒拒絕成癮,并不是一條可行的路徑,解鈴的鑰匙仍然掌握在系鈴人手中。

04 治理的“命門”

并非是想挑起用戶和平臺間的對立,在“算法有毒”的現(xiàn)實(shí)語境下,需要“自律”的恰恰是手握算法行使“權(quán)力”的互聯(lián)網(wǎng)平臺。

英國學(xué)者杰米·薩斯坎德在《算法的力量》一書中提到了這樣一幕:互聯(lián)網(wǎng)公司內(nèi)部幾乎沒有工程師會思考其工作導(dǎo)致的系統(tǒng)性后果,他們中的大部分只需要解決某些分散的技術(shù)問題就可以交差了。

而這樣的情況絕非是少數(shù),每當(dāng)輿論開始聲討算法的原罪時(shí),涉及其中的互聯(lián)網(wǎng)公司都會拋出“技術(shù)無罪”的擋箭牌。原因離不開算法運(yùn)作的“黑箱”機(jī)制,即工程師負(fù)責(zé)提供數(shù)據(jù)、模型和架構(gòu),算法就會給出答案,對中間的運(yùn)作過程和原理可能并不清楚,甚至工程師自己都覺得是被誤解的一方。

然而早在幾年前的時(shí)候,阿里云的程序員就曾在媒體采訪中驕傲地宣稱:“我們現(xiàn)在已經(jīng)能夠做到全中國幾億人口的淘寶界面都是不一樣的,而且?guī)缀踝龅搅嗣爰壐?。”同樣存在算法的不可解釋性,互?lián)網(wǎng)大廠們樂見算法產(chǎn)生的正向結(jié)果,卻不愿對算法的過程和結(jié)果負(fù)起相應(yīng)責(zé)任。

2020年上線的紀(jì)錄片《監(jiān)視資本主義:智能陷阱》,用一句話巧妙地闡述了其中的癥結(jié):“如果你沒有花錢買產(chǎn)品,那么你就是待價(jià)而沽的商品?!毕M(fèi)者無須為算法提供的服務(wù)直接付費(fèi),可隱形的價(jià)碼早已被標(biāo)注。

現(xiàn)實(shí)中的案例證明,互聯(lián)網(wǎng)企業(yè)并非沒有矯正的空間。早在2019年的Google I/O上,谷歌就公布了一項(xiàng)名為概念激活向量測試(TCAV)的技術(shù),對算法偏見、算法歧視等問題進(jìn)行技術(shù)上的監(jiān)督。

歸根結(jié)底還是商業(yè)利益和用戶權(quán)益的平衡,“不作為”偏偏是大多數(shù)企業(yè)的首要選擇。不只是關(guān)閉“個(gè)性化推薦”入口上的遮遮掩掩,在用戶增長進(jìn)入瓶頸時(shí),不少平臺刻意利用算法“殺時(shí)間”,抖音、快手、B站乃至知乎都有人為制造“時(shí)間黑洞”的嫌疑,算法在某種程度上成了“算計(jì)”的工具。

可把眼光稍微放長遠(yuǎn)一些,所有的商業(yè)根基都離不開用戶信任。由于企業(yè)的趨利、監(jiān)管的滯后、個(gè)體的默許,已然攪起了信息繭房、大數(shù)據(jù)殺熟等輿論漩渦,何嘗不是用戶試圖對抗算法的一種外在表現(xiàn)?技術(shù)固然有著兩面性,身處其中的平臺方卻有能力進(jìn)行取舍,適當(dāng)限制算法應(yīng)用的邊界,調(diào)整想要的“目標(biāo)函數(shù)”。

能否喚醒互聯(lián)網(wǎng)平臺的“良知”,才是算法治理的“命門”所在。還是以針對算法推薦的整改為例為例,基于算法對用戶行為的“鎖定效應(yīng)”,讓用戶在算法推薦有無間進(jìn)行二選一是一種策略;對算法進(jìn)行場景化、精細(xì)化的治理,站在用戶的立場上給出更好的解決方案也是一種策略。

但愿一些互聯(lián)網(wǎng)平臺能夠站在歷史的正確一邊。

注:林陌為化名。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。