文|互聯(lián)網(wǎng)那些事
一美國Facebook的外包員工控訴陳,他們被一種算法裁掉了,在被AI判定沒有正常完成工作后,當(dāng)場被機(jī)器自動(dòng)發(fā)送的一封郵件解雇。
比AI取代自己工作更令我們慌亂的,是AI已經(jīng)正在親手裁掉我們?nèi)祟悺?/p>
那些躲在AI數(shù)據(jù)背后的老板和人力資源都將不再承擔(dān)責(zé)任,使勞動(dòng)關(guān)系非人化,將人力資源中的“人力”徹底剝離。西班牙勞動(dòng)法專家曾表示,如果這一趨勢持續(xù)下去,人力資源部門將面臨“非常黑暗的未來”。
帕斯夸爾曾認(rèn)為,“數(shù)字老板”永遠(yuǎn)都會是暴君,因?yàn)樗讶水?dāng)作非人來對待。AI到底能否取代人類在具有明確道德含義領(lǐng)域的經(jīng)驗(yàn)和推理能力?人工智能的權(quán)力責(zé)任標(biāo)準(zhǔn)又該如何衡量?是誰賦予了AI決定人類去留的權(quán)利?
01.被裁員前的“預(yù)告片”
阿爾法狗(AlphaGo)吊打職業(yè)圍棋手柯潔,因?yàn)樗辛祟愃迫四X的種種功能:龐大的數(shù)據(jù)庫,自我學(xué)習(xí)能力,以及找到更好解決方法的能力。
在與阿爾法狗接連對戰(zhàn)的幾個(gè)回合后,阿爾法狗的棋藝再次增長,“現(xiàn)在它越來越接近上帝了”,賽后的柯潔稱。
阿爾法狗的核心系統(tǒng)采用了機(jī)器學(xué)習(xí)與神經(jīng)系統(tǒng)科學(xué)結(jié)合的學(xué)習(xí)算法,還通過大量數(shù)據(jù)分析學(xué)習(xí)了3000多萬步的職業(yè)棋手棋譜,再通過增強(qiáng)學(xué)習(xí)的方法進(jìn)行自我博弈,尋找更好的棋路。
從烏鎮(zhèn)互聯(lián)網(wǎng)大會,李彥宏坐無人駕駛開入五環(huán),騰訊高調(diào)進(jìn)軍AI...人工智能正在以指數(shù)級增長滲透進(jìn)我們的生活乃至整個(gè)世界,隨著他們飛速旋轉(zhuǎn)的“大腦”,未來也將取代人類絕大部分的工作。
澳洲一家教學(xué)機(jī)構(gòu)培生教育(Pearson's)的新研究結(jié)果顯示,人工智能和自動(dòng)化正在滲入澳人的日常工作生活。隨著科技進(jìn)步,越來越多職業(yè)可能被自動(dòng)化。
谷歌的無人駕駛每8250km才故障一次,職業(yè)司機(jī)或?qū)⒊蔀楸蝗〈穆殬I(yè)中首當(dāng)其沖的一種;再次是醫(yī)生,云端大數(shù)據(jù)及數(shù)據(jù)庫甚至更精準(zhǔn)的操作可以完全取代他們的工作;服務(wù)業(yè)中大量重復(fù)性的工作如裁縫、服務(wù)員、抄寫員,或是高空危險(xiǎn)作業(yè)的消防、反恐都將接受來自AI的洗禮。
尤其是在翻譯領(lǐng)域,今年市場上已經(jīng)開始出現(xiàn)較為成熟的人工智能翻譯機(jī)產(chǎn)品,如科大訊飛推出的曉譯和譯唄,清華技術(shù)團(tuán)隊(duì)推出的準(zhǔn)兒。而在產(chǎn)品測試中,中英翻譯普遍達(dá)到了95%以上的準(zhǔn)確率,完美解決文科不能解決工程企業(yè)翻譯等需求。
與人類的大腦相比,AI大腦的神經(jīng)元是科學(xué)家們賦予的大腦神經(jīng),根據(jù)數(shù)據(jù)顯示,以一秒鐘的時(shí)間為單位,人工智能的電子神經(jīng)元激活次數(shù)約為上億次,而人類的大腦神經(jīng)元,則僅有200次,至少是300萬倍的差異。
也就是說,柯潔在思考下一步棋該如何走的時(shí)候,AI已經(jīng)思考了接下來近300萬步的可能。
硅谷大佬馬斯克曾多次警告,機(jī)器會殺死人類,培養(yǎng)他們的同時(shí)激活他們體內(nèi)的自主意識,目前這個(gè)說法并沒有得到科學(xué)界的印證,反倒是“AI與人類優(yōu)勢互補(bǔ)”的說法盛行。
面對爆炸性增長的巨量信息,AI確實(shí)可以高效率、高記憶力、低出錯(cuò)率的解決復(fù)雜無比的難題;但AI沒有辦法復(fù)刻人類的發(fā)散性、創(chuàng)造性智慧,關(guān)鍵時(shí)候的應(yīng)變能力、肢體語言能力及情感能力。
對于當(dāng)前的AI來說,他們唯一能感受到的只有電流和數(shù)字組成的“思考力”,處理簡單可重復(fù)的工作是他們的強(qiáng)項(xiàng),但代替HR裁掉員工,就是另外一種說法了。
02.AI成為人類“暴君”
后疫情時(shí)代,科技公司紛紛開源節(jié)流。
Facebook上曾有員工控訴稱,自己被一種算法裁掉了,他們與埃森哲簽訂勞動(dòng)合同,但是在Meta的辦公區(qū)工作,突然有一天通過視頻會議得知自己必須離職,而公司給出的裁員理由是“隨機(jī)”。
此前,Xsolla的工資預(yù)算降低了10%,在近一年時(shí)間里,Xsolla增長持續(xù)放緩,年增長率一度低至40%以下。
在Xsolla CEO眼里,公司效益不好是因?yàn)閱T工不在公司上班導(dǎo)致懈怠造成的,在使用AI算法后,直接通過郵箱解雇了450名員工中的150位。
隨后首席執(zhí)行官向Aleksandr Agapitov向所有被解雇員工發(fā)去了一封郵件:如果你的“數(shù)字足跡”沒有達(dá)到公司的標(biāo)準(zhǔn),那么你一開始就不適合Xsolla。
亞馬遜也一直在算法裁員的路上。
在亞馬遜兢兢業(yè)業(yè)工作了4年的斯蒂芬·諾曼丁在亞利桑那州鳳凰城送貨時(shí),與往常一樣打開APP查看送貨路線,卻發(fā)現(xiàn)賬號無法登錄。
同時(shí)他收到了一封來自亞馬遜的自動(dòng)郵件:你已經(jīng)被 amazon 終止合作,原因是:由算法給出的個(gè)人評分已經(jīng)低于Amazon的規(guī)定分?jǐn)?shù)。
諾曼丁非常不滿公司對他的決定,他認(rèn)為AI不能因?yàn)闊o法控制的意外而懲罰他,比如進(jìn)出小區(qū)不便,路上堵車或客戶不在等情況,他也對自己手頭上的工作有著極高的自豪感,根本無法接受“履職不到位”的最終評價(jià)。
這是對司機(jī)的算法,對于亞馬遜內(nèi)部的倉庫人員來說,只要行動(dòng)不夠快就可能失去工作。亞馬遜會跟蹤每一位工人的生產(chǎn)效率,并相應(yīng)的形成警告或裁員通知,全程沒有人力資源的半點(diǎn)影子。
這與國內(nèi)外賣小哥的考核方法相似,平臺通過AI算法計(jì)算出最快的路線及最少的時(shí)間,沒有完成便會扣錢,甚至解雇。
在接受一次CNBC采訪時(shí),亞馬遜創(chuàng)始人貝佐斯曾表示,一切決策都傾向于交給AI算法,只有戰(zhàn)略決策才是必須交給人類的商業(yè)決策,因?yàn)闄C(jī)器“只會考慮相關(guān)信息,完全沒有情感干擾”。在他眼里,人工智能可以優(yōu)化大部分的流程,為實(shí)現(xiàn)長期的就業(yè)目標(biāo)提供機(jī)會。
除了解雇,亞馬遜的AI系統(tǒng)還負(fù)責(zé)招聘,但因其用人公平性屢遭質(zhì)疑致關(guān)停,原因是在AI系統(tǒng)的學(xué)習(xí)過程中認(rèn)為過去十年中被雇傭的大多是男性,因此在審核申請人時(shí)會對“女性”詞條進(jìn)行降格處理。
在各大企業(yè)用工荒的時(shí)候,AI招聘系統(tǒng)也會死腦筋的卻把成千上萬的員工簡歷丟進(jìn)大海,哈佛大學(xué)首席研究員約瑟夫·富勒 (Joseph Fuller) 曾舉例:醫(yī)院掃描注冊護(hù)士簡歷時(shí),用AI進(jìn)行了“計(jì)算機(jī)編程”技能的篩選,而醫(yī)院僅僅需要的是可以將患者數(shù)據(jù)輸入計(jì)算機(jī)的人。
此外就連薪酬部分的工作也被AI接替,字節(jié)跳動(dòng)曾公布過一項(xiàng)專利技術(shù)“員工薪資方案生成方法及裝置”,他可以獲得員工薪資方案創(chuàng)建請求、輸出員工薪資方案末班、獲取薪資項(xiàng)目、為目標(biāo)薪資項(xiàng)目配置參數(shù)、修改參數(shù)、生成方案.....
其實(shí)按照這個(gè)道理來說,最先被裁的應(yīng)該是HR。AI 算法成本更低、效率更高、壽命更長,相比之下,在原本崗位上的員工要是不好好修煉自己,只能另謀出路。
但正如諾曼丁不滿亞馬遜的裁員決定般,AI的不靈活性致使了他的失業(yè),AI到底能否決定員工的去留?誰來對AI的“不負(fù)責(zé)行為”買單?
03.AI=不知者,無罪!
“老板和人力資源部門都不承擔(dān)解雇的責(zé)任,躲在算法和其他技術(shù)創(chuàng)新背后推卸責(zé)任,進(jìn)一步使勞動(dòng)關(guān)系非人化。”西班牙勞動(dòng)法專家法比婭·內(nèi)瓦多評價(jià)說,尤其針對一些工資與手底下人能力相掛鉤的管理層人士來說。
在內(nèi)瓦多眼里,將人力資源的工作完全交給AI會讓不少關(guān)鍵職位處于危險(xiǎn)的不利動(dòng)蕩中?!稒C(jī)器人新定律》一書中提出,人工智能永遠(yuǎn)不應(yīng)取代人類在“具有明確道德含義的領(lǐng)域”的經(jīng)驗(yàn)和推理能力。
也就是說,人類不應(yīng)授權(quán)機(jī)器來決定誰會被解雇,因?yàn)檫@樣的決策無法實(shí)現(xiàn)自動(dòng)化,不能脫離“負(fù)責(zé)任的反思”這一過程。
關(guān)于AI到底歸誰管這個(gè)問題,我們分成2個(gè)部分來看:誰負(fù)責(zé),誰擁有。
曾經(jīng)一工廠的機(jī)器人誤把一名員工當(dāng)作其執(zhí)行任務(wù)的威脅,并計(jì)算得出消除威脅的最有效方法是把其推向附近一臺正在運(yùn)行的機(jī)器,從而立刻殺死他。那么關(guān)鍵問題就在于,設(shè)計(jì)機(jī)器的程序員及工廠是否知曉其使用過程會導(dǎo)致這一結(jié)果,如果知曉則共同承擔(dān)責(zé)任,若不知曉,仍要共同承擔(dān),同時(shí)銷毀機(jī)器罷了。
就比如無人駕駛的汽車在其行駛車道上超速,深圳曾規(guī)定若出了事故,則由車輛所有人、管理人承擔(dān)責(zé)任,但不對車主進(jìn)行扣分處理。
目前為止,關(guān)于人工智能為何有或沒有法律地位,為何以及如何承擔(dān)法律責(zé)任,學(xué)界一直爭論不休,導(dǎo)致AI法學(xué)的研究出現(xiàn)“泡沫化”傾向,人工智能領(lǐng)域的研究院稱:“機(jī)器人有道德和法律上的義務(wù),甚至權(quán)利嗎?人工智能的行為和決策的自主空間越大,誰對其決策和行為承擔(dān)責(zé)任這個(gè)問題的提出就越緊迫?!?/p>
因此到底誰對AI負(fù)責(zé)的問題,從不同視角出發(fā)有著不同的處理結(jié)果,而人類的法律是否適用于AI?只有在了解過程全貌才能找到準(zhǔn)確的適用辦法,這對于還在成長期,持續(xù)高速變化的AI來說很難實(shí)現(xiàn)。
自2013年和人工智能有關(guān)的34萬項(xiàng)專利中,有53%都已被發(fā)表,其中中國一騎絕塵,是發(fā)表成果最多的國家。AI的精神成果到底會不會被人類認(rèn)可,取決于人類是否認(rèn)可AI發(fā)明者的身份,以及AI是否具有保護(hù)自己知識產(chǎn)權(quán)的權(quán)利。
也就是說如果我們要認(rèn)可AI的一切決策及成果,首先我們必須要求AI知道自己在做什么。
在西班牙工會UGT一份名為《勞資關(guān)系中的算法關(guān)系》文件中稱,如果使用AI算法解雇員工,其標(biāo)準(zhǔn)必須透明 ,算法與人工智能的任何一款產(chǎn)品一樣都會出錯(cuò),甚至AI根本不用擔(dān)心自己的決定會對“人民的安全或基本權(quán)利”產(chǎn)生什么樣的影響。
如果AI在不具有“明確道德含義”的領(lǐng)域做出了侵權(quán)或是損害人民的行為,那一定是由算法決策的失誤導(dǎo)致。算法決策所依據(jù)的或系統(tǒng)所訓(xùn)練的數(shù)據(jù)集一旦受到來自外部干擾或新型介質(zhì)的出現(xiàn),其幾秒鐘就能完成的演算并非人工智能的設(shè)計(jì)者利用規(guī)范過程模型就能解決的。
因此,AI的處理結(jié)果完全不可控,它的行為不具有可解釋性,人類設(shè)計(jì)出的人工智能的行為不能完全按照人的意志去發(fā)展,是個(gè)黑洞。
盡管在未來的某一天AI會取代我們的工作,也會代替部分人類做出絕對正確的決策,但要記住最后的勝者永遠(yuǎn)都是人類,就如柯潔在戰(zhàn)敗后,科學(xué)家仍得出“人類是贏家”的結(jié)論。
參考:
人工智能不僅會取代你的職位,現(xiàn)在還要親手裁掉你——Vista看天下
人工智能的可解釋性與AI的法律責(zé)任問題研究——?jiǎng)⑵G紅
用 AI 辭退150人,HR恐要丟掉工作——人力資源匯
人工智能會取代人類嗎?科學(xué)家:它們已經(jīng)會“放氣球”——奇點(diǎn)使者