正在閱讀:

微軟宣布放棄情緒識別技術(shù),AI終究還是讀不懂人心

掃一掃下載界面新聞APP

微軟宣布放棄情緒識別技術(shù),AI終究還是讀不懂人心

AI是如何讀懂人類的情緒,并做到知人知面又知心呢?

文|三易生活

此前在2020年末,一則“戴頭盔看房”的視頻曾在網(wǎng)絡(luò)中流傳開來,但其中的主人公并非是在搞行為藝術(shù),而是因為彼時售樓處大規(guī)模使用人臉識別系統(tǒng),來區(qū)分出消費者是自然到訪、還是經(jīng)過了中介。自此開始,人臉識別技術(shù)的濫用不僅讓大眾抵觸,也引發(fā)了監(jiān)管層的警惕,更是直接導(dǎo)致了Meta方面在去年11月下線面部識別系統(tǒng)。

而在日前,又有一家科技巨頭對于人工智能技術(shù)采集用戶生物信息作出了讓步。

微軟方面在近日宣布,將停止銷售基于人臉圖像猜測用戶情緒的技術(shù),并將不再提供不受限制訪問的人臉識別技術(shù),以及限制其他面部識別程序的使用,以確保這些技術(shù)符合自己的人工智能道德準(zhǔn)則。微軟Azure的AI部門首席部門產(chǎn)品經(jīng)理Sarah Bird在博客文章中表示,“這些努力引發(fā)了有關(guān)隱私的重要問題,對‘情緒’的定義缺乏共識,以及無法跨越使用案例、地區(qū)和人口統(tǒng)計學(xué)概括面部表情和情緒狀態(tài)之間的聯(lián)系?!?/p>

據(jù)悉,微軟的AI情緒識別技術(shù)可以推斷出受測者的情緒狀態(tài)、性別、年齡、情緒,以及其他個人屬性,也就是說其甚至已經(jīng)實現(xiàn)了“察言觀色”。事實上,根據(jù)英國《衛(wèi)報》在2019年的相關(guān)報道顯示,讓AI來解讀人類情緒已經(jīng)成為一個規(guī)模達(dá)到200億美元的產(chǎn)業(yè),用AI分析消費者的情緒以及預(yù)測消費者的行為,或是用AI分析患者的心理健康等應(yīng)用場景,都已經(jīng)在逐步落地。

然而為什么如此有前景的技術(shù),微軟方面會主動選擇放棄呢?這其實是因為在AI情緒識別的實踐過程中,無論是從技術(shù)角度、還是倫理角度,都存在著不可忽視的缺陷,以至于暫時將其擱置是當(dāng)下最好的解決方案。

事實上,AI能夠“察言觀色”,是以計算機(jī)視覺和面部表情識別(FER)為基礎(chǔ)的。其中,計算機(jī)視覺技術(shù)能夠讓機(jī)器精確識別人類的面部信息,這也是實現(xiàn)人臉識別的技術(shù)基礎(chǔ);而面部表情識別,則是用來分析和解釋機(jī)器所讀取面部表情中蘊含的情緒。作為機(jī)器人的AI在覺醒、并產(chǎn)生“靈魂”前,程序依然是經(jīng)過人類設(shè)計的,這就導(dǎo)致AI情緒識別的理論基礎(chǔ)其實與人類“讀空氣”的理論基礎(chǔ)一樣,是融合了計算機(jī)科學(xué)與心理學(xué)的產(chǎn)物。

那么AI是如何讀懂人類的情緒,并做到知人知面又知心呢?相信許多朋友都聽過“微表情”這個名詞,而其在互聯(lián)網(wǎng)中則被描述為了一項能夠讓你“讀心”的技術(shù),盡管這顯然是很夸張的說法,但其實并非沒有科學(xué)依據(jù)。

據(jù)悉,心理學(xué)家Paul Ekman早在1976年就基于解剖學(xué),建立了面部表情編碼系統(tǒng)(FACS)。該系統(tǒng)按照人的面部肌肉,將人臉劃分為大約46個既相互獨立、又相互聯(lián)系的運動單元(AU),并分析了這些運動單元的運動特征以及其所控制的主要區(qū)域,與之相關(guān)的表情。

例如人在生氣時通常會皺眉、眼瞼緊張、鼻孔張大,在害怕的時候會出現(xiàn)瞳孔變大、眉毛抬起、嘴巴大開。同時,Paul Ekman等心理學(xué)家以及達(dá)爾文認(rèn)為,人類存在6種與生俱來的基本情緒系統(tǒng),即恐懼、悲傷、憤怒、愉悅、驚訝和厭惡,更復(fù)雜的情緒則是這些基本情緒的衍生。而情緒識別技術(shù)則是以各種情緒對應(yīng)的表情與面部肌肉動作為素材,通過標(biāo)注對于表情對應(yīng)的情緒標(biāo)簽來對機(jī)器進(jìn)行訓(xùn)練和學(xué)習(xí)。

簡而言之,通過計算機(jī)視覺技術(shù),AI能夠識別出人類面部肌肉的動作,再基于面部表情編碼系統(tǒng)和基本情緒模型,來告訴AI這張圖片上反應(yīng)的是什么樣的情緒,久而久之在海量數(shù)據(jù)的“灌溉”下,AI就能知道人類做出這個表情對應(yīng)的是什么情緒。雖然看起來這套理論是自洽的,但如果基本情緒系統(tǒng)理論本身存在問題呢?

其實,基本情緒系統(tǒng)的跨文化一致性一直是學(xué)界爭論的焦點,這種忽略了背景、文化和社會因素的情緒理論,也一直都有反對的聲音。美國心理科學(xué)協(xié)會曾委托五位情感科學(xué)不同理論陣營的科學(xué)家,進(jìn)行了數(shù)據(jù)收集與科學(xué)證明,以論證表情與情緒之間的關(guān)系。最終論文呈現(xiàn)出的結(jié)果,是情緒的表達(dá)方式多種多樣,很難從一組簡單的面部運動中可靠地推斷出一個人的感受,也就是表情與情緒之間并沒有可靠的科學(xué)依據(jù),證明兩者直接關(guān)聯(lián)。

參與這一項目的美國東北大學(xué)心理學(xué)教授Lisa Feldman Barrett就表示,“他們(巨頭)能檢測到一張憤怒的臉,但這與察覺到憤怒的情緒是兩碼事”。事實上,基本情緒系統(tǒng)理論之所以被人工智能領(lǐng)域接納,是因為它正好契合了機(jī)器學(xué)習(xí)的能力范圍,六種固定不變情緒的框架下,大規(guī)模利用生成對抗網(wǎng)絡(luò)(GAN)來進(jìn)行無監(jiān)督學(xué)習(xí)的AI情緒識別技術(shù),當(dāng)然就會迅速“成熟”。

如果僅僅是技術(shù)不成熟就罷了,在當(dāng)下大眾對于個人隱私重視程度不斷加深,AI情緒識別這種不僅僅存在技術(shù)問題,而且與個人隱私關(guān)聯(lián)緊密的技術(shù),更是挑動了許多人的神經(jīng)。畢竟大家如今對于面部識別就已經(jīng)很警惕了,情緒這種更私人化的東西自然是更加不希望被科技巨頭隨意評判。所以在針對科技巨頭的反壟斷浪潮中,微軟方面自然不想、也不愿意與大眾對著干。

在機(jī)器學(xué)習(xí)大規(guī)模普及前,傳統(tǒng)的算法技術(shù)局限于人類對于自身的表達(dá),需要設(shè)計者明確計算機(jī)在給定條件下的給定動作,而現(xiàn)在的算法則突破了人類表達(dá)的局限性。這固然帶來了效率上的飛躍,但算法雖然是模仿人的思維方式,卻無法模仿人的倫理自主性,在算法實現(xiàn)的過程中排除了人類對于倫理邏輯與價值理性的追求。

所以這也是為什么越來越多人對于科技的觀感開始趨于負(fù)面,并認(rèn)為科技正在逐漸走向“邪惡”的原因了。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

微軟

5.3k
  • 美股科技龍頭盤前多數(shù)下跌,特斯拉跌超2%
  • FTC據(jù)悉計劃對微軟的云業(yè)務(wù)展開調(diào)查

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

微軟宣布放棄情緒識別技術(shù),AI終究還是讀不懂人心

AI是如何讀懂人類的情緒,并做到知人知面又知心呢?

文|三易生活

此前在2020年末,一則“戴頭盔看房”的視頻曾在網(wǎng)絡(luò)中流傳開來,但其中的主人公并非是在搞行為藝術(shù),而是因為彼時售樓處大規(guī)模使用人臉識別系統(tǒng),來區(qū)分出消費者是自然到訪、還是經(jīng)過了中介。自此開始,人臉識別技術(shù)的濫用不僅讓大眾抵觸,也引發(fā)了監(jiān)管層的警惕,更是直接導(dǎo)致了Meta方面在去年11月下線面部識別系統(tǒng)。

而在日前,又有一家科技巨頭對于人工智能技術(shù)采集用戶生物信息作出了讓步。

微軟方面在近日宣布,將停止銷售基于人臉圖像猜測用戶情緒的技術(shù),并將不再提供不受限制訪問的人臉識別技術(shù),以及限制其他面部識別程序的使用,以確保這些技術(shù)符合自己的人工智能道德準(zhǔn)則。微軟Azure的AI部門首席部門產(chǎn)品經(jīng)理Sarah Bird在博客文章中表示,“這些努力引發(fā)了有關(guān)隱私的重要問題,對‘情緒’的定義缺乏共識,以及無法跨越使用案例、地區(qū)和人口統(tǒng)計學(xué)概括面部表情和情緒狀態(tài)之間的聯(lián)系?!?/p>

據(jù)悉,微軟的AI情緒識別技術(shù)可以推斷出受測者的情緒狀態(tài)、性別、年齡、情緒,以及其他個人屬性,也就是說其甚至已經(jīng)實現(xiàn)了“察言觀色”。事實上,根據(jù)英國《衛(wèi)報》在2019年的相關(guān)報道顯示,讓AI來解讀人類情緒已經(jīng)成為一個規(guī)模達(dá)到200億美元的產(chǎn)業(yè),用AI分析消費者的情緒以及預(yù)測消費者的行為,或是用AI分析患者的心理健康等應(yīng)用場景,都已經(jīng)在逐步落地。

然而為什么如此有前景的技術(shù),微軟方面會主動選擇放棄呢?這其實是因為在AI情緒識別的實踐過程中,無論是從技術(shù)角度、還是倫理角度,都存在著不可忽視的缺陷,以至于暫時將其擱置是當(dāng)下最好的解決方案。

事實上,AI能夠“察言觀色”,是以計算機(jī)視覺和面部表情識別(FER)為基礎(chǔ)的。其中,計算機(jī)視覺技術(shù)能夠讓機(jī)器精確識別人類的面部信息,這也是實現(xiàn)人臉識別的技術(shù)基礎(chǔ);而面部表情識別,則是用來分析和解釋機(jī)器所讀取面部表情中蘊含的情緒。作為機(jī)器人的AI在覺醒、并產(chǎn)生“靈魂”前,程序依然是經(jīng)過人類設(shè)計的,這就導(dǎo)致AI情緒識別的理論基礎(chǔ)其實與人類“讀空氣”的理論基礎(chǔ)一樣,是融合了計算機(jī)科學(xué)與心理學(xué)的產(chǎn)物。

那么AI是如何讀懂人類的情緒,并做到知人知面又知心呢?相信許多朋友都聽過“微表情”這個名詞,而其在互聯(lián)網(wǎng)中則被描述為了一項能夠讓你“讀心”的技術(shù),盡管這顯然是很夸張的說法,但其實并非沒有科學(xué)依據(jù)。

據(jù)悉,心理學(xué)家Paul Ekman早在1976年就基于解剖學(xué),建立了面部表情編碼系統(tǒng)(FACS)。該系統(tǒng)按照人的面部肌肉,將人臉劃分為大約46個既相互獨立、又相互聯(lián)系的運動單元(AU),并分析了這些運動單元的運動特征以及其所控制的主要區(qū)域,與之相關(guān)的表情。

例如人在生氣時通常會皺眉、眼瞼緊張、鼻孔張大,在害怕的時候會出現(xiàn)瞳孔變大、眉毛抬起、嘴巴大開。同時,Paul Ekman等心理學(xué)家以及達(dá)爾文認(rèn)為,人類存在6種與生俱來的基本情緒系統(tǒng),即恐懼、悲傷、憤怒、愉悅、驚訝和厭惡,更復(fù)雜的情緒則是這些基本情緒的衍生。而情緒識別技術(shù)則是以各種情緒對應(yīng)的表情與面部肌肉動作為素材,通過標(biāo)注對于表情對應(yīng)的情緒標(biāo)簽來對機(jī)器進(jìn)行訓(xùn)練和學(xué)習(xí)。

簡而言之,通過計算機(jī)視覺技術(shù),AI能夠識別出人類面部肌肉的動作,再基于面部表情編碼系統(tǒng)和基本情緒模型,來告訴AI這張圖片上反應(yīng)的是什么樣的情緒,久而久之在海量數(shù)據(jù)的“灌溉”下,AI就能知道人類做出這個表情對應(yīng)的是什么情緒。雖然看起來這套理論是自洽的,但如果基本情緒系統(tǒng)理論本身存在問題呢?

其實,基本情緒系統(tǒng)的跨文化一致性一直是學(xué)界爭論的焦點,這種忽略了背景、文化和社會因素的情緒理論,也一直都有反對的聲音。美國心理科學(xué)協(xié)會曾委托五位情感科學(xué)不同理論陣營的科學(xué)家,進(jìn)行了數(shù)據(jù)收集與科學(xué)證明,以論證表情與情緒之間的關(guān)系。最終論文呈現(xiàn)出的結(jié)果,是情緒的表達(dá)方式多種多樣,很難從一組簡單的面部運動中可靠地推斷出一個人的感受,也就是表情與情緒之間并沒有可靠的科學(xué)依據(jù),證明兩者直接關(guān)聯(lián)。

參與這一項目的美國東北大學(xué)心理學(xué)教授Lisa Feldman Barrett就表示,“他們(巨頭)能檢測到一張憤怒的臉,但這與察覺到憤怒的情緒是兩碼事”。事實上,基本情緒系統(tǒng)理論之所以被人工智能領(lǐng)域接納,是因為它正好契合了機(jī)器學(xué)習(xí)的能力范圍,六種固定不變情緒的框架下,大規(guī)模利用生成對抗網(wǎng)絡(luò)(GAN)來進(jìn)行無監(jiān)督學(xué)習(xí)的AI情緒識別技術(shù),當(dāng)然就會迅速“成熟”。

如果僅僅是技術(shù)不成熟就罷了,在當(dāng)下大眾對于個人隱私重視程度不斷加深,AI情緒識別這種不僅僅存在技術(shù)問題,而且與個人隱私關(guān)聯(lián)緊密的技術(shù),更是挑動了許多人的神經(jīng)。畢竟大家如今對于面部識別就已經(jīng)很警惕了,情緒這種更私人化的東西自然是更加不希望被科技巨頭隨意評判。所以在針對科技巨頭的反壟斷浪潮中,微軟方面自然不想、也不愿意與大眾對著干。

在機(jī)器學(xué)習(xí)大規(guī)模普及前,傳統(tǒng)的算法技術(shù)局限于人類對于自身的表達(dá),需要設(shè)計者明確計算機(jī)在給定條件下的給定動作,而現(xiàn)在的算法則突破了人類表達(dá)的局限性。這固然帶來了效率上的飛躍,但算法雖然是模仿人的思維方式,卻無法模仿人的倫理自主性,在算法實現(xiàn)的過程中排除了人類對于倫理邏輯與價值理性的追求。

所以這也是為什么越來越多人對于科技的觀感開始趨于負(fù)面,并認(rèn)為科技正在逐漸走向“邪惡”的原因了。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。