編譯 | 智東西 吳菲凝
編輯 | 李水青
智東西4月3日消息,據(jù)《華爾街日報》報道,Meta正在開發(fā)一個系統(tǒng)來讀取人腦中的想法,該項目利用AI來幫助科學(xué)家們研究大腦中神經(jīng)元,通過一個仿真人腦模型,就能實現(xiàn)人的大腦活動在無需打字、語音輸入的情況下直接轉(zhuǎn)文字。
智東西發(fā)現(xiàn),去年,Meta AI實驗室曾公開了一項名為“大腦信號讀心術(shù)(Brain Signal Reading)”的研究成果。研究人員利用腦電圖和腦磁圖兩種非侵入式技術(shù)獲取數(shù)據(jù),讓自主監(jiān)督學(xué)習(xí)AI工具wave2vec 2.0在開源錄音上進行訓(xùn)練,訓(xùn)練數(shù)據(jù)集中包含169名志愿者在聽到有聲讀物和單句時的大腦活動錄音。
通過近150個小時的錄音,算法像懂讀心術(shù)一樣能夠推斷出人們最有可能聽到的詞。這項技術(shù)證明科學(xué)界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。
01.Meta研究“讀心術(shù)”,構(gòu)建仿真大腦模型
每年有近7千萬人遭受創(chuàng)傷性腦損傷,導(dǎo)致其今后無法再通過語言、打字甚至是手勢交流。研究人員正努力從無創(chuàng)大腦活動中解碼語言來改善這部分人的生活。
據(jù)悉,大腦解碼技術(shù)可以通過不同的方法來實現(xiàn),主要有三類:一是侵入式腦機接口,二是非侵入式腦機接口,三是用于研究神經(jīng)元活動的大腦解碼技術(shù)。Meta在研究中主要通過非侵入式腦機接口來實現(xiàn)腦電波讀取。在這項研究中,研究人員們使用的是從被試者那里收集來的大腦信號數(shù)據(jù),被試者坐在非侵入式腦部掃描儀前聽單詞和短語,然后掃描儀來捕捉他們的腦電波數(shù)據(jù)。
掃描儀可以分為兩種:一種是為人熟知的嵌入式電極,被稱為“EEG(腦電圖Electroencephalogram)”;另一種是MEG(腦磁圖Magnetoencephalography),兩種掃描儀分別測量由神經(jīng)元活動引起的電場和磁場的波動。在實踐中,這兩個系統(tǒng)使用數(shù)百個傳感器,每秒鐘可以拍攝大約1000張宏觀大腦活動的快照,研究人員再將這些EEG和MEG數(shù)據(jù)記錄輸入到一個仿真大腦模型中。
由于個人的大腦解剖結(jié)構(gòu)、各腦區(qū)神經(jīng)功能的位置和時間的差異,以及記錄過程中傳感器的位置的不同,每個人的腦電圖記錄也完全不同。在實踐中,分析大腦數(shù)據(jù)通常需要在仿真大腦上重新調(diào)整信號,這是一個較復(fù)雜的工程管道。在以前的研究中,大腦解碼器是在少量的錄音中訓(xùn)練,然后預(yù)測一組有限的語音特征,如部分語音類別或單詞。
在這次研究中,研究人員設(shè)計了一個新主體嵌入層,該層經(jīng)過端到端的訓(xùn)練,可以將所有腦電波記錄對齊在一個公共空間當(dāng)中。為了分析這些腦信號數(shù)據(jù),研究人員使用了自我監(jiān)督學(xué)習(xí)的AI模型wave2vec 2.0,該模型不用指示就能從巨大的數(shù)據(jù)池中抓取數(shù)據(jù),可從噪音中識別正確的語音,還能解析動物對話的含義。為了從非侵入式大腦信號中解碼語音,研究人員訓(xùn)練出了一個可對比學(xué)習(xí)的模型,把大腦活動與相似的語音對齊,當(dāng)兩者保持大體一致時,就能找出仿真大腦模型輸出的對應(yīng)語音。
02.打造通用腦語言解碼器,大腦活動直接轉(zhuǎn)文字
Meta AI團隊在之前的工作中用wave2vec 2.0證明了該算法可以生成與大腦類似的語音電波。據(jù)Meta研究團隊稱,在訓(xùn)練中系統(tǒng)執(zhí)行的是零樣本分類,只要提供一個大腦活動片段,系統(tǒng)就能從眾多音頻片段中確定這個人實際聽到的是哪一個片段,算法就能推斷人們最有可能聽到的詞。
Meta的科學(xué)家亞歷山大·德福塞斯(Alexandre Défossez)是這項研究的團隊成員之一,他說這項工作的最終目標是創(chuàng)建一個通用腦語言解碼器,它可以直接將我們的大腦活動轉(zhuǎn)化為文字。最終的研究結(jié)果表明,訓(xùn)練有素的自我學(xué)習(xí)AI模型可以成功從無創(chuàng)大腦的活動記錄中解碼感知到的語音。但這還只是第一步,目前的研究專注于解碼語音感知,但最終的現(xiàn)實目標是要實現(xiàn)與患者的交流,將研究擴展到語音生成。
在可見的未來,人們只要戴著一個腦電圖帽,就能夠給朋友發(fā)短信。德福塞斯補充說,這項技術(shù)可能會徹底改變那些無法交流的患者的生活,他們目前已公開分享這項研究,并加快進展來應(yīng)對未來的挑戰(zhàn)。Meta這項研究充分證明了AI可以在合理應(yīng)用下讓人類更好地了解自己,不僅是進一步推動技術(shù)的進步,還可以創(chuàng)造出人類與計算機交互的新方式。
03.基于強大數(shù)據(jù)處理能力,AI助人類了解大腦機制
神經(jīng)科學(xué)推動AI發(fā)展在未來將釋放出巨大的潛力,但大多數(shù)AI工程師都不知道如何借助神經(jīng)科學(xué)來助力AI發(fā)展,也不明白人工神經(jīng)元網(wǎng)絡(luò)和動物神經(jīng)元網(wǎng)絡(luò)的行為特征有何分別。加州大學(xué)伯克利分校心理學(xué)教授塞萊斯特·基德(Celeste Kidd)通過一項實驗幫助工程師們更好理解了神經(jīng)科學(xué)、計算科學(xué)等領(lǐng)域是如何協(xié)同推進AI發(fā)展的。
在研究中,通過一系列關(guān)聯(lián)測試,基德積累了一個數(shù)據(jù)池,把人們對于一個問題的不同看法進行了分類?;峦ㄟ^研究人們對某些政治家的看法,得出一個結(jié)論:人們最容易在一些帶有道德評判色彩的詞語中產(chǎn)生意見分歧,這本是人類特有的思考行為,但那些已經(jīng)通過具身圖靈測試(The Embodied Turing Test )的AI也能達到。
基德及其團隊總結(jié)出,人們往往不會對常見物體的基本特征達成一致。即使對于雞、鯨魚和鮭魚這樣常見的動物,人們對它們的看法也不盡相同。這個研究結(jié)果由“聚類模型”輔助得出,該模型是多個AI模型的實現(xiàn)基礎(chǔ)。雖然這個觀察看上去并不深刻,但結(jié)果表明,AI大腦解碼研究的可信度遠高于心理學(xué)家們之前所認為的。
基德稱,AI最重要的能力就是使諸如OpenAI的聊天機器人ChatGPT、谷歌聊天機器人Bard和微軟的新版搜索引擎Bing等新研究成為可能。在她看來,現(xiàn)代計算機系統(tǒng)擁有遠超過去的數(shù)據(jù)處理能力,這讓一切研究都有機會成為現(xiàn)實,這種能力開辟了很多的可能性,無論是在生物學(xué)、醫(yī)學(xué)還是認知科學(xué)領(lǐng)域。
普林斯頓大學(xué)神經(jīng)科學(xué)助理教授塔蒂亞娜·恩格爾(Tatiana Engel)使用了與大多數(shù)AI同類型的人工神經(jīng)元網(wǎng)絡(luò)。她的團隊用這些人工神經(jīng)元網(wǎng)絡(luò)來解釋動物大腦中數(shù)百個神經(jīng)元的電信號,并訓(xùn)練人工神經(jīng)元網(wǎng)絡(luò)模仿動物神經(jīng)元網(wǎng)絡(luò)行為特征,讓它們做動物的動作,比如游泳和蠕動。
在研究中,團隊發(fā)現(xiàn),這些人工神經(jīng)元網(wǎng)絡(luò)會通過模擬來不斷接近動物神經(jīng)元的組織方式。恩格爾博士稱,大腦的神經(jīng)網(wǎng)絡(luò)要更加復(fù)雜,但人工神經(jīng)元網(wǎng)絡(luò)作為一種模擬系統(tǒng),既足夠簡單,也能夠無限接近動物神經(jīng)元的生物學(xué)價值,可以通過模仿來告訴我們真實大腦是如何工作的。這就說明,思考是腦電波向大腦發(fā)送信號,形成一個由神經(jīng)元構(gòu)成的復(fù)雜代碼來影響我們的行為。
這種結(jié)論與神經(jīng)科學(xué)家之前的結(jié)論相反:他們曾認為存在影響我們應(yīng)該如何做決定的神經(jīng)元。但實際上,并不存在“吃巧克力”和“不吃巧克力”的神經(jīng)元。恩格爾博士稱,AI能幫助人們知道大腦的內(nèi)部構(gòu)造和運作情況。
04.結(jié)語:機器解碼大腦信號,“讀心專家”成現(xiàn)實
當(dāng)大量的腦電波圖像數(shù)據(jù)用于訓(xùn)練通用腦模型時,我們將會更好地理解人類思維的形成過程和內(nèi)部發(fā)展變化,并將其用于改進人工智能算法的性能和其他領(lǐng)域。
在可見的未來,大腦解碼技術(shù)的研究和發(fā)展將對認知科學(xué)和人工智能產(chǎn)生深遠影響,不僅為神經(jīng)系統(tǒng)疾病治療提供新發(fā)展機遇,而且能為深受語言困擾的患者帶來交流的可能性。但與此同時,EEG、MEG等數(shù)據(jù)獲取困難、大腦數(shù)據(jù)整合難度大以及腦數(shù)據(jù)的隱私保護問題等挑戰(zhàn)接踵而來,同樣需要多加關(guān)注。
來源:《華爾街日報》、Meta AI官網(wǎng)