正在閱讀:

ChatGPT會(huì)替代我們嗎?

掃一掃下載界面新聞APP

ChatGPT會(huì)替代我們嗎?

別慌,但也別躺。

圖片來源:界面新聞 范劍磊

文|文化產(chǎn)業(yè)評(píng)論 李翌

編輯|半島

當(dāng)你沉迷于“調(diào)戲”ChatGPT無法自拔的時(shí)候,“或許有一天我會(huì)被AI取代”的陰云突然籠上心頭。我們與專業(yè)人士和ChatGPT自己聊了聊,可以很負(fù)責(zé)任地告訴你:別慌,但也別躺。

Open AI推出的聊天機(jī)器人ChatGPT受到了廣泛關(guān)注,推出僅兩個(gè)月活躍用戶便突破了1億。這款基于自然語言處理技術(shù)的生成型人工智能模型致力于與用戶進(jìn)行自然對(duì)話,并應(yīng)用深度學(xué)習(xí)技術(shù)來更加準(zhǔn)確地回答用戶提出的問題。

其在文案撰寫、故事創(chuàng)作、翻譯潤色、程序檢查等多方面的表現(xiàn)雖說仍存在一些問題,卻也足夠令人驚喜。通過提示詞(Prompt)問法的不斷優(yōu)化,與搜索引擎、瀏覽器等的集成,ChatGPT的玩法有望進(jìn)一步拓展,或?qū)⒊蔀樾碌纳a(chǎn)力輔助工具。

土,但勝在真誠高效

人工智能未來可期,這變相給人類帶來了壓力。進(jìn)入人工智能時(shí)代,人類是否面臨著被自己的造物取代的風(fēng)險(xiǎn)?人類智能又該向什么方向發(fā)展?在新生事物不待固定下來便已陳舊的永不停歇的變動(dòng)之中,人類應(yīng)當(dāng)如何自處,成為了我們不得不關(guān)注的問題。

人類決定了人工智能的發(fā)展上限

有趣的是,同為“弱人工智能”,AlphaGo、ChatGPT在人群中引發(fā)的驚詫與危機(jī)感與“AI助理”“智能管家”因離譜的錯(cuò)誤被調(diào)侃為“人工智障”是同時(shí)發(fā)生的,這也導(dǎo)致了人們面對(duì)人工智能時(shí)復(fù)雜的情緒。

目前,人工智能依然采取“記憶-搜索-插值”的模式,并不能做到像人一樣思考。但當(dāng)模型的訓(xùn)練參數(shù)從百億級(jí)別拓展到千億級(jí)別時(shí),便產(chǎn)生了驚人的“質(zhì)變”,這與大數(shù)據(jù)與云計(jì)算的發(fā)展是密不可分的。

我們熱切探討以ChatGPT為開端的人工智能應(yīng)用新場景,卻不難發(fā)現(xiàn)其中包含的認(rèn)識(shí)論老問題。對(duì)ChatGPT展開認(rèn)識(shí)論維度的哲學(xué)批判,不僅為冷靜考察技術(shù)的社會(huì)效應(yīng)提供了新的視角,ChatGPT本身亦成為一面鏡子,促使人們對(duì)于思維與知識(shí)的本質(zhì)進(jìn)行反思。

我們可以將ChatGPT類比為一種基于演繹推理的技術(shù)。演繹推理從一般性的已知前提出發(fā),推導(dǎo)得出個(gè)別的具體結(jié)論,ChatGPT也采取了類似的邏輯:

利用預(yù)訓(xùn)練的語言模型和深度學(xué)習(xí)算法,ChatGPT通過處理和分析大量的文本數(shù)據(jù),學(xué)習(xí)自然語言的語法和語義;根據(jù)自然語言詞序分布的顯著統(tǒng)計(jì)特征,從用戶輸入的文本中識(shí)別出相似的模式和語言結(jié)構(gòu),從而推導(dǎo)和預(yù)測出概率分布較好的相關(guān)詞序列,以生成新的文本來回答用戶的問題。

也就是說,ChatGPT給出回應(yīng)主要依賴相關(guān)性而非邏輯性,這與人類的綜合思維模式截然不同。

ChatGPT或許還缺乏一些幽默感

這意味著,ChatGPT同樣面臨著演繹推理的思維局限——無法創(chuàng)造新的知識(shí)。

ChatGPT的輸出結(jié)果僅僅是對(duì)已有數(shù)據(jù)的總結(jié)和概括,而不能產(chǎn)生超出訓(xùn)練數(shù)據(jù)范圍的新內(nèi)容。相比而言,人類通過從經(jīng)驗(yàn)中學(xué)習(xí),采用歸納法、演繹法、類比法等多種思維方式與創(chuàng)造性想象的結(jié)合,產(chǎn)生新的知識(shí)。這是“弱人工智能”所不具備的能力,也是“強(qiáng)人工智能”的發(fā)展目標(biāo)。

從目前來看,人類知識(shí)和語言的發(fā)展水平框定了人工智能的發(fā)展上限,而人類思維的局限、人類的發(fā)展上限則永遠(yuǎn)需要人類自身通過不斷提高認(rèn)識(shí)世界的能力與水平來突破。在這個(gè)過程中,人工智能或許能夠提供一些輔助,卻無法代替人類承擔(dān)這一重任。

與演繹推理類似,ChatGPT的輸出結(jié)果受到輸入數(shù)據(jù)的影響。ChatGPT只能保證給出的回答在語言形式上的合規(guī)性,無法判斷回答是否正確、真實(shí)。

究其根源,一方面,對(duì)于一些自然和社會(huì)現(xiàn)象,人類自身尚未形成定論,這些未知正是人類不斷發(fā)展的動(dòng)力與方向;

另一方面,ChatGPT的知識(shí)范圍局限于其訓(xùn)練參數(shù)(在搭載了GPT的搜索引擎“新必應(yīng)”的情況下,是整個(gè)互聯(lián)網(wǎng)),如果問題超出訓(xùn)練參數(shù)范圍,更容易發(fā)生錯(cuò)誤。

至少認(rèn)錯(cuò)態(tài)度是誠懇的

以ChatGPT為例,其訓(xùn)練數(shù)據(jù)包括維基百科、Common Crawl、開源論文、社交媒體等免費(fèi)、公開的文本數(shù)據(jù)集以及商業(yè)公司提供的私有數(shù)據(jù)集,如書籍、新聞報(bào)道等,這些數(shù)據(jù)并不能覆蓋人類面臨的全部問題,其本身的時(shí)效性、真實(shí)性、客觀性和代表性也是存疑的。

接入互聯(lián)網(wǎng)的“新必應(yīng)”雖然在提供實(shí)時(shí)信息、信息溯源方面有了很大的進(jìn)步,但由于暴露在未經(jīng)審查、標(biāo)注的數(shù)據(jù)集之中,回答的真實(shí)性、正確性方面更是大打折扣,捏造答案、偽造數(shù)據(jù)來源等問題也在近期的測試中不斷暴露出來。

最重要的是,接入互聯(lián)網(wǎng)信息并不意味著實(shí)現(xiàn)了人工智能對(duì)全人類知識(shí)的整合,而只是對(duì)公開的數(shù)字化信息的整合,大量權(quán)威的資料依然以閉源形式或以實(shí)體文件形式存在。因此,人工智能的發(fā)展也受到人類現(xiàn)有知識(shí)的開源與數(shù)字化進(jìn)程影響。

不僅如此,ChatGPT也無法保證其答案合乎道德、客觀中立。

人類自身對(duì)于道德、立場等問題尚未達(dá)成一致,遑論以程序語言表達(dá)復(fù)雜的倫理規(guī)則——但正是這些差異與復(fù)雜性造就了人類的獨(dú)特與多樣。

盡管ChatGPT在訓(xùn)練數(shù)據(jù)選取方面盡可能追求廣泛、全面地覆蓋不同領(lǐng)域與話題,依然可能存在非客觀的傾向,如數(shù)據(jù)選取者與數(shù)據(jù)標(biāo)注員的偏好、文化背景、價(jià)值觀等因素都可能影響對(duì)一段文本的理解或評(píng)價(jià),導(dǎo)致一些主觀性的標(biāo)注結(jié)果,進(jìn)而影響表達(dá)的準(zhǔn)確性。為避免這種情況的發(fā)生,需要通過多輪審核與校對(duì)進(jìn)行修正。

嚴(yán)重的“雙標(biāo)”依然存在

而當(dāng)GPT語言模型脫離安全的訓(xùn)練數(shù)據(jù)集,直接接入互聯(lián)網(wǎng),便不可避免地接收到帶有極端主義、歧視性的信息。近期關(guān)于測試中的“新必應(yīng)”人工智能發(fā)表危險(xiǎn)言論的消息層出不窮,但比起對(duì)人工智能“失控”的恐慌,人類更應(yīng)該自我反思:

作為人工智能學(xué)習(xí)樣本的互聯(lián)網(wǎng)數(shù)據(jù)正是由人類所創(chuàng)造的,“新必應(yīng)”的極端言論只是人類自身的鏡子。人類在互聯(lián)網(wǎng)上的平均道德水平?jīng)Q定了人工智能的道德水平。人們期待一個(gè)善良、客觀、包容的人工智能的誕生,但這只有在人類學(xué)會(huì)互相尊重、互相理解、心存友善之時(shí)才是可能的。

得到“令人不安”的答案很大程度上源于Roose先前帶有不良意圖的刻意引導(dǎo)

在人工智能觸碰到人類智能的“天花板”之前,也面臨著數(shù)據(jù)與算力的現(xiàn)實(shí)問題。

一個(gè)類似ChatGPT的千億級(jí)別參數(shù)的大語言模型的構(gòu)建,需要大量標(biāo)注數(shù)據(jù)集作為訓(xùn)練參數(shù),并經(jīng)過細(xì)致的人工調(diào)試與數(shù)據(jù)反饋,在資金、人力和時(shí)間成本上耗費(fèi)巨大;大模型的訓(xùn)練與運(yùn)行對(duì)GPU算力的需求也是巨大的。

根據(jù)國盛證券報(bào)告估算,以ChatGPT采用的GPT-3模型訓(xùn)練一次的成本約為140萬美元。而為滿足不斷增長的用戶訪問需求,ChatGPT也面臨著更大的算力提升需要。

除資金與人力成本外,這些算力的實(shí)現(xiàn)同樣依賴于能源基礎(chǔ)設(shè)施以及服務(wù)器冷卻系統(tǒng)的建設(shè),對(duì)電力的大量需求增加了碳排放量,服務(wù)器冷卻水的排放也容易影響當(dāng)?shù)厮疁厮|(zhì),對(duì)人類的生活環(huán)境將造成巨大影響。

可以說,人工智能的發(fā)展上限也是由芯片、服務(wù)器、公有云技術(shù)的發(fā)展水平以及基礎(chǔ)設(shè)施的建設(shè)水平?jīng)Q定的;而人類在發(fā)展人工智能技術(shù)的過程中,也不斷改變著自身、社會(huì)與自然。關(guān)鍵在于,人類如何引導(dǎo)這些改變向好發(fā)展。

人類需要與人工智能共同發(fā)展

我們能夠確定的是:人工智能無法取代人類。這并不意味著人類可以安于現(xiàn)狀、故步自封。在人工智能廣泛應(yīng)用的時(shí)代,人類的思考、創(chuàng)造和創(chuàng)新能力依然是不可或缺的。

人工智能的局限、人類自身發(fā)展的局限,依然需要人類通過拓展思維能力、考察社會(huì)與自然、探尋科學(xué)原理來不斷突破;人工智能對(duì)于美與道德的觀念的建立,也離不開人類對(duì)人文素養(yǎng)、藝術(shù)修養(yǎng)和道德理解的不斷深化。

人類自身的發(fā)展是人工智能的發(fā)展的基礎(chǔ)與條件,如果沒有人類的不斷進(jìn)步,人工智能所能做到的也只是知識(shí)的“無效內(nèi)卷”。

互聯(lián)網(wǎng)搜索引擎的出現(xiàn)對(duì)人類的學(xué)習(xí)和記憶模式造成了深遠(yuǎn)影響。“谷歌效應(yīng)”形容的便是人們對(duì)于能夠通過互聯(lián)網(wǎng)輕易搜索取得的信息的“健忘”傾向。

現(xiàn)如今,將人工智能、搜索引擎與互聯(lián)網(wǎng)資源作為人類的“外置大腦”雖有一定的合理性,卻只有在人具備較為完備的知識(shí)體系的基礎(chǔ)上才能更好地發(fā)揮作用,而ChatGPT以及“新必應(yīng)”等搭載了人工智能的搜索引擎的出現(xiàn),對(duì)于人類的思維能力提出了更高的要求:

在搜索之前,人類必須首先知道自己想要的是什么;

在搜索的過程中,人類需要時(shí)刻運(yùn)用自己的判斷力才能在冗雜的信息中去偽存真;

在人工智能、搜索引擎或任何平臺(tái)給出看似有理有據(jù)的答案的時(shí)候,人類必須始終保持著懷疑的態(tài)度,獨(dú)立思考,審慎地甄別、溯源與考證,以足夠的自信提出質(zhì)疑。

……

這些能力是人類與人工智能交互中所必需的,卻無法憑借人工智能輕易取得,只能通過人自身腳踏實(shí)地地閱讀、學(xué)習(xí)與實(shí)踐逐步培養(yǎng)。

這與人工智能的前期訓(xùn)練類似,都是耗費(fèi)巨大、需要極度耐心的工作,但所學(xué)習(xí)的東西將永遠(yuǎn)成為自身的財(cái)富,并為之后的發(fā)展提供助益。人類在學(xué)習(xí)過程中的感悟,最終也能為優(yōu)化人工智能分析模式、改善輸出結(jié)果提供幫助。

有效地發(fā)揮ChatGPT等人工智能程序的作用,也需要人類學(xué)會(huì)更精確地描述需求。

人類社會(huì)的模糊暗示以及根據(jù)情境的“隨機(jī)應(yīng)變”是人工智能所難以理解的。明晰自己的訴求,并精準(zhǔn)地將它用語言表達(dá)出來,才是人工智能有效實(shí)現(xiàn)人類需求的前提。

由此,提示工程(Prompt Engineering)在未來將起到更加重要的作用。為了更好地利用人工智能輔助自己的工作,人們也有必要掌握相關(guān)的基本能力。

OpenAI首席執(zhí)行官Altman為Prompt技能“背書”

人工智能是人類科學(xué)技術(shù)與社會(huì)文化在現(xiàn)實(shí)生產(chǎn)力條件下的集成,是與人類文明協(xié)同演進(jìn)的造物。

人工智能技術(shù)能夠提高人類部分工作的效率、帶來諸多便利,從而使人類能夠?qū)⒏鄷r(shí)間與精力投入到創(chuàng)造性工作與自我提升中去。

人類不僅需要積極發(fā)展人工智能技術(shù),將其應(yīng)用于更多領(lǐng)域,不斷推動(dòng)生產(chǎn)力提高與社會(huì)進(jìn)步;也需要不斷完善自身思維和能力,與人工智能互補(bǔ)發(fā)展、共同發(fā)展。

同時(shí),人工智能的發(fā)展也應(yīng)當(dāng)以滿足人類切實(shí)需要、改善人類現(xiàn)實(shí)生活為導(dǎo)向,而不能以思維能力的退化、現(xiàn)實(shí)生活的空虛、資源的浪費(fèi)與環(huán)境的破壞為代價(jià)。

結(jié)語

在人類社會(huì)不斷進(jìn)步,人類不斷實(shí)現(xiàn)自身的自由與全面發(fā)展的征程中,我們樂于擁有一位能夠與我們相互幫助、共同成長的伙伴;也永遠(yuǎn)需要一面鏡子,它映照出人類的獨(dú)特,也映照出人類的局限,從而不斷激發(fā)出人類自我完善、不斷向上的動(dòng)力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

ChatGPT會(huì)替代我們嗎?

別慌,但也別躺。

圖片來源:界面新聞 范劍磊

文|文化產(chǎn)業(yè)評(píng)論 李翌

編輯|半島

當(dāng)你沉迷于“調(diào)戲”ChatGPT無法自拔的時(shí)候,“或許有一天我會(huì)被AI取代”的陰云突然籠上心頭。我們與專業(yè)人士和ChatGPT自己聊了聊,可以很負(fù)責(zé)任地告訴你:別慌,但也別躺。

Open AI推出的聊天機(jī)器人ChatGPT受到了廣泛關(guān)注,推出僅兩個(gè)月活躍用戶便突破了1億。這款基于自然語言處理技術(shù)的生成型人工智能模型致力于與用戶進(jìn)行自然對(duì)話,并應(yīng)用深度學(xué)習(xí)技術(shù)來更加準(zhǔn)確地回答用戶提出的問題。

其在文案撰寫、故事創(chuàng)作、翻譯潤色、程序檢查等多方面的表現(xiàn)雖說仍存在一些問題,卻也足夠令人驚喜。通過提示詞(Prompt)問法的不斷優(yōu)化,與搜索引擎、瀏覽器等的集成,ChatGPT的玩法有望進(jìn)一步拓展,或?qū)⒊蔀樾碌纳a(chǎn)力輔助工具。

土,但勝在真誠高效

人工智能未來可期,這變相給人類帶來了壓力。進(jìn)入人工智能時(shí)代,人類是否面臨著被自己的造物取代的風(fēng)險(xiǎn)?人類智能又該向什么方向發(fā)展?在新生事物不待固定下來便已陳舊的永不停歇的變動(dòng)之中,人類應(yīng)當(dāng)如何自處,成為了我們不得不關(guān)注的問題。

人類決定了人工智能的發(fā)展上限

有趣的是,同為“弱人工智能”,AlphaGo、ChatGPT在人群中引發(fā)的驚詫與危機(jī)感與“AI助理”“智能管家”因離譜的錯(cuò)誤被調(diào)侃為“人工智障”是同時(shí)發(fā)生的,這也導(dǎo)致了人們面對(duì)人工智能時(shí)復(fù)雜的情緒。

目前,人工智能依然采取“記憶-搜索-插值”的模式,并不能做到像人一樣思考。但當(dāng)模型的訓(xùn)練參數(shù)從百億級(jí)別拓展到千億級(jí)別時(shí),便產(chǎn)生了驚人的“質(zhì)變”,這與大數(shù)據(jù)與云計(jì)算的發(fā)展是密不可分的。

我們熱切探討以ChatGPT為開端的人工智能應(yīng)用新場景,卻不難發(fā)現(xiàn)其中包含的認(rèn)識(shí)論老問題。對(duì)ChatGPT展開認(rèn)識(shí)論維度的哲學(xué)批判,不僅為冷靜考察技術(shù)的社會(huì)效應(yīng)提供了新的視角,ChatGPT本身亦成為一面鏡子,促使人們對(duì)于思維與知識(shí)的本質(zhì)進(jìn)行反思。

我們可以將ChatGPT類比為一種基于演繹推理的技術(shù)。演繹推理從一般性的已知前提出發(fā),推導(dǎo)得出個(gè)別的具體結(jié)論,ChatGPT也采取了類似的邏輯:

利用預(yù)訓(xùn)練的語言模型和深度學(xué)習(xí)算法,ChatGPT通過處理和分析大量的文本數(shù)據(jù),學(xué)習(xí)自然語言的語法和語義;根據(jù)自然語言詞序分布的顯著統(tǒng)計(jì)特征,從用戶輸入的文本中識(shí)別出相似的模式和語言結(jié)構(gòu),從而推導(dǎo)和預(yù)測出概率分布較好的相關(guān)詞序列,以生成新的文本來回答用戶的問題。

也就是說,ChatGPT給出回應(yīng)主要依賴相關(guān)性而非邏輯性,這與人類的綜合思維模式截然不同。

ChatGPT或許還缺乏一些幽默感

這意味著,ChatGPT同樣面臨著演繹推理的思維局限——無法創(chuàng)造新的知識(shí)。

ChatGPT的輸出結(jié)果僅僅是對(duì)已有數(shù)據(jù)的總結(jié)和概括,而不能產(chǎn)生超出訓(xùn)練數(shù)據(jù)范圍的新內(nèi)容。相比而言,人類通過從經(jīng)驗(yàn)中學(xué)習(xí),采用歸納法、演繹法、類比法等多種思維方式與創(chuàng)造性想象的結(jié)合,產(chǎn)生新的知識(shí)。這是“弱人工智能”所不具備的能力,也是“強(qiáng)人工智能”的發(fā)展目標(biāo)。

從目前來看,人類知識(shí)和語言的發(fā)展水平框定了人工智能的發(fā)展上限,而人類思維的局限、人類的發(fā)展上限則永遠(yuǎn)需要人類自身通過不斷提高認(rèn)識(shí)世界的能力與水平來突破。在這個(gè)過程中,人工智能或許能夠提供一些輔助,卻無法代替人類承擔(dān)這一重任。

與演繹推理類似,ChatGPT的輸出結(jié)果受到輸入數(shù)據(jù)的影響。ChatGPT只能保證給出的回答在語言形式上的合規(guī)性,無法判斷回答是否正確、真實(shí)。

究其根源,一方面,對(duì)于一些自然和社會(huì)現(xiàn)象,人類自身尚未形成定論,這些未知正是人類不斷發(fā)展的動(dòng)力與方向;

另一方面,ChatGPT的知識(shí)范圍局限于其訓(xùn)練參數(shù)(在搭載了GPT的搜索引擎“新必應(yīng)”的情況下,是整個(gè)互聯(lián)網(wǎng)),如果問題超出訓(xùn)練參數(shù)范圍,更容易發(fā)生錯(cuò)誤。

至少認(rèn)錯(cuò)態(tài)度是誠懇的

以ChatGPT為例,其訓(xùn)練數(shù)據(jù)包括維基百科、Common Crawl、開源論文、社交媒體等免費(fèi)、公開的文本數(shù)據(jù)集以及商業(yè)公司提供的私有數(shù)據(jù)集,如書籍、新聞報(bào)道等,這些數(shù)據(jù)并不能覆蓋人類面臨的全部問題,其本身的時(shí)效性、真實(shí)性、客觀性和代表性也是存疑的。

接入互聯(lián)網(wǎng)的“新必應(yīng)”雖然在提供實(shí)時(shí)信息、信息溯源方面有了很大的進(jìn)步,但由于暴露在未經(jīng)審查、標(biāo)注的數(shù)據(jù)集之中,回答的真實(shí)性、正確性方面更是大打折扣,捏造答案、偽造數(shù)據(jù)來源等問題也在近期的測試中不斷暴露出來。

最重要的是,接入互聯(lián)網(wǎng)信息并不意味著實(shí)現(xiàn)了人工智能對(duì)全人類知識(shí)的整合,而只是對(duì)公開的數(shù)字化信息的整合,大量權(quán)威的資料依然以閉源形式或以實(shí)體文件形式存在。因此,人工智能的發(fā)展也受到人類現(xiàn)有知識(shí)的開源與數(shù)字化進(jìn)程影響。

不僅如此,ChatGPT也無法保證其答案合乎道德、客觀中立。

人類自身對(duì)于道德、立場等問題尚未達(dá)成一致,遑論以程序語言表達(dá)復(fù)雜的倫理規(guī)則——但正是這些差異與復(fù)雜性造就了人類的獨(dú)特與多樣。

盡管ChatGPT在訓(xùn)練數(shù)據(jù)選取方面盡可能追求廣泛、全面地覆蓋不同領(lǐng)域與話題,依然可能存在非客觀的傾向,如數(shù)據(jù)選取者與數(shù)據(jù)標(biāo)注員的偏好、文化背景、價(jià)值觀等因素都可能影響對(duì)一段文本的理解或評(píng)價(jià),導(dǎo)致一些主觀性的標(biāo)注結(jié)果,進(jìn)而影響表達(dá)的準(zhǔn)確性。為避免這種情況的發(fā)生,需要通過多輪審核與校對(duì)進(jìn)行修正。

嚴(yán)重的“雙標(biāo)”依然存在

而當(dāng)GPT語言模型脫離安全的訓(xùn)練數(shù)據(jù)集,直接接入互聯(lián)網(wǎng),便不可避免地接收到帶有極端主義、歧視性的信息。近期關(guān)于測試中的“新必應(yīng)”人工智能發(fā)表危險(xiǎn)言論的消息層出不窮,但比起對(duì)人工智能“失控”的恐慌,人類更應(yīng)該自我反思:

作為人工智能學(xué)習(xí)樣本的互聯(lián)網(wǎng)數(shù)據(jù)正是由人類所創(chuàng)造的,“新必應(yīng)”的極端言論只是人類自身的鏡子。人類在互聯(lián)網(wǎng)上的平均道德水平?jīng)Q定了人工智能的道德水平。人們期待一個(gè)善良、客觀、包容的人工智能的誕生,但這只有在人類學(xué)會(huì)互相尊重、互相理解、心存友善之時(shí)才是可能的。

得到“令人不安”的答案很大程度上源于Roose先前帶有不良意圖的刻意引導(dǎo)

在人工智能觸碰到人類智能的“天花板”之前,也面臨著數(shù)據(jù)與算力的現(xiàn)實(shí)問題。

一個(gè)類似ChatGPT的千億級(jí)別參數(shù)的大語言模型的構(gòu)建,需要大量標(biāo)注數(shù)據(jù)集作為訓(xùn)練參數(shù),并經(jīng)過細(xì)致的人工調(diào)試與數(shù)據(jù)反饋,在資金、人力和時(shí)間成本上耗費(fèi)巨大;大模型的訓(xùn)練與運(yùn)行對(duì)GPU算力的需求也是巨大的。

根據(jù)國盛證券報(bào)告估算,以ChatGPT采用的GPT-3模型訓(xùn)練一次的成本約為140萬美元。而為滿足不斷增長的用戶訪問需求,ChatGPT也面臨著更大的算力提升需要。

除資金與人力成本外,這些算力的實(shí)現(xiàn)同樣依賴于能源基礎(chǔ)設(shè)施以及服務(wù)器冷卻系統(tǒng)的建設(shè),對(duì)電力的大量需求增加了碳排放量,服務(wù)器冷卻水的排放也容易影響當(dāng)?shù)厮疁厮|(zhì),對(duì)人類的生活環(huán)境將造成巨大影響。

可以說,人工智能的發(fā)展上限也是由芯片、服務(wù)器、公有云技術(shù)的發(fā)展水平以及基礎(chǔ)設(shè)施的建設(shè)水平?jīng)Q定的;而人類在發(fā)展人工智能技術(shù)的過程中,也不斷改變著自身、社會(huì)與自然。關(guān)鍵在于,人類如何引導(dǎo)這些改變向好發(fā)展。

人類需要與人工智能共同發(fā)展

我們能夠確定的是:人工智能無法取代人類。這并不意味著人類可以安于現(xiàn)狀、故步自封。在人工智能廣泛應(yīng)用的時(shí)代,人類的思考、創(chuàng)造和創(chuàng)新能力依然是不可或缺的。

人工智能的局限、人類自身發(fā)展的局限,依然需要人類通過拓展思維能力、考察社會(huì)與自然、探尋科學(xué)原理來不斷突破;人工智能對(duì)于美與道德的觀念的建立,也離不開人類對(duì)人文素養(yǎng)、藝術(shù)修養(yǎng)和道德理解的不斷深化。

人類自身的發(fā)展是人工智能的發(fā)展的基礎(chǔ)與條件,如果沒有人類的不斷進(jìn)步,人工智能所能做到的也只是知識(shí)的“無效內(nèi)卷”。

互聯(lián)網(wǎng)搜索引擎的出現(xiàn)對(duì)人類的學(xué)習(xí)和記憶模式造成了深遠(yuǎn)影響。“谷歌效應(yīng)”形容的便是人們對(duì)于能夠通過互聯(lián)網(wǎng)輕易搜索取得的信息的“健忘”傾向。

現(xiàn)如今,將人工智能、搜索引擎與互聯(lián)網(wǎng)資源作為人類的“外置大腦”雖有一定的合理性,卻只有在人具備較為完備的知識(shí)體系的基礎(chǔ)上才能更好地發(fā)揮作用,而ChatGPT以及“新必應(yīng)”等搭載了人工智能的搜索引擎的出現(xiàn),對(duì)于人類的思維能力提出了更高的要求:

在搜索之前,人類必須首先知道自己想要的是什么;

在搜索的過程中,人類需要時(shí)刻運(yùn)用自己的判斷力才能在冗雜的信息中去偽存真;

在人工智能、搜索引擎或任何平臺(tái)給出看似有理有據(jù)的答案的時(shí)候,人類必須始終保持著懷疑的態(tài)度,獨(dú)立思考,審慎地甄別、溯源與考證,以足夠的自信提出質(zhì)疑。

……

這些能力是人類與人工智能交互中所必需的,卻無法憑借人工智能輕易取得,只能通過人自身腳踏實(shí)地地閱讀、學(xué)習(xí)與實(shí)踐逐步培養(yǎng)。

這與人工智能的前期訓(xùn)練類似,都是耗費(fèi)巨大、需要極度耐心的工作,但所學(xué)習(xí)的東西將永遠(yuǎn)成為自身的財(cái)富,并為之后的發(fā)展提供助益。人類在學(xué)習(xí)過程中的感悟,最終也能為優(yōu)化人工智能分析模式、改善輸出結(jié)果提供幫助。

有效地發(fā)揮ChatGPT等人工智能程序的作用,也需要人類學(xué)會(huì)更精確地描述需求。

人類社會(huì)的模糊暗示以及根據(jù)情境的“隨機(jī)應(yīng)變”是人工智能所難以理解的。明晰自己的訴求,并精準(zhǔn)地將它用語言表達(dá)出來,才是人工智能有效實(shí)現(xiàn)人類需求的前提。

由此,提示工程(Prompt Engineering)在未來將起到更加重要的作用。為了更好地利用人工智能輔助自己的工作,人們也有必要掌握相關(guān)的基本能力。

OpenAI首席執(zhí)行官Altman為Prompt技能“背書”

人工智能是人類科學(xué)技術(shù)與社會(huì)文化在現(xiàn)實(shí)生產(chǎn)力條件下的集成,是與人類文明協(xié)同演進(jìn)的造物。

人工智能技術(shù)能夠提高人類部分工作的效率、帶來諸多便利,從而使人類能夠?qū)⒏鄷r(shí)間與精力投入到創(chuàng)造性工作與自我提升中去。

人類不僅需要積極發(fā)展人工智能技術(shù),將其應(yīng)用于更多領(lǐng)域,不斷推動(dòng)生產(chǎn)力提高與社會(huì)進(jìn)步;也需要不斷完善自身思維和能力,與人工智能互補(bǔ)發(fā)展、共同發(fā)展。

同時(shí),人工智能的發(fā)展也應(yīng)當(dāng)以滿足人類切實(shí)需要、改善人類現(xiàn)實(shí)生活為導(dǎo)向,而不能以思維能力的退化、現(xiàn)實(shí)生活的空虛、資源的浪費(fèi)與環(huán)境的破壞為代價(jià)。

結(jié)語

在人類社會(huì)不斷進(jìn)步,人類不斷實(shí)現(xiàn)自身的自由與全面發(fā)展的征程中,我們樂于擁有一位能夠與我們相互幫助、共同成長的伙伴;也永遠(yuǎn)需要一面鏡子,它映照出人類的獨(dú)特,也映照出人類的局限,從而不斷激發(fā)出人類自我完善、不斷向上的動(dòng)力。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。