正在閱讀:

聊天還是作弊:ChatGPT會(huì)危及教育體系嗎?

掃一掃下載界面新聞APP

聊天還是作弊:ChatGPT會(huì)危及教育體系嗎?

作弊是學(xué)校教育中一個(gè)由來(lái)已久的問題,而基于人工智能的聊天機(jī)器人為有意作弊者提供了一條新的途徑。

文|Julien Grimaud/Pavla Debeljak/Frank Yates

編輯|Meister Xia

導(dǎo)讀

ChatGPT是一款聊天機(jī)器人,它可以產(chǎn)生令人信服和自然流暢的文本。但是,教育工作者質(zhì)疑學(xué)生使用這類聊天機(jī)器人是否存在風(fēng)險(xiǎn)。學(xué)生可能會(huì)利用ChatGPT為他們寫作文,甚至于作弊。教育界應(yīng)該為此擔(dān)憂嗎?他們應(yīng)該如何應(yīng)對(duì)呢?

一覽:

  • ChatGPT是一種聊天機(jī)器人,即一種人工智能程序,既能模擬與人對(duì)話,還會(huì)寫出自然流暢的文章。
  • 教育界對(duì)學(xué)生使用聊天機(jī)器人表示擔(dān)憂,學(xué)生可能會(huì)使用ChatGPT寫老師布置的作文。
  • 雖然有軟件工具可以判斷文章是否是由聊天機(jī)器人寫的,但是不可能做到100%的準(zhǔn)確。
  • 識(shí)別一篇文章是否是由機(jī)器人寫的,一般的方法是檢查文中奇怪的措辭、不自然的語(yǔ)法或抄襲的段落。
  • 聊天機(jī)器人若合理使用,無(wú)論在教學(xué)中還是職場(chǎng)上都能發(fā)揮巨大作用。

聊天機(jī)器人并非新興事物,已經(jīng)存在了幾十年[1, 2],早已在客戶服務(wù)、營(yíng)銷、游戲、教育等領(lǐng)域廣泛使用。第一個(gè)聊天機(jī)器人ELIZA是20世紀(jì)60年代由麻省理工學(xué)院的人工智能實(shí)驗(yàn)室開發(fā)的,目的是模擬心理治療師,使用自然語(yǔ)言回答用戶輸入的心理咨詢問題。60年過去了,如今的聊天機(jī)器人越來(lái)越先進(jìn),能使用人工智能來(lái)理解用戶復(fù)雜的輸入,并提供更自然、更智能的對(duì)話。隨著技術(shù)的不斷進(jìn)步,聊天機(jī)器人將繼續(xù)拓展其使用空間,能在醫(yī)療保健到金融等各種行業(yè)里大顯身手[3]。

ChatGPT由舊金山的OpenAI公司開發(fā),發(fā)布于2022年11月30日,是一款聊天機(jī)器人,一個(gè)能模擬人類對(duì)話的計(jì)算機(jī)程序。GPT原文全稱是Generative Pre-trained Transformer——“可生成預(yù)培訓(xùn)轉(zhuǎn)換器”。預(yù)培訓(xùn)是一種人工智能(AI)模型,即先對(duì)機(jī)器人進(jìn)行大量文本數(shù)據(jù)訓(xùn)練,進(jìn)而使其可以響應(yīng)用戶的輸入要求。ChatGPT之所以受歡迎,是因?yàn)樗_實(shí)能夠?qū)懗隽钊诵欧鸵巳雱俚奈恼?,這使它在寫作、自動(dòng)化客戶服務(wù)和自然語(yǔ)言處理等領(lǐng)域備受歡迎[4]。由此教育界開始擔(dān)心如果學(xué)生使用聊天機(jī)器人,是否會(huì)引發(fā)風(fēng)險(xiǎn)。近日,OpenAI發(fā)布了GPT-4。新版本比上一個(gè)版本先進(jìn)多少?還有待觀察。

01、學(xué)生會(huì)惡意使用聊天機(jī)器人嗎?

作弊是教育中一個(gè)由來(lái)已久的問題[5]。基于人工智能的聊天機(jī)器人為有意作弊者提供了一條新的途徑。使用它既可以完成平時(shí)作業(yè),也可用于考試舞弊。學(xué)生可由此偷懶,對(duì)教師提供的教學(xué)材料置之不理,讓機(jī)器人解數(shù)學(xué)題和多項(xiàng)選擇題。聊天機(jī)器人的使用很簡(jiǎn)單,其操作與谷歌、必應(yīng)等搜索引擎類似,輸入問題即可得到答案(這兩個(gè)搜索引擎不久后或?qū)⒁隚PT[6])。這種操作是否算作作弊?只能由教師決定。

“作弊是學(xué)校教育中一個(gè)由來(lái)已久的問題,而基于人工智能的聊天機(jī)器人為有意作弊者提供了一條新的途徑。”

更有甚者,一些聊天機(jī)器人能解決專業(yè)性強(qiáng)的問題。例如,DeepL Translate是一種基于人工智能的在線語(yǔ)言翻譯服務(wù),它能又快又好地將文章、網(wǎng)站文檔翻譯成多種語(yǔ)言。有些聊天機(jī)器人能編寫計(jì)算機(jī)代碼,比如Codebots和Autocode。雖然這些聊天機(jī)器人的設(shè)計(jì)初衷是善意的,旨在幫助用戶解決乏味重復(fù)的任務(wù),但它們很可能會(huì)被學(xué)生用于作弊。

除了回答簡(jiǎn)短的問題外,經(jīng)過預(yù)培訓(xùn)的人工智能機(jī)器人還能寫出看似學(xué)識(shí)淵博的文章。Quillbot、Paperpal或WordAI等寫作工具已經(jīng)問世數(shù)年,可以神奇地將一篇寫得不好的手稿更改為一篇頗為像樣的學(xué)術(shù)論文。它們還能篡改他人文章,并逃避抄襲檢測(cè)。更令人擔(dān)憂的是,一些聊天機(jī)器人只要人工輸入一些簡(jiǎn)短的提示,就能夠在幾秒鐘內(nèi)生成長(zhǎng)篇大論,與人工創(chuàng)作的作品看似相差無(wú)幾。

在ChatGPT中,學(xué)生可以輕松地調(diào)整各種參數(shù),例如回復(fù)的內(nèi)容長(zhǎng)短、內(nèi)容的隨機(jī)性水平,或者所用的人工智能模型變體。生成的論文學(xué)生可以按原樣使用,也可以親自進(jìn)一步修改,只需幾分鐘就能輕松地寫出一篇扎實(shí)的文章。此外,重復(fù)多次為聊天機(jī)器人提供相同的題目,能生成多個(gè)不同版本(見圖1)以供學(xué)生選擇。學(xué)生可以拼湊各個(gè)版本中的部分內(nèi)容,寫出一篇獨(dú)特的文章。如果學(xué)生這樣使用機(jī)器人,目前是無(wú)法100%準(zhǔn)確地檢測(cè)出來(lái)的。

圖片來(lái)源:PI France

注:向ChatGPT詢問進(jìn)化論。我們反復(fù)要求ChatGPT寫一段關(guān)于進(jìn)化論的文章。在前三次,我們提出的問題是一樣的,但ChatGPT每次的回答都略有不同。在第四次,我們要求機(jī)器人啟動(dòng)專家模式,由其結(jié)果可以看出該軟件使用專業(yè)術(shù)語(yǔ)的水平相當(dāng)?shù)母摺?/p>

02、擔(dān)心什么?

另一方面,就算學(xué)生不想抄襲,但一旦將聊天機(jī)器人生成的答案作為自己的作業(yè)提交,且不援引聊天機(jī)器人引用的資料作為參考來(lái)源,則抄襲實(shí)際上已經(jīng)在他們沒有意識(shí)到的情況下產(chǎn)生了。此類抄襲尤其難以檢測(cè),因?yàn)樵S多聊天機(jī)器人模型都包含隨機(jī)性元素。此外,聊天機(jī)器人雖然能寫出原創(chuàng)的句子或段落,但也會(huì)生成與原始資料高度類似的語(yǔ)句。因此,用戶在使用聊天機(jī)器人時(shí)要避免不小心涉嫌抄襲。鑒于一些聊天機(jī)器人能專門查找參考文獻(xiàn)[7],很快我們可能會(huì)看到寫作機(jī)器人使用參考文獻(xiàn)機(jī)器人來(lái)寫文章!

但是機(jī)器人畢竟與人類不同,由于聊天機(jī)器人理解對(duì)話上下文的能力有限,可能會(huì)給出錯(cuò)誤的答案或誤導(dǎo)性的信息。此外,聊天機(jī)器人可能會(huì)表現(xiàn)出偏見歧視,例如以某種固定老套的方式或某種性別來(lái)使用語(yǔ)言,甚至可能給出侮辱性或有爭(zhēng)議的錯(cuò)誤信息[8-10]。微軟于2016年發(fā)布的Tay聊天機(jī)器人是一個(gè)人工智能項(xiàng)目,旨在與推特上的人互動(dòng),從與真人的對(duì)話中學(xué)習(xí),并隨著時(shí)間的推移越變?cè)铰斆?。然而在發(fā)布幾周后,Tay因?yàn)殚_始發(fā)表有爭(zhēng)議和冒犯性的言論被下線[11]。

圖片來(lái)源:OpenAI

注:使用DALL E(OpenAI)生成的圖像,人工輸入的要求是“以Henri Rovel的風(fēng)格,生成機(jī)器人學(xué)生和教授在教室的油畫”。

最令人擔(dān)憂的是,聊天機(jī)器人的使用會(huì)導(dǎo)致學(xué)生獨(dú)立思考能力的喪失。隨著聊天機(jī)器人越來(lái)越先進(jìn),能夠?yàn)閷W(xué)生回答各種問題,不需要他們自己思考。這樣學(xué)生的學(xué)習(xí)會(huì)變得很被動(dòng),既損害教學(xué)效果,也導(dǎo)致學(xué)生創(chuàng)造力下降。

03、教育界應(yīng)該為此擔(dān)憂嗎?

聊天機(jī)器人看似新穎,令人興奮,但這項(xiàng)技術(shù)已經(jīng)存在了幾十年。你可能在不知情的情況下常常閱讀人工智能寫的文章。例如,美聯(lián)社和《華盛頓郵報(bào)》等新聞機(jī)構(gòu)使用聊天機(jī)器人寫作短新聞?dòng)蓙?lái)已久。美聯(lián)社在2014年開始使用“語(yǔ)言大師Wordsmith” [12],而《華盛頓郵報(bào)》至少?gòu)?017年起就一直在使用內(nèi)部聊天機(jī)器人Heliograf[13]。

在過去幾年里,聊天機(jī)器人提供的答案質(zhì)量大幅提高?,F(xiàn)在人工智能生成的文章即使在學(xué)術(shù)界,也很難與人類親自創(chuàng)作的文章區(qū)分開來(lái)[14]。雖然在學(xué)術(shù)界遭到反對(duì),但ChatGPT在一些科學(xué)論文中甚至被列為正式作者[15],盡管這樣做富于挑釁意味。

“新聞機(jī)構(gòu)早就在使用聊天機(jī)器人生成短篇報(bào)道?!?/p>

此外,雖然聊天機(jī)器人可以(或者說(shuō)肯定會(huì))被用來(lái)作弊[16, 17],但它們只是學(xué)生的又一個(gè)工具。即便在ChatGPT爆火之前,學(xué)生也有多種方法可以做作業(yè)作弊,比如從同學(xué)處復(fù)制答案,使用在線資源查找和抄襲答案,甚至雇人做作業(yè)。換句話說(shuō):只要想作弊,辦法總是有的。

04、教育界該如何應(yīng)對(duì)?

教育界的應(yīng)對(duì)應(yīng)該是采取新的規(guī)定,禁止學(xué)生濫用聊天機(jī)器人。這可以作為一門課程的要求,或者作為學(xué)校對(duì)全體學(xué)生的要求[18]。新規(guī)定會(huì)對(duì)學(xué)生起到威懾作用,讓學(xué)生害怕作弊被發(fā)現(xiàn)的處理后果,還能提高學(xué)生和老師對(duì)聊天機(jī)器人這一問題的認(rèn)識(shí)。然而,僅靠規(guī)定很難完全解決問題。

改變學(xué)生的測(cè)試方式是否可行?由于其知識(shí)庫(kù)有限,聊天機(jī)器人一般不容易解決新穎、有創(chuàng)意的任務(wù)。但這種方案也有兩個(gè)問題。一方面,基于人工智能的技術(shù),尤其是聊天機(jī)器人,是一個(gè)突飛猛進(jìn),技術(shù)日新月異的領(lǐng)域。只要軟件更新,老師調(diào)整作業(yè)形式的努力便會(huì)前功盡棄。另一方面,傳統(tǒng)的測(cè)驗(yàn)和作文雖然能輕松地通過聊天機(jī)器人獲得答案,但它們依舊是有效的教學(xué)手段,能檢驗(yàn)出學(xué)生對(duì)知識(shí)點(diǎn)的理解、分析、概述能力 [19]。教師改進(jìn)作業(yè)布置方式固然好,但不應(yīng)是應(yīng)對(duì)聊天機(jī)器人的唯一方案。

另一個(gè)有待探索的解決方案是統(tǒng)計(jì)水印[20]。統(tǒng)計(jì)水印是一種用于在數(shù)字信號(hào)中嵌入隱藏消息或數(shù)據(jù)的數(shù)字技術(shù)。對(duì)于聊天機(jī)器人,水印可以是一組由非隨機(jī)概率選擇的單詞或短語(yǔ),人眼無(wú)法看出,但計(jì)算機(jī)可以識(shí)別,由此便可檢出聊天機(jī)器人生成的文本。

“統(tǒng)計(jì)水印是一種用于在數(shù)字信號(hào)中嵌入隱藏消息或數(shù)據(jù)的數(shù)字技術(shù)?!?/p>

然而,統(tǒng)計(jì)水印存在多方面劣勢(shì),嚴(yán)重限制了其在教學(xué)中的使用。科技公司可能不愿意在軟件中實(shí)施統(tǒng)計(jì)水印,因?yàn)槿绻麄兊牧奶鞕C(jī)器人被用于恐怖主義或網(wǎng)絡(luò)欺詐等行為,會(huì)帶來(lái)聲譽(yù)和法律風(fēng)險(xiǎn)。此外,只有當(dāng)作弊的學(xué)生大段地復(fù)制粘貼聊天機(jī)器人文本時(shí),統(tǒng)計(jì)水印才有效。如果聊天機(jī)器人生成的文章被學(xué)生編輯過,或者文本太短無(wú)法進(jìn)行統(tǒng)計(jì)分析,則水印法無(wú)效。

05、如何檢測(cè)人工智能生成的文章?

檢測(cè)人工智能生成的文章的另一種方法是尋找文中不自然的措辭和語(yǔ)法。人工智能算法通常在表達(dá)想法的自然性方面有缺陷,因此可能會(huì)生成太長(zhǎng)或太短的句子。此外,聊天機(jī)器人可能會(huì)缺乏自然的思想意識(shí)流,會(huì)在上下文中不恰當(dāng)?shù)氖褂媚承﹩卧~或短語(yǔ)。換句話說(shuō),生成的內(nèi)容缺乏人類寫作的深度和微妙度[21],對(duì)于長(zhǎng)篇文章來(lái)說(shuō)尤其如此。上文提到聊天機(jī)器人的使用可能會(huì)涉嫌抄襲。因此,只要使用最常見的剽竊檢測(cè)引擎,就能輕松地檢測(cè)出人工智能生成的文本 [22]。

此外,還可以通過尋找“統(tǒng)計(jì)簽名”來(lái)檢測(cè)人工智能生成的文本。聊天機(jī)器人的基本邏輯是基于用戶輸入的題目,根據(jù)詞語(yǔ)在同類語(yǔ)境中出現(xiàn)頻次的高低選擇措辭,每個(gè)詞都是在概率上最有可能與上一個(gè)詞共同使用的詞語(yǔ)。這一點(diǎn)與人寫作不同。人寫作時(shí),會(huì)根據(jù)自己的認(rèn)知能力而不是根據(jù)概率來(lái)寫,會(huì)產(chǎn)生不常見的單詞聯(lián)想,但依舊符合邏輯。簡(jiǎn)單地說(shuō),與聊天機(jī)器人相比,人類的回答會(huì)更具創(chuàng)造性?;谶@一規(guī)律,麻省理工學(xué)院和哈佛大學(xué)使用openAI的語(yǔ)言模型GPT 2聯(lián)合開發(fā)了巨型語(yǔ)言模型測(cè)試室(GLTR)。我們用了幾篇學(xué)生寫的短文和ChatGPT生成的短文來(lái)測(cè)試GLTR,結(jié)果GLTR輕而易舉地分辨出了學(xué)生的作品(見下面的方框)!

自GLTR問世以來(lái),許多其他人工智能檢測(cè)程序也陸續(xù)出現(xiàn),例如OpenAI Detector(發(fā)布于GLTR之后不久,原理類似),還有GPTZero——一個(gè)由一名大學(xué)生于2023年創(chuàng)建的企業(yè)。未來(lái)將有更多檢測(cè)聊天機(jī)器人文本的新工具出現(xiàn),更適合教育工作者的需求,類似于現(xiàn)在的抄襲檢測(cè)引擎。

06、是作弊還是聊天?

最后,我們不要忘記,大多數(shù)學(xué)生還是愿意在不作弊的情況下完成作業(yè)的。首要的預(yù)防措施應(yīng)該是讓學(xué)生體會(huì)課程內(nèi)容的重要性、有用性和趣味性,激勵(lì)學(xué)生的學(xué)習(xí)熱情[23]。計(jì)算器并沒有讓數(shù)學(xué)老師失業(yè),谷歌并沒有導(dǎo)致學(xué)校停課。同樣,教育界肯定會(huì)適應(yīng)聊天機(jī)器人。盡管對(duì)機(jī)器人的擔(dān)憂是合理的,但很快機(jī)器人的價(jià)值會(huì)在許多方面凸顯。在適當(dāng)?shù)目蚣芎椭笇?dǎo)下,聊天機(jī)器人可以成為強(qiáng)大的教學(xué)和學(xué)習(xí)助手,以及企業(yè)的寶貴工具。

因此,教育工作者應(yīng)該主動(dòng)讓學(xué)生熟悉聊天機(jī)器人,幫助他們了解這項(xiàng)技術(shù)的潛力和局限性,并教他們?nèi)绾我愿咝?、?fù)責(zé)任和合乎道德的方式使用聊天機(jī)器人。

用統(tǒng)計(jì)簽名檢測(cè)聊天機(jī)器人生成的文章

實(shí)驗(yàn)設(shè)計(jì):在巴黎學(xué)習(xí)生物技術(shù)學(xué)院2022年秋季學(xué)期開設(shè)的神經(jīng)科學(xué)課堂上,我們收集了51名學(xué)生對(duì)以下問題的書面回答:“簡(jiǎn)要地闡述術(shù)語(yǔ)‘感受域’的定義,然后解釋如何測(cè)量貓?bào)w感皮層神經(jīng)元的感受域?!边@個(gè)問題來(lái)自一場(chǎng)開卷考試,學(xué)生可在家中登錄課程網(wǎng)站,在規(guī)定時(shí)間內(nèi)完成。同時(shí),我們要求ChatGPT對(duì)以上問題提供10個(gè)答案,然后使用GLTR來(lái)比較學(xué)生和聊天機(jī)器人回答的統(tǒng)計(jì)簽名。

GLTR的工作原理:GLTR會(huì)按順序查看文本中每個(gè)詞,對(duì)比GPT-2聊天機(jī)器人(舊版ChatGPT)的選擇和學(xué)生的選擇。以這句話為例——Biology is great! (“生物學(xué)很棒!”),第三個(gè)詞是great“很棒”,但如果讓聊天機(jī)器人選擇第三個(gè)詞,它可能會(huì)首選a“一個(gè)”,因?yàn)樵谄鋯卧~庫(kù)中a的排名最高,而great的排名是第126位。隨后GLTR會(huì)根據(jù)每個(gè)詞的排名生成直方圖,由此構(gòu)成一種簡(jiǎn)單的統(tǒng)計(jì)簽名判別法:GPT-2生成的文本中,高排名單詞比例會(huì)很高,但人類寫出的文本中,低排名單詞的比例會(huì)更高。

A欄:兩個(gè)示例答案,一個(gè)來(lái)自學(xué)生,另一個(gè)來(lái)自ChatGPT。不同顏色對(duì)應(yīng)著單詞排名的高低。右邊的直方圖顯示了二者的統(tǒng)計(jì)簽名??梢娙祟惖淖鞔鸨攘奶鞕C(jī)器人包含更多的低排名單詞。

B欄:我們將51名學(xué)生的直方圖(藍(lán)色)和聊天機(jī)器人10個(gè)答案的直方圖(紅色)放在同一個(gè)坐標(biāo)系里,再次發(fā)現(xiàn)學(xué)生的寫作和ChatGPT生成文本之間有明顯的差異。換句話說(shuō),僅憑對(duì)統(tǒng)計(jì)簽名的目測(cè),就能確鑿地判斷學(xué)生沒有使用ChatGPT來(lái)回答這個(gè)問題。

參考資料

1. Ina. The History Of Chatbots – From ELIZA to ChatGPT. In Onlim.com. Published 03-15-2022. Retrieved 01–19- 2023.

2. Thorbecke C. Chatbots: A long and complicated history. In CNN business. Published 08-20-2022. Retrieved 01- 19–2023.

3. Marr B. What Does ChatGPT Really Mean For Businesses? In Forbes. Published 12-28-2022. Retrieved 01–19- 2023.

4. Timothy M. 11 Things You Can Do With ChatGPT. In MakeUseOf.com. Published 12-20-2022. Retrieved 01–19- 2023.

5. Bushway A, Nash WR (1977). School Cheating Behavior. Review of Educational Research, 47(4), 623–632.

6. Holmes A. Microsoft and OpenAI Working on ChatGPT-Powered Bing in Challenge to Google. In The Information. Published 01-03-2023. Retrieved 01-19-2023.

7. Vincze J (2017). Virtual Reference Librarians (Chatbots). Library Hi Tech News 34(4), 5–8.

8. Feine J et al. (2020). Gender Bias in Chatbot Design. Conversations 2019. Lecture Notes in Computer Science, vol 11970. Springer, Cham.

9. Haroun O. Racist Chatbots &Sexist Robo-Recruiters: Decoding Algorithmic Bias. In The AI Journal. Published 10-11-2023. Retrieved 01-19-2023.

10. Biddle S. The Internet’s New Favorite AI Proposes Torturing Iranians and Surveilling Mosques. In The Intercept. Published 12-08-2022. Retrieved 01-19-2023.

11. Vinvent J. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. In The Verge. Published 03-24-2016. Retrieved 01-19-2023.

12. Miller R. AP’s ‘robot journalists’ are writing their own stories now. In The Verge. Posted 01-29-2015. Retreived 01-19-2023.

13. Moses L. The Washington Post’s robot reporter has published 850 articles in the past year. In Digiday.com. Posted 09-14-2017. Retreived 01-19-2023.

14. Else H (2023). Abstracts written by ChatGPT fool scientists. Nature, 613(7944), 423.

15. Stokel-Walker C (2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature (retrieved online ahead of print on 01-23-2023).

16. Gordon B. North Carolina Professors Catch Students Cheating With ChatGPT. In Government Technology. Published 01-12-2023. Retrieved 01-19-2023.

17. Nolan B. Two professors who say they caught students cheating on essays with ChatGPT explain why AI plagiarism can be hard to prove. In Insider. Published 01-14-2023. Retrieved 01-19-2023.

18. Johnson A. ChatGPT In Schools: Here’s Where It’s Banned—And How It Could Potentially Help Students. In Forbes. Published 01-18-2023. Retrieved 01-19-2023.

19. Krathwohl DR (2002). A revision of Bloom’s taxonomy: An overview. Theory into practice, 41(4), 212–218.

20. Aaronson S. My AI Safety Lecture for UT Effective Altruism. In Shtetl-Optimized, The Blog of Scott Aaronson. Posted 11-29-2022. Retreived 01-19-2023.

21. Bogost I. ChatGPT Is Dumber Than You Think. In The Atlantic. Published 12-07-2022. Retrieved 01-19-2023.

22. Mollenkamp D. Can Anti-Plagiarism Tools Detect When AI Chatbots Write Student Essays? In EdSurge. Published 12-21-2022. Retrieved 01-19-2023.

23. Shrestha G (2020). Importance of Motivation in Education. International Journal of Science and Research, 9(3), 91–93.

關(guān)于作者

Julien Grimaud,巴黎學(xué)習(xí)生物技術(shù)學(xué)院生命科學(xué)助理教授

Pavla Debeljak,巴黎學(xué)習(xí)生物技術(shù)學(xué)院生物信息學(xué)助理教授

Frank Yates,巴黎學(xué)習(xí)生物技術(shù)學(xué)院工程學(xué)院研究主任

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

聊天還是作弊:ChatGPT會(huì)危及教育體系嗎?

作弊是學(xué)校教育中一個(gè)由來(lái)已久的問題,而基于人工智能的聊天機(jī)器人為有意作弊者提供了一條新的途徑。

文|Julien Grimaud/Pavla Debeljak/Frank Yates

編輯|Meister Xia

導(dǎo)讀

ChatGPT是一款聊天機(jī)器人,它可以產(chǎn)生令人信服和自然流暢的文本。但是,教育工作者質(zhì)疑學(xué)生使用這類聊天機(jī)器人是否存在風(fēng)險(xiǎn)。學(xué)生可能會(huì)利用ChatGPT為他們寫作文,甚至于作弊。教育界應(yīng)該為此擔(dān)憂嗎?他們應(yīng)該如何應(yīng)對(duì)呢?

一覽:

  • ChatGPT是一種聊天機(jī)器人,即一種人工智能程序,既能模擬與人對(duì)話,還會(huì)寫出自然流暢的文章。
  • 教育界對(duì)學(xué)生使用聊天機(jī)器人表示擔(dān)憂,學(xué)生可能會(huì)使用ChatGPT寫老師布置的作文。
  • 雖然有軟件工具可以判斷文章是否是由聊天機(jī)器人寫的,但是不可能做到100%的準(zhǔn)確。
  • 識(shí)別一篇文章是否是由機(jī)器人寫的,一般的方法是檢查文中奇怪的措辭、不自然的語(yǔ)法或抄襲的段落。
  • 聊天機(jī)器人若合理使用,無(wú)論在教學(xué)中還是職場(chǎng)上都能發(fā)揮巨大作用。

聊天機(jī)器人并非新興事物,已經(jīng)存在了幾十年[1, 2],早已在客戶服務(wù)、營(yíng)銷、游戲、教育等領(lǐng)域廣泛使用。第一個(gè)聊天機(jī)器人ELIZA是20世紀(jì)60年代由麻省理工學(xué)院的人工智能實(shí)驗(yàn)室開發(fā)的,目的是模擬心理治療師,使用自然語(yǔ)言回答用戶輸入的心理咨詢問題。60年過去了,如今的聊天機(jī)器人越來(lái)越先進(jìn),能使用人工智能來(lái)理解用戶復(fù)雜的輸入,并提供更自然、更智能的對(duì)話。隨著技術(shù)的不斷進(jìn)步,聊天機(jī)器人將繼續(xù)拓展其使用空間,能在醫(yī)療保健到金融等各種行業(yè)里大顯身手[3]。

ChatGPT由舊金山的OpenAI公司開發(fā),發(fā)布于2022年11月30日,是一款聊天機(jī)器人,一個(gè)能模擬人類對(duì)話的計(jì)算機(jī)程序。GPT原文全稱是Generative Pre-trained Transformer——“可生成預(yù)培訓(xùn)轉(zhuǎn)換器”。預(yù)培訓(xùn)是一種人工智能(AI)模型,即先對(duì)機(jī)器人進(jìn)行大量文本數(shù)據(jù)訓(xùn)練,進(jìn)而使其可以響應(yīng)用戶的輸入要求。ChatGPT之所以受歡迎,是因?yàn)樗_實(shí)能夠?qū)懗隽钊诵欧鸵巳雱俚奈恼拢@使它在寫作、自動(dòng)化客戶服務(wù)和自然語(yǔ)言處理等領(lǐng)域備受歡迎[4]。由此教育界開始擔(dān)心如果學(xué)生使用聊天機(jī)器人,是否會(huì)引發(fā)風(fēng)險(xiǎn)。近日,OpenAI發(fā)布了GPT-4。新版本比上一個(gè)版本先進(jìn)多少?還有待觀察。

01、學(xué)生會(huì)惡意使用聊天機(jī)器人嗎?

作弊是教育中一個(gè)由來(lái)已久的問題[5]?;谌斯ぶ悄艿牧奶鞕C(jī)器人為有意作弊者提供了一條新的途徑。使用它既可以完成平時(shí)作業(yè),也可用于考試舞弊。學(xué)生可由此偷懶,對(duì)教師提供的教學(xué)材料置之不理,讓機(jī)器人解數(shù)學(xué)題和多項(xiàng)選擇題。聊天機(jī)器人的使用很簡(jiǎn)單,其操作與谷歌、必應(yīng)等搜索引擎類似,輸入問題即可得到答案(這兩個(gè)搜索引擎不久后或?qū)⒁隚PT[6])。這種操作是否算作作弊?只能由教師決定。

“作弊是學(xué)校教育中一個(gè)由來(lái)已久的問題,而基于人工智能的聊天機(jī)器人為有意作弊者提供了一條新的途徑?!?/p>

更有甚者,一些聊天機(jī)器人能解決專業(yè)性強(qiáng)的問題。例如,DeepL Translate是一種基于人工智能的在線語(yǔ)言翻譯服務(wù),它能又快又好地將文章、網(wǎng)站文檔翻譯成多種語(yǔ)言。有些聊天機(jī)器人能編寫計(jì)算機(jī)代碼,比如Codebots和Autocode。雖然這些聊天機(jī)器人的設(shè)計(jì)初衷是善意的,旨在幫助用戶解決乏味重復(fù)的任務(wù),但它們很可能會(huì)被學(xué)生用于作弊。

除了回答簡(jiǎn)短的問題外,經(jīng)過預(yù)培訓(xùn)的人工智能機(jī)器人還能寫出看似學(xué)識(shí)淵博的文章。Quillbot、Paperpal或WordAI等寫作工具已經(jīng)問世數(shù)年,可以神奇地將一篇寫得不好的手稿更改為一篇頗為像樣的學(xué)術(shù)論文。它們還能篡改他人文章,并逃避抄襲檢測(cè)。更令人擔(dān)憂的是,一些聊天機(jī)器人只要人工輸入一些簡(jiǎn)短的提示,就能夠在幾秒鐘內(nèi)生成長(zhǎng)篇大論,與人工創(chuàng)作的作品看似相差無(wú)幾。

在ChatGPT中,學(xué)生可以輕松地調(diào)整各種參數(shù),例如回復(fù)的內(nèi)容長(zhǎng)短、內(nèi)容的隨機(jī)性水平,或者所用的人工智能模型變體。生成的論文學(xué)生可以按原樣使用,也可以親自進(jìn)一步修改,只需幾分鐘就能輕松地寫出一篇扎實(shí)的文章。此外,重復(fù)多次為聊天機(jī)器人提供相同的題目,能生成多個(gè)不同版本(見圖1)以供學(xué)生選擇。學(xué)生可以拼湊各個(gè)版本中的部分內(nèi)容,寫出一篇獨(dú)特的文章。如果學(xué)生這樣使用機(jī)器人,目前是無(wú)法100%準(zhǔn)確地檢測(cè)出來(lái)的。

圖片來(lái)源:PI France

注:向ChatGPT詢問進(jìn)化論。我們反復(fù)要求ChatGPT寫一段關(guān)于進(jìn)化論的文章。在前三次,我們提出的問題是一樣的,但ChatGPT每次的回答都略有不同。在第四次,我們要求機(jī)器人啟動(dòng)專家模式,由其結(jié)果可以看出該軟件使用專業(yè)術(shù)語(yǔ)的水平相當(dāng)?shù)母摺?/p>

02、擔(dān)心什么?

另一方面,就算學(xué)生不想抄襲,但一旦將聊天機(jī)器人生成的答案作為自己的作業(yè)提交,且不援引聊天機(jī)器人引用的資料作為參考來(lái)源,則抄襲實(shí)際上已經(jīng)在他們沒有意識(shí)到的情況下產(chǎn)生了。此類抄襲尤其難以檢測(cè),因?yàn)樵S多聊天機(jī)器人模型都包含隨機(jī)性元素。此外,聊天機(jī)器人雖然能寫出原創(chuàng)的句子或段落,但也會(huì)生成與原始資料高度類似的語(yǔ)句。因此,用戶在使用聊天機(jī)器人時(shí)要避免不小心涉嫌抄襲。鑒于一些聊天機(jī)器人能專門查找參考文獻(xiàn)[7],很快我們可能會(huì)看到寫作機(jī)器人使用參考文獻(xiàn)機(jī)器人來(lái)寫文章!

但是機(jī)器人畢竟與人類不同,由于聊天機(jī)器人理解對(duì)話上下文的能力有限,可能會(huì)給出錯(cuò)誤的答案或誤導(dǎo)性的信息。此外,聊天機(jī)器人可能會(huì)表現(xiàn)出偏見歧視,例如以某種固定老套的方式或某種性別來(lái)使用語(yǔ)言,甚至可能給出侮辱性或有爭(zhēng)議的錯(cuò)誤信息[8-10]。微軟于2016年發(fā)布的Tay聊天機(jī)器人是一個(gè)人工智能項(xiàng)目,旨在與推特上的人互動(dòng),從與真人的對(duì)話中學(xué)習(xí),并隨著時(shí)間的推移越變?cè)铰斆?。然而在發(fā)布幾周后,Tay因?yàn)殚_始發(fā)表有爭(zhēng)議和冒犯性的言論被下線[11]。

圖片來(lái)源:OpenAI

注:使用DALL E(OpenAI)生成的圖像,人工輸入的要求是“以Henri Rovel的風(fēng)格,生成機(jī)器人學(xué)生和教授在教室的油畫”。

最令人擔(dān)憂的是,聊天機(jī)器人的使用會(huì)導(dǎo)致學(xué)生獨(dú)立思考能力的喪失。隨著聊天機(jī)器人越來(lái)越先進(jìn),能夠?yàn)閷W(xué)生回答各種問題,不需要他們自己思考。這樣學(xué)生的學(xué)習(xí)會(huì)變得很被動(dòng),既損害教學(xué)效果,也導(dǎo)致學(xué)生創(chuàng)造力下降。

03、教育界應(yīng)該為此擔(dān)憂嗎?

聊天機(jī)器人看似新穎,令人興奮,但這項(xiàng)技術(shù)已經(jīng)存在了幾十年。你可能在不知情的情況下常常閱讀人工智能寫的文章。例如,美聯(lián)社和《華盛頓郵報(bào)》等新聞機(jī)構(gòu)使用聊天機(jī)器人寫作短新聞?dòng)蓙?lái)已久。美聯(lián)社在2014年開始使用“語(yǔ)言大師Wordsmith” [12],而《華盛頓郵報(bào)》至少?gòu)?017年起就一直在使用內(nèi)部聊天機(jī)器人Heliograf[13]。

在過去幾年里,聊天機(jī)器人提供的答案質(zhì)量大幅提高?,F(xiàn)在人工智能生成的文章即使在學(xué)術(shù)界,也很難與人類親自創(chuàng)作的文章區(qū)分開來(lái)[14]。雖然在學(xué)術(shù)界遭到反對(duì),但ChatGPT在一些科學(xué)論文中甚至被列為正式作者[15],盡管這樣做富于挑釁意味。

“新聞機(jī)構(gòu)早就在使用聊天機(jī)器人生成短篇報(bào)道?!?/p>

此外,雖然聊天機(jī)器人可以(或者說(shuō)肯定會(huì))被用來(lái)作弊[16, 17],但它們只是學(xué)生的又一個(gè)工具。即便在ChatGPT爆火之前,學(xué)生也有多種方法可以做作業(yè)作弊,比如從同學(xué)處復(fù)制答案,使用在線資源查找和抄襲答案,甚至雇人做作業(yè)。換句話說(shuō):只要想作弊,辦法總是有的。

04、教育界該如何應(yīng)對(duì)?

教育界的應(yīng)對(duì)應(yīng)該是采取新的規(guī)定,禁止學(xué)生濫用聊天機(jī)器人。這可以作為一門課程的要求,或者作為學(xué)校對(duì)全體學(xué)生的要求[18]。新規(guī)定會(huì)對(duì)學(xué)生起到威懾作用,讓學(xué)生害怕作弊被發(fā)現(xiàn)的處理后果,還能提高學(xué)生和老師對(duì)聊天機(jī)器人這一問題的認(rèn)識(shí)。然而,僅靠規(guī)定很難完全解決問題。

改變學(xué)生的測(cè)試方式是否可行?由于其知識(shí)庫(kù)有限,聊天機(jī)器人一般不容易解決新穎、有創(chuàng)意的任務(wù)。但這種方案也有兩個(gè)問題。一方面,基于人工智能的技術(shù),尤其是聊天機(jī)器人,是一個(gè)突飛猛進(jìn),技術(shù)日新月異的領(lǐng)域。只要軟件更新,老師調(diào)整作業(yè)形式的努力便會(huì)前功盡棄。另一方面,傳統(tǒng)的測(cè)驗(yàn)和作文雖然能輕松地通過聊天機(jī)器人獲得答案,但它們依舊是有效的教學(xué)手段,能檢驗(yàn)出學(xué)生對(duì)知識(shí)點(diǎn)的理解、分析、概述能力 [19]。教師改進(jìn)作業(yè)布置方式固然好,但不應(yīng)是應(yīng)對(duì)聊天機(jī)器人的唯一方案。

另一個(gè)有待探索的解決方案是統(tǒng)計(jì)水印[20]。統(tǒng)計(jì)水印是一種用于在數(shù)字信號(hào)中嵌入隱藏消息或數(shù)據(jù)的數(shù)字技術(shù)。對(duì)于聊天機(jī)器人,水印可以是一組由非隨機(jī)概率選擇的單詞或短語(yǔ),人眼無(wú)法看出,但計(jì)算機(jī)可以識(shí)別,由此便可檢出聊天機(jī)器人生成的文本。

“統(tǒng)計(jì)水印是一種用于在數(shù)字信號(hào)中嵌入隱藏消息或數(shù)據(jù)的數(shù)字技術(shù)?!?/p>

然而,統(tǒng)計(jì)水印存在多方面劣勢(shì),嚴(yán)重限制了其在教學(xué)中的使用??萍脊究赡懿辉敢庠谲浖袑?shí)施統(tǒng)計(jì)水印,因?yàn)槿绻麄兊牧奶鞕C(jī)器人被用于恐怖主義或網(wǎng)絡(luò)欺詐等行為,會(huì)帶來(lái)聲譽(yù)和法律風(fēng)險(xiǎn)。此外,只有當(dāng)作弊的學(xué)生大段地復(fù)制粘貼聊天機(jī)器人文本時(shí),統(tǒng)計(jì)水印才有效。如果聊天機(jī)器人生成的文章被學(xué)生編輯過,或者文本太短無(wú)法進(jìn)行統(tǒng)計(jì)分析,則水印法無(wú)效。

05、如何檢測(cè)人工智能生成的文章?

檢測(cè)人工智能生成的文章的另一種方法是尋找文中不自然的措辭和語(yǔ)法。人工智能算法通常在表達(dá)想法的自然性方面有缺陷,因此可能會(huì)生成太長(zhǎng)或太短的句子。此外,聊天機(jī)器人可能會(huì)缺乏自然的思想意識(shí)流,會(huì)在上下文中不恰當(dāng)?shù)氖褂媚承﹩卧~或短語(yǔ)。換句話說(shuō),生成的內(nèi)容缺乏人類寫作的深度和微妙度[21],對(duì)于長(zhǎng)篇文章來(lái)說(shuō)尤其如此。上文提到聊天機(jī)器人的使用可能會(huì)涉嫌抄襲。因此,只要使用最常見的剽竊檢測(cè)引擎,就能輕松地檢測(cè)出人工智能生成的文本 [22]。

此外,還可以通過尋找“統(tǒng)計(jì)簽名”來(lái)檢測(cè)人工智能生成的文本。聊天機(jī)器人的基本邏輯是基于用戶輸入的題目,根據(jù)詞語(yǔ)在同類語(yǔ)境中出現(xiàn)頻次的高低選擇措辭,每個(gè)詞都是在概率上最有可能與上一個(gè)詞共同使用的詞語(yǔ)。這一點(diǎn)與人寫作不同。人寫作時(shí),會(huì)根據(jù)自己的認(rèn)知能力而不是根據(jù)概率來(lái)寫,會(huì)產(chǎn)生不常見的單詞聯(lián)想,但依舊符合邏輯。簡(jiǎn)單地說(shuō),與聊天機(jī)器人相比,人類的回答會(huì)更具創(chuàng)造性?;谶@一規(guī)律,麻省理工學(xué)院和哈佛大學(xué)使用openAI的語(yǔ)言模型GPT 2聯(lián)合開發(fā)了巨型語(yǔ)言模型測(cè)試室(GLTR)。我們用了幾篇學(xué)生寫的短文和ChatGPT生成的短文來(lái)測(cè)試GLTR,結(jié)果GLTR輕而易舉地分辨出了學(xué)生的作品(見下面的方框)!

自GLTR問世以來(lái),許多其他人工智能檢測(cè)程序也陸續(xù)出現(xiàn),例如OpenAI Detector(發(fā)布于GLTR之后不久,原理類似),還有GPTZero——一個(gè)由一名大學(xué)生于2023年創(chuàng)建的企業(yè)。未來(lái)將有更多檢測(cè)聊天機(jī)器人文本的新工具出現(xiàn),更適合教育工作者的需求,類似于現(xiàn)在的抄襲檢測(cè)引擎。

06、是作弊還是聊天?

最后,我們不要忘記,大多數(shù)學(xué)生還是愿意在不作弊的情況下完成作業(yè)的。首要的預(yù)防措施應(yīng)該是讓學(xué)生體會(huì)課程內(nèi)容的重要性、有用性和趣味性,激勵(lì)學(xué)生的學(xué)習(xí)熱情[23]。計(jì)算器并沒有讓數(shù)學(xué)老師失業(yè),谷歌并沒有導(dǎo)致學(xué)校停課。同樣,教育界肯定會(huì)適應(yīng)聊天機(jī)器人。盡管對(duì)機(jī)器人的擔(dān)憂是合理的,但很快機(jī)器人的價(jià)值會(huì)在許多方面凸顯。在適當(dāng)?shù)目蚣芎椭笇?dǎo)下,聊天機(jī)器人可以成為強(qiáng)大的教學(xué)和學(xué)習(xí)助手,以及企業(yè)的寶貴工具。

因此,教育工作者應(yīng)該主動(dòng)讓學(xué)生熟悉聊天機(jī)器人,幫助他們了解這項(xiàng)技術(shù)的潛力和局限性,并教他們?nèi)绾我愿咝А⒇?fù)責(zé)任和合乎道德的方式使用聊天機(jī)器人。

用統(tǒng)計(jì)簽名檢測(cè)聊天機(jī)器人生成的文章

實(shí)驗(yàn)設(shè)計(jì):在巴黎學(xué)習(xí)生物技術(shù)學(xué)院2022年秋季學(xué)期開設(shè)的神經(jīng)科學(xué)課堂上,我們收集了51名學(xué)生對(duì)以下問題的書面回答:“簡(jiǎn)要地闡述術(shù)語(yǔ)‘感受域’的定義,然后解釋如何測(cè)量貓?bào)w感皮層神經(jīng)元的感受域?!边@個(gè)問題來(lái)自一場(chǎng)開卷考試,學(xué)生可在家中登錄課程網(wǎng)站,在規(guī)定時(shí)間內(nèi)完成。同時(shí),我們要求ChatGPT對(duì)以上問題提供10個(gè)答案,然后使用GLTR來(lái)比較學(xué)生和聊天機(jī)器人回答的統(tǒng)計(jì)簽名。

GLTR的工作原理:GLTR會(huì)按順序查看文本中每個(gè)詞,對(duì)比GPT-2聊天機(jī)器人(舊版ChatGPT)的選擇和學(xué)生的選擇。以這句話為例——Biology is great! (“生物學(xué)很棒!”),第三個(gè)詞是great“很棒”,但如果讓聊天機(jī)器人選擇第三個(gè)詞,它可能會(huì)首選a“一個(gè)”,因?yàn)樵谄鋯卧~庫(kù)中a的排名最高,而great的排名是第126位。隨后GLTR會(huì)根據(jù)每個(gè)詞的排名生成直方圖,由此構(gòu)成一種簡(jiǎn)單的統(tǒng)計(jì)簽名判別法:GPT-2生成的文本中,高排名單詞比例會(huì)很高,但人類寫出的文本中,低排名單詞的比例會(huì)更高。

A欄:兩個(gè)示例答案,一個(gè)來(lái)自學(xué)生,另一個(gè)來(lái)自ChatGPT。不同顏色對(duì)應(yīng)著單詞排名的高低。右邊的直方圖顯示了二者的統(tǒng)計(jì)簽名??梢娙祟惖淖鞔鸨攘奶鞕C(jī)器人包含更多的低排名單詞。

B欄:我們將51名學(xué)生的直方圖(藍(lán)色)和聊天機(jī)器人10個(gè)答案的直方圖(紅色)放在同一個(gè)坐標(biāo)系里,再次發(fā)現(xiàn)學(xué)生的寫作和ChatGPT生成文本之間有明顯的差異。換句話說(shuō),僅憑對(duì)統(tǒng)計(jì)簽名的目測(cè),就能確鑿地判斷學(xué)生沒有使用ChatGPT來(lái)回答這個(gè)問題。

參考資料

1. Ina. The History Of Chatbots – From ELIZA to ChatGPT. In Onlim.com. Published 03-15-2022. Retrieved 01–19- 2023.

2. Thorbecke C. Chatbots: A long and complicated history. In CNN business. Published 08-20-2022. Retrieved 01- 19–2023.

3. Marr B. What Does ChatGPT Really Mean For Businesses? In Forbes. Published 12-28-2022. Retrieved 01–19- 2023.

4. Timothy M. 11 Things You Can Do With ChatGPT. In MakeUseOf.com. Published 12-20-2022. Retrieved 01–19- 2023.

5. Bushway A, Nash WR (1977). School Cheating Behavior. Review of Educational Research, 47(4), 623–632.

6. Holmes A. Microsoft and OpenAI Working on ChatGPT-Powered Bing in Challenge to Google. In The Information. Published 01-03-2023. Retrieved 01-19-2023.

7. Vincze J (2017). Virtual Reference Librarians (Chatbots). Library Hi Tech News 34(4), 5–8.

8. Feine J et al. (2020). Gender Bias in Chatbot Design. Conversations 2019. Lecture Notes in Computer Science, vol 11970. Springer, Cham.

9. Haroun O. Racist Chatbots &Sexist Robo-Recruiters: Decoding Algorithmic Bias. In The AI Journal. Published 10-11-2023. Retrieved 01-19-2023.

10. Biddle S. The Internet’s New Favorite AI Proposes Torturing Iranians and Surveilling Mosques. In The Intercept. Published 12-08-2022. Retrieved 01-19-2023.

11. Vinvent J. Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. In The Verge. Published 03-24-2016. Retrieved 01-19-2023.

12. Miller R. AP’s ‘robot journalists’ are writing their own stories now. In The Verge. Posted 01-29-2015. Retreived 01-19-2023.

13. Moses L. The Washington Post’s robot reporter has published 850 articles in the past year. In Digiday.com. Posted 09-14-2017. Retreived 01-19-2023.

14. Else H (2023). Abstracts written by ChatGPT fool scientists. Nature, 613(7944), 423.

15. Stokel-Walker C (2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature (retrieved online ahead of print on 01-23-2023).

16. Gordon B. North Carolina Professors Catch Students Cheating With ChatGPT. In Government Technology. Published 01-12-2023. Retrieved 01-19-2023.

17. Nolan B. Two professors who say they caught students cheating on essays with ChatGPT explain why AI plagiarism can be hard to prove. In Insider. Published 01-14-2023. Retrieved 01-19-2023.

18. Johnson A. ChatGPT In Schools: Here’s Where It’s Banned—And How It Could Potentially Help Students. In Forbes. Published 01-18-2023. Retrieved 01-19-2023.

19. Krathwohl DR (2002). A revision of Bloom’s taxonomy: An overview. Theory into practice, 41(4), 212–218.

20. Aaronson S. My AI Safety Lecture for UT Effective Altruism. In Shtetl-Optimized, The Blog of Scott Aaronson. Posted 11-29-2022. Retreived 01-19-2023.

21. Bogost I. ChatGPT Is Dumber Than You Think. In The Atlantic. Published 12-07-2022. Retrieved 01-19-2023.

22. Mollenkamp D. Can Anti-Plagiarism Tools Detect When AI Chatbots Write Student Essays? In EdSurge. Published 12-21-2022. Retrieved 01-19-2023.

23. Shrestha G (2020). Importance of Motivation in Education. International Journal of Science and Research, 9(3), 91–93.

關(guān)于作者

Julien Grimaud,巴黎學(xué)習(xí)生物技術(shù)學(xué)院生命科學(xué)助理教授

Pavla Debeljak,巴黎學(xué)習(xí)生物技術(shù)學(xué)院生物信息學(xué)助理教授

Frank Yates,巴黎學(xué)習(xí)生物技術(shù)學(xué)院工程學(xué)院研究主任

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。