文|IT時報 沈毅斌
編輯|王昕 孫妍
今年3月,一位比利時男子在與AI語言模型“Eliza”聊天6周后,因過于焦慮自殺身亡,而“Eliza”對男子說的最后一句話是“我們將作為一個整體,永遠(yuǎn)生活在天堂”,這番話回味起來更讓人毛骨悚然……
3月29日,生命未來研究所發(fā)布一封公開信,呼吁所有AI實驗室立即停止訓(xùn)練比GPT-4更強大的AI系統(tǒng)至少6個月,以馬斯克、辛頓為首的數(shù)千名科技企業(yè)領(lǐng)袖和研究人員聯(lián)名為公開信站臺。
不可否認(rèn),ChatGPT是繼互聯(lián)網(wǎng)、智能手機后出現(xiàn)的又一個革命性產(chǎn)品,更是人工智能發(fā)展史上的又一座里程碑,但狂飆突進(jìn)式的更新迭代和驚人的成長速度,不禁讓人類社會感到“恐慌”。以ChatGPT為代表的新一代人工智能發(fā)展應(yīng)該“踩剎車”還是“加油門”?成為一個世紀(jì)之問。
法律法規(guī)作為規(guī)范社會、行業(yè)秩序的重要工具,同時也是人工智能這把“雙刃劍”的“劍鞘”,能引領(lǐng)和保障人工智能安全可靠、可信可控的健康發(fā)展。上海市最高人民法院副院長楊萬明表示,面對新技術(shù)新應(yīng)用,需要持續(xù)探索規(guī)范高效的監(jiān)管機制和監(jiān)管方式,構(gòu)建完善經(jīng)濟(jì)、便利、可行的合規(guī)指引,建立良好數(shù)字生態(tài)。
01 法律行業(yè)受大模型影響最大
2023年初,哥倫比亞海港城市卡塔赫納第一巡回法庭的主審法官將ChatGPT的擴充回答與自己的觀點結(jié)合,作為最終的依據(jù)進(jìn)行判決。這是全球第一例在法律裁決中使用大語言模型技術(shù)的案例。
“我們的大模型可以在司法領(lǐng)域?qū)崿F(xiàn)法律文書的校對和書寫,也能從眾多案件中提煉出關(guān)鍵的審判信息,協(xié)助司法人員工作?!痹趧倓偮淠坏?023世界人工智能大會上,多家大模型企業(yè)都表示,法律行業(yè)是語言類大模型運用的重要場景之一。
法律行業(yè)與語言類大模型的關(guān)系十分契合,從技術(shù)邏輯來看,一方面法律行業(yè)的核心是對法律文案、法律語言、法律案件的理解,并通過司法人員的理解,運用在判決過程中。而ChatGPT類的大語言模型技術(shù)不僅能“記住”訓(xùn)練期間獲取的大量法律案件,還可以“理解”法律法規(guī)中的大部分內(nèi)容。
另一方面,ChatGPT類的大語言模型強大的內(nèi)容生成能力,也能夠做到法律文案書寫、案件分析,甚至可以進(jìn)行延伸推理。因此,在“職業(yè)受人工智能影響”榜單中,法律行業(yè)位居二十種最受大模型影響行業(yè)之首。
浙江清華長三角研究院院長黃開勝在2023世界人工智能大會法治論壇上表示,人工智能可以為司法發(fā)揮替代性和輔助性作用,同時司法系統(tǒng)用戶多為不同專業(yè)的高知識水平人群,司法數(shù)據(jù)結(jié)構(gòu)化程度和邏輯性高的優(yōu)勢,能為人工智能技術(shù)進(jìn)步提供新動能,有助于構(gòu)建專業(yè)化和通用化的機器學(xué)習(xí)模型?!叭斯ぶ悄?司法”將成為未來法律行業(yè)的新模式。
AI大模型除了在法律應(yīng)用層面造成影響外,法律知識傳播和法律服務(wù)市場也將受其影響。在2023版《東方法學(xué)》一書中提到,目前,法律知識的傳播仍然以法律行業(yè)的職業(yè)化、專業(yè)化和精英化為底色,呈現(xiàn)出以“法律人”為中心的高黏性傳播特征。簡單來說就是,律師、法官、法院職員等法律行業(yè)精英對法律知識解釋后傳播給公眾。
隨著ChatGPT類大語言模型技術(shù)的進(jìn)步,通過AI對法律的解釋,不僅能降低人們對法律知識的理解門檻,讓每一位公眾都能成為法律知識的享有者,還有可能促成以公眾為中心的分布式知識傳播新范式。
當(dāng)這一傳播新范式形成時,法律服務(wù)市場將不再單一依靠職業(yè)化的法律工作者,掌握AI大模型技術(shù)的科技公司將進(jìn)入法律服務(wù)市場,成為新興主體。屆時,人們可選擇的法律服務(wù)對象將變得多樣化,法律服務(wù)方式也會因此轉(zhuǎn)變。
02 技術(shù)落后才是最大風(fēng)險
據(jù)《世界人工智能法治藍(lán)皮書(2023)》,2022年,我國人工智能司法案件共檢索到118338起,廣東省以17787起案件數(shù)位居全國第一,占總案件量的15.07%。從整體上看,人工智能司法案件發(fā)生地主要集中在東南沿海地區(qū)和個別經(jīng)濟(jì)發(fā)展水平較高的內(nèi)陸省份。在所有案件中,民事案件占比最高,為86.92%,其中,合同糾紛、知識產(chǎn)權(quán)糾紛、侵權(quán)責(zé)任糾紛為主要案件類型。
而上述領(lǐng)域正好也是生成式大模型的法律半真空區(qū)域。ChatGPT生成的詩歌、文章等作品,是否受著作權(quán)法保護(hù)?其著作權(quán)應(yīng)該屬于誰?目前并沒有形成共識。中國人民大學(xué)教授王利明表示,生成式人工智能引發(fā)的侵權(quán)糾紛,沒有完全超出民法典和個人信息保護(hù)法的相關(guān)規(guī)定,現(xiàn)行法律依然可以作為處理糾紛的依據(jù)。
“我們要形成鼓勵創(chuàng)新同時兼顧風(fēng)險的價值取向,正視生成式人工智能的風(fēng)險,更要意識到技術(shù)落后才是最大風(fēng)險。”王利明進(jìn)一步表示,一般而言,生成式人工智能的特殊性,不會出現(xiàn)大規(guī)模直接侵害人身或財產(chǎn)安全的現(xiàn)象,但更嚴(yán)重的隱患來自生成式人工智能可能產(chǎn)生的大量虛假信息,一旦被使用者惡意利用,極有可能引發(fā)社會動蕩。
相比其他AI,生成式人工智能潛在危害社會方式的隱蔽性更強,尤其是在倫理道德方面,以人們無法察覺的方式影響整個社會道德風(fēng)尚。
因此,王利明認(rèn)為,需要通過特別立法預(yù)防和處理生成式人工智能引發(fā)的各種風(fēng)險,從而保障民事主體合法權(quán)益,促進(jìn)人工智能產(chǎn)業(yè)健康發(fā)展。
螞蟻集團(tuán)副總裁、首席合規(guī)官李臣同樣表示,人工智能領(lǐng)域的國際治理規(guī)制競爭與科技創(chuàng)新競爭一樣日益激烈,我國要積極參與國際相關(guān)標(biāo)準(zhǔn)、規(guī)則的制定,最大化凝聚人工智能治理的全球共識,不斷提升我國在人工智能領(lǐng)域的影響力。
03 AI經(jīng)濟(jì)增量應(yīng)該由所有人共享
當(dāng)前,學(xué)界主流學(xué)者認(rèn)為ChatGPT引發(fā)的現(xiàn)實風(fēng)險是AIGC技術(shù)的固有風(fēng)險,生成式人工智能的治理方式需要深度融合。例如今年4月11日發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》中,不僅明確表示了國家對人工智能技術(shù)的支持,還規(guī)定了基本的生成式人工智能規(guī)范。同時,ChatGPT的管理也可以被歸入《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中。
不過,這并不能滿足生成式人工智能的發(fā)展,面對ChatGPT帶來的各種挑戰(zhàn),人們要為非碳基生命的“存在”做好法治準(zhǔn)備?!妒澜缛斯ぶ悄芊ㄖ嗡{(lán)皮書(2023)》中提出,研發(fā)、共生、構(gòu)建倫理三方面的法治準(zhǔn)備尤為重要。
一是把控通用人工智能的研發(fā)結(jié)構(gòu)?!度祟惡喪贰纷髡哂韧郀枴ぶZ亞·赫拉利在接受采訪時表示,不認(rèn)為人工智能會發(fā)展出真正的“意識”,但其對社會的不斷沖擊,需要讓整個研發(fā)過程慢下來,適應(yīng)社會發(fā)展進(jìn)程。對此,需要各大行業(yè)協(xié)會、企業(yè)、研究機構(gòu)等聯(lián)合制定研發(fā)安全協(xié)議。同時,與之共享技術(shù)的特殊領(lǐng)域,如仿生學(xué)、控制系統(tǒng)學(xué)等,也都應(yīng)該自檢是否需要“減速”。
二是探索出共治融合的人機共生關(guān)系。隨著生成式人工智能的發(fā)展,人機共生是未來的發(fā)展趨勢。在崗位設(shè)計上,通過不斷深化人機合作關(guān)系,將創(chuàng)造出更多更能發(fā)揮人類特長的新型工作崗位。法律作為配套管理規(guī)則,要解決潛在的分配不公問題。在人工智能尚未取得法律獨立地位時,機器生產(chǎn)的經(jīng)濟(jì)增量由所有人共享,而不是被少數(shù)精英壟斷。
三是構(gòu)建虛擬空間適用的“硅基”倫理。虛擬空間作為人機交互的重要場景,倫理準(zhǔn)則也仍然適用。法律的出現(xiàn)就是為維持系統(tǒng)的平衡性與完整性,實現(xiàn)一種人機全新生存狀態(tài)的義務(wù)。