正在閱讀:

看完4個(gè)國(guó)產(chǎn)大模型的用戶協(xié)議,我整個(gè)人都不好了

掃一掃下載界面新聞APP

看完4個(gè)國(guó)產(chǎn)大模型的用戶協(xié)議,我整個(gè)人都不好了

你對(duì)大模型輸入的隱私或機(jī)密信息,會(huì)被怎樣處理?

文 | 娛樂資本論 付夢(mèng)珍

編輯 | James

前幾天,有人發(fā)現(xiàn)訊飛的“星火認(rèn)知大模型”官方體驗(yàn)平臺(tái)SparkDesk在用戶協(xié)議中有一條令人不解的規(guī)定:

根據(jù)娛樂資本論的查詢,SparkDesk 的用戶體驗(yàn)規(guī)則中確實(shí)有相關(guān)含義的條文。就此,我們一同查詢了國(guó)內(nèi)幾款已經(jīng)公測(cè)的大模型產(chǎn)品的用戶協(xié)議、測(cè)試規(guī)則和隱私條款,發(fā)現(xiàn)諸如“用戶生成內(nèi)容屬于平臺(tái)”、“注銷大模型服務(wù)會(huì)同時(shí)注銷其它服務(wù)”、“平臺(tái)可以收集在公開渠道、社交網(wǎng)絡(luò)上發(fā)現(xiàn)的你的個(gè)人信息”等不盡合理的規(guī)定還有很多。

所以,我們想在本文中告訴你:

哪些你認(rèn)為完全合理的AI大模型使用方法,其實(shí)是“違反用戶協(xié)議”的?

你對(duì)大模型輸入的隱私或機(jī)密信息,會(huì)被怎樣處理?

當(dāng)你有可能違反了AI大模型的使用條款時(shí),這意味著什么?

一不小心,就違反協(xié)議了

3月中旬,百度文心一言開放產(chǎn)品測(cè)試,4月7日阿里的“通義千問”啟動(dòng)內(nèi)測(cè),4月17日昆侖萬維“天工”啟動(dòng)內(nèi)測(cè),4月24日科大訊飛“星火認(rèn)知大模型”啟動(dòng)內(nèi)測(cè)。

它們都為用戶提供了一個(gè)相對(duì)非常簡(jiǎn)短的“測(cè)試規(guī)則”來代替以往冗長(zhǎng)的用戶協(xié)議,例如《文心一言測(cè)試規(guī)則》,相對(duì)的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測(cè)試規(guī)則只講了三件事:1.請(qǐng)不要發(fā)布違法違規(guī)的內(nèi)容;2.我們還很不成熟,會(huì)有錯(cuò)誤,請(qǐng)不要拿生成結(jié)果直接用于嚴(yán)肅的場(chǎng)合;3.請(qǐng)盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規(guī)定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當(dāng)你在微信群里跟人截圖炫耀自己獲得內(nèi)測(cè)資格的一瞬間,你已經(jīng)違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗(yàn)規(guī)則》中找到了對(duì)應(yīng)的規(guī)定原文:

“鑒于SparkDesk服務(wù)目前處于體驗(yàn)階段,SparkDesk的有關(guān)計(jì)算機(jī)程序、代碼、技術(shù)數(shù)據(jù)、系統(tǒng)及應(yīng)用軟件、數(shù)據(jù)庫、算法、交互界面(包含輸入和輸出內(nèi)容)、產(chǎn)品設(shè)計(jì)、產(chǎn)品發(fā)布與規(guī)劃信息等技術(shù)信息或商業(yè)信息屬于保密信息。

您知悉并同意,對(duì)前述保密信息嚴(yán)格保密!未經(jīng)允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網(wǎng)絡(luò)、無線通訊等手段)披露、使用或允許他人使用,或者發(fā)送至網(wǎng)站、微博、微信群組或朋友圈、自媒體賬號(hào)等網(wǎng)絡(luò)環(huán)境中。

若您違反本規(guī)則約定的保密義務(wù),我們有權(quán)依法追究您的法律責(zé)任?!?/em>

很顯然,“交互界面(包含輸入和輸出內(nèi)容)”涵蓋了我們?cè)谑褂肧parkDesk時(shí),對(duì)著它的對(duì)話框輸入的內(nèi)容,以及它返回給我們的結(jié)果。而往往我們都會(huì)用微信截圖發(fā)給群里的朋友,這是再自然不過的舉動(dòng)了。

而且輸入SparkDesk的名字,你就能發(fā)現(xiàn)有不少公眾號(hào)作者,先是在注冊(cè)時(shí)看到了這段禁止截圖的話,點(diǎn)完同意以后馬上開始截圖體驗(yàn),即使水印帶著他的手機(jī)號(hào)也毫不畏懼。

我們很好奇,這種制定時(shí)就應(yīng)該預(yù)見到不可能執(zhí)行的規(guī)定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網(wǎng)信息外,大模型也會(huì)保留用戶與它的聊天數(shù)據(jù)用作訓(xùn)練,因此用戶的個(gè)人信息或企業(yè)的商業(yè)秘密也有暴露在公眾面前的風(fēng)險(xiǎn)。此前,三星電子的半導(dǎo)體部門發(fā)生了3起將商業(yè)機(jī)密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個(gè)人信息,這違反了歐盟的GDPR隱私條款規(guī)定。

那么,國(guó)產(chǎn)大模型會(huì)在協(xié)議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國(guó)產(chǎn)AI大模型都會(huì)收集用戶與模型的問答歷史。如果你對(duì)某個(gè)回答點(diǎn)了旁邊的“贊”或“踩”,這些進(jìn)一步的反饋信息也在被收集的信息之列。

這種問答數(shù)據(jù)的收集主要用于優(yōu)化產(chǎn)品。不過百度文心一言規(guī)定,這些信息還可以被百度方面用作商業(yè)用途。

《文心一言(測(cè)試版)個(gè)人信息保護(hù)規(guī)則》提到:

“我們通過技術(shù)手段對(duì)個(gè)人信息進(jìn)行去標(biāo)識(shí)化處理后,去標(biāo)識(shí)化處理的信息將無法識(shí)別主體。請(qǐng)您了解并同意,在此情況下我們有權(quán)使用已經(jīng)去標(biāo)識(shí)化的信息;在不透露您個(gè)人信息的前提下,我們有權(quán)對(duì)參與測(cè)試人員數(shù)據(jù)庫進(jìn)行分析并予以商業(yè)化的利用。

當(dāng)我們展示您的個(gè)人信息時(shí),我們會(huì)采用包括內(nèi)容替換、匿名處理方式對(duì)您的信息進(jìn)行脫敏展示,以保護(hù)您的信息安全?!?/em>

實(shí)際上,百度已經(jīng)收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對(duì)題的聊天記錄,并公開在百度的視頻號(hào)等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當(dāng)樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發(fā)商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個(gè)人信息以至于可識(shí)別出來的時(shí)候,這可能會(huì)給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們?yōu)锳PI的商業(yè)版本則可能會(huì)實(shí)現(xiàn)對(duì)用戶數(shù)據(jù)的保密,所以希望大家在放飛自我之前好好想想。

我們關(guān)注的幾款國(guó)內(nèi)大模型,普遍都提到會(huì)用“脫敏”方式處理大家的隱私信息,例如“在經(jīng)過去標(biāo)識(shí)化且無法重新識(shí)別特定個(gè)人的前提下”等表述。但是總體上講,平臺(tái)收集的信息越少越好,這才是對(duì)你隱私的最大保護(hù)。

實(shí)際情況是相反的:因?yàn)橛脩舳际桥抨?duì)等著獲取體驗(yàn)名額,這些大模型產(chǎn)品在審核試用申請(qǐng)時(shí),會(huì)傾向于給那些更詳細(xì)提交自己身份信息的用戶。

用戶對(duì)AI生成的回答可以通過點(diǎn)贊和點(diǎn)踩,反饋滿意與否。開發(fā)商們也非常希望一些不好的生成例子,是最先在平臺(tái)內(nèi)部發(fā)現(xiàn)和反饋的。然而對(duì)開發(fā)商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內(nèi)部反饋,而是直接發(fā)到了小紅書、微博等社交網(wǎng)絡(luò)。

此時(shí),我們發(fā)現(xiàn)有模型在隱私政策中提到,萬一有必要,它們也會(huì)通過社交網(wǎng)絡(luò)資料知道某個(gè)截屏的人是誰:

“在法律允許的情況下,我們還會(huì)從公用或商用來源獲取有關(guān)您的信息,包括第三方社交網(wǎng)絡(luò)服務(wù)獲取有關(guān)您的信息。

用戶們把大模型當(dāng)樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一?!?/p>

然而,如果大模型的開發(fā)商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個(gè)人信息,以至于可識(shí)別出來的時(shí)候,這可能會(huì)給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應(yīng)用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認(rèn)那是你聊的內(nèi)容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請(qǐng)您謹(jǐn)慎輸入文本信息。一旦您參與測(cè)試體驗(yàn),將被視為您已經(jīng)接受以上條款?!?/em>

要是我違規(guī)了,會(huì)有什么處罰?

眾所周知,AI生成的內(nèi)容多年來在各國(guó)法律判決中,大多被視為不受到版權(quán)保護(hù),也就是任何人都可以拿去使用和修改。各國(guó)判例中主要認(rèn)為,AI不是人,所以不是知識(shí)產(chǎn)權(quán)的所有者。

很多用戶天然的認(rèn)為,在大模型平臺(tái)上生成的內(nèi)容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國(guó)產(chǎn)大模型的條款,并非都是這樣規(guī)定的。

訊飛星火的“保密條款”我們已經(jīng)見識(shí)過了。而昆侖萬維天工(條款中自稱“奇點(diǎn)”)是不允許用戶商業(yè)使用所生成的內(nèi)容,當(dāng)然這個(gè)背后可能也有避免麻煩的考量,畢竟可能數(shù)據(jù)集本身的版權(quán)也很模糊。

“除非奇點(diǎn)另行書面授權(quán),否則,您只能將天工服務(wù)用于非商業(yè)用途。您承諾不對(duì)天工服務(wù)任何部分或天工服務(wù)之使用或獲得,進(jìn)行復(fù)制、拷貝、出售、轉(zhuǎn)售或用于廣告或其他商業(yè)目的?!?/em>

阿里通義千問將屬于用戶的內(nèi)容劃歸給用戶。百度文心一言未在這方面作出明確規(guī)定,所以你應(yīng)該可以隨意使用它們。

相比之下,OpenAI則體現(xiàn)了對(duì)客戶的一種溫情:它明確將用戶生成的內(nèi)容的所有權(quán)利、所有權(quán)和利益轉(zhuǎn)讓給客戶。

此時(shí),問題來了——如果我真的把平臺(tái)不讓商用的生成結(jié)果拿去商用了,我會(huì)被抓起來嗎?

事實(shí)上,內(nèi)測(cè)用戶積極申請(qǐng)國(guó)產(chǎn)大模型的測(cè)試資格,當(dāng)然不全是為了玩。他們產(chǎn)出的內(nèi)容,肯定想盡量用于自己的工作中,真正實(shí)現(xiàn)效率的提升。平臺(tái)禁止生成內(nèi)容商用的規(guī)定顯得不合情理,但考慮到開發(fā)商們有可能有將API商用的打算,我們也大致能理解為什么會(huì)有這樣的規(guī)定。

唯一的問題是,就像秘塔科技:“中國(guó)的Grammarly”如何應(yīng)對(duì)GPT時(shí)代的“降維打擊”秘塔科技的COO王益為之前對(duì)娛樂資本論講的那樣,市場(chǎng)上目前沒有一種工具能真正檢測(cè)什么段落是由AI生成的?!叭绻幸患艺f,我就針對(duì)某一家的大模型專門去訓(xùn)練,或許有一點(diǎn)點(diǎn)可能檢測(cè)到這一種模型生產(chǎn)的痕跡,但要說能全都檢測(cè)出市面上這些大模型生成的結(jié)果,那是不可能的?!?/p>

另外,這些國(guó)產(chǎn)大模型為盡量實(shí)現(xiàn)可溯源的目標(biāo),都采用了在界面添加水印的方法,來保留用戶的個(gè)人信息。而我們已經(jīng)發(fā)現(xiàn)了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個(gè)問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號(hào)了,這會(huì)很困難嗎?

對(duì)于訊飛星火和昆侖萬維天工而言,這兩家的賬號(hào)或通行證都不會(huì)附帶某些特別重要的產(chǎn)品或服務(wù),所以是方便的(有些人可能是訊飛聽寫等的付費(fèi)用戶,或在使用訊飛的API,此時(shí)需要特別注意)。

然而,如果你想停用通義千問,這意味著要?jiǎng)h除你的阿里云賬號(hào);如果你想停用文心一言,這意味著要?jiǎng)h除你的百度賬號(hào)。這兩個(gè)的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號(hào)的前提下,訪問、處理和請(qǐng)求消除個(gè)人數(shù)據(jù)的多種方式,個(gè)性化的需求可以給他們發(fā)郵件來申訴。不過它也提到,清空對(duì)話界面上的對(duì)話記錄,并不等于立即消除這些記錄在服務(wù)器上的緩存:

當(dāng)您從我們的服務(wù)中刪除信息后,我們可能不會(huì)立即從備份系統(tǒng)中刪除相應(yīng)的信息,但會(huì)在備份更新時(shí)刪除這些信息。

通義千問的條款指出,“您可以登錄賬號(hào)中心后申請(qǐng)注銷賬戶以刪除您的全部信息?!边@個(gè)賬號(hào)中心并不在通義千問的界面里,只能在阿里云的控制臺(tái)找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號(hào)。

總之,在這些服務(wù)能脫離開賬號(hào)附帶的其它業(yè)務(wù),允許被單獨(dú)注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號(hào)來申請(qǐng)注冊(cè)這些大模型。

寫在最后

當(dāng)我們追問這些大模型在用戶協(xié)議里一些“強(qiáng)人所難”的規(guī)定時(shí),我們實(shí)際上在問的是,平臺(tái)與用戶權(quán)利、義務(wù)的邊界到底在哪兒?

大模型開發(fā)商對(duì)用戶數(shù)據(jù)收集的范圍比較廣。這些數(shù)據(jù)能為大模型改進(jìn)產(chǎn)品提供依據(jù),但也讓用戶承擔(dān)了諸多風(fēng)險(xiǎn)。相應(yīng)的,它們對(duì)自身承擔(dān)的有限責(zé)任劃定則十分保守,反復(fù)提醒用戶,作為一項(xiàng)實(shí)驗(yàn)性的功能,大模型不為用戶使用后發(fā)生的任何問題或損失承擔(dān)責(zé)任。

“沒有100%的數(shù)據(jù)安全”。AI大模型和其它互聯(lián)網(wǎng)產(chǎn)品一樣,在數(shù)據(jù)傳輸、存儲(chǔ)和處理過程中都會(huì)存在潛在的風(fēng)險(xiǎn)。這還沒有涉及到像ChatGPT那種根據(jù)輸入語料而學(xué)習(xí)的潛在的泄密方式。

雖然開發(fā)商自稱會(huì)對(duì)用戶信息“脫敏”,用戶仍應(yīng)當(dāng)定期檢查自己在這些平臺(tái)上的隱私設(shè)置,并及時(shí)關(guān)注平臺(tái)以小字、彈窗等不確定的形態(tài)發(fā)布的任何通知。

用戶協(xié)議是企業(yè)常用來和用戶締結(jié)契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權(quán)益與個(gè)人信息安全,各位用戶們需要仔細(xì)閱讀用戶協(xié)議、隱私政策等,再點(diǎn)擊那個(gè)醒目的“同意并繼續(xù)”。

尤瓦爾·赫拉利曾在《人類簡(jiǎn)史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發(fā)展的趨勢(shì)之一,便是提高人類生活的便捷性,在這個(gè)過程中,用戶“讓渡隱私權(quán)”似乎不可避免。

但是,通過仔細(xì)閱讀那些常被人忽略的協(xié)議和條款,我們?cè)噲D讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺(tái)的進(jìn)一步改進(jìn)。

我們也希望各家國(guó)產(chǎn)大模型的用戶權(quán)益保護(hù)工作,可以跟模型的研發(fā)進(jìn)度同步,在收集用戶信息時(shí)能夠取舍有度,從長(zhǎng)遠(yuǎn)利益出發(fā),審慎行之。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

看完4個(gè)國(guó)產(chǎn)大模型的用戶協(xié)議,我整個(gè)人都不好了

你對(duì)大模型輸入的隱私或機(jī)密信息,會(huì)被怎樣處理?

文 | 娛樂資本論 付夢(mèng)珍

編輯 | James

前幾天,有人發(fā)現(xiàn)訊飛的“星火認(rèn)知大模型”官方體驗(yàn)平臺(tái)SparkDesk在用戶協(xié)議中有一條令人不解的規(guī)定:

根據(jù)娛樂資本論的查詢,SparkDesk 的用戶體驗(yàn)規(guī)則中確實(shí)有相關(guān)含義的條文。就此,我們一同查詢了國(guó)內(nèi)幾款已經(jīng)公測(cè)的大模型產(chǎn)品的用戶協(xié)議、測(cè)試規(guī)則和隱私條款,發(fā)現(xiàn)諸如“用戶生成內(nèi)容屬于平臺(tái)”、“注銷大模型服務(wù)會(huì)同時(shí)注銷其它服務(wù)”、“平臺(tái)可以收集在公開渠道、社交網(wǎng)絡(luò)上發(fā)現(xiàn)的你的個(gè)人信息”等不盡合理的規(guī)定還有很多。

所以,我們想在本文中告訴你:

哪些你認(rèn)為完全合理的AI大模型使用方法,其實(shí)是“違反用戶協(xié)議”的?

你對(duì)大模型輸入的隱私或機(jī)密信息,會(huì)被怎樣處理?

當(dāng)你有可能違反了AI大模型的使用條款時(shí),這意味著什么?

一不小心,就違反協(xié)議了

3月中旬,百度文心一言開放產(chǎn)品測(cè)試,4月7日阿里的“通義千問”啟動(dòng)內(nèi)測(cè),4月17日昆侖萬維“天工”啟動(dòng)內(nèi)測(cè),4月24日科大訊飛“星火認(rèn)知大模型”啟動(dòng)內(nèi)測(cè)。

它們都為用戶提供了一個(gè)相對(duì)非常簡(jiǎn)短的“測(cè)試規(guī)則”來代替以往冗長(zhǎng)的用戶協(xié)議,例如《文心一言測(cè)試規(guī)則》,相對(duì)的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測(cè)試規(guī)則只講了三件事:1.請(qǐng)不要發(fā)布違法違規(guī)的內(nèi)容;2.我們還很不成熟,會(huì)有錯(cuò)誤,請(qǐng)不要拿生成結(jié)果直接用于嚴(yán)肅的場(chǎng)合;3.請(qǐng)盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規(guī)定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當(dāng)你在微信群里跟人截圖炫耀自己獲得內(nèi)測(cè)資格的一瞬間,你已經(jīng)違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗(yàn)規(guī)則》中找到了對(duì)應(yīng)的規(guī)定原文:

“鑒于SparkDesk服務(wù)目前處于體驗(yàn)階段,SparkDesk的有關(guān)計(jì)算機(jī)程序、代碼、技術(shù)數(shù)據(jù)、系統(tǒng)及應(yīng)用軟件、數(shù)據(jù)庫、算法、交互界面(包含輸入和輸出內(nèi)容)、產(chǎn)品設(shè)計(jì)、產(chǎn)品發(fā)布與規(guī)劃信息等技術(shù)信息或商業(yè)信息屬于保密信息。

您知悉并同意,對(duì)前述保密信息嚴(yán)格保密!未經(jīng)允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網(wǎng)絡(luò)、無線通訊等手段)披露、使用或允許他人使用,或者發(fā)送至網(wǎng)站、微博、微信群組或朋友圈、自媒體賬號(hào)等網(wǎng)絡(luò)環(huán)境中。

若您違反本規(guī)則約定的保密義務(wù),我們有權(quán)依法追究您的法律責(zé)任?!?/em>

很顯然,“交互界面(包含輸入和輸出內(nèi)容)”涵蓋了我們?cè)谑褂肧parkDesk時(shí),對(duì)著它的對(duì)話框輸入的內(nèi)容,以及它返回給我們的結(jié)果。而往往我們都會(huì)用微信截圖發(fā)給群里的朋友,這是再自然不過的舉動(dòng)了。

而且輸入SparkDesk的名字,你就能發(fā)現(xiàn)有不少公眾號(hào)作者,先是在注冊(cè)時(shí)看到了這段禁止截圖的話,點(diǎn)完同意以后馬上開始截圖體驗(yàn),即使水印帶著他的手機(jī)號(hào)也毫不畏懼。

我們很好奇,這種制定時(shí)就應(yīng)該預(yù)見到不可能執(zhí)行的規(guī)定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網(wǎng)信息外,大模型也會(huì)保留用戶與它的聊天數(shù)據(jù)用作訓(xùn)練,因此用戶的個(gè)人信息或企業(yè)的商業(yè)秘密也有暴露在公眾面前的風(fēng)險(xiǎn)。此前,三星電子的半導(dǎo)體部門發(fā)生了3起將商業(yè)機(jī)密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個(gè)人信息,這違反了歐盟的GDPR隱私條款規(guī)定。

那么,國(guó)產(chǎn)大模型會(huì)在協(xié)議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國(guó)產(chǎn)AI大模型都會(huì)收集用戶與模型的問答歷史。如果你對(duì)某個(gè)回答點(diǎn)了旁邊的“贊”或“踩”,這些進(jìn)一步的反饋信息也在被收集的信息之列。

這種問答數(shù)據(jù)的收集主要用于優(yōu)化產(chǎn)品。不過百度文心一言規(guī)定,這些信息還可以被百度方面用作商業(yè)用途。

《文心一言(測(cè)試版)個(gè)人信息保護(hù)規(guī)則》提到:

“我們通過技術(shù)手段對(duì)個(gè)人信息進(jìn)行去標(biāo)識(shí)化處理后,去標(biāo)識(shí)化處理的信息將無法識(shí)別主體。請(qǐng)您了解并同意,在此情況下我們有權(quán)使用已經(jīng)去標(biāo)識(shí)化的信息;在不透露您個(gè)人信息的前提下,我們有權(quán)對(duì)參與測(cè)試人員數(shù)據(jù)庫進(jìn)行分析并予以商業(yè)化的利用。

當(dāng)我們展示您的個(gè)人信息時(shí),我們會(huì)采用包括內(nèi)容替換、匿名處理方式對(duì)您的信息進(jìn)行脫敏展示,以保護(hù)您的信息安全?!?/em>

實(shí)際上,百度已經(jīng)收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對(duì)題的聊天記錄,并公開在百度的視頻號(hào)等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當(dāng)樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發(fā)商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個(gè)人信息以至于可識(shí)別出來的時(shí)候,這可能會(huì)給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們?yōu)锳PI的商業(yè)版本則可能會(huì)實(shí)現(xiàn)對(duì)用戶數(shù)據(jù)的保密,所以希望大家在放飛自我之前好好想想。

我們關(guān)注的幾款國(guó)內(nèi)大模型,普遍都提到會(huì)用“脫敏”方式處理大家的隱私信息,例如“在經(jīng)過去標(biāo)識(shí)化且無法重新識(shí)別特定個(gè)人的前提下”等表述。但是總體上講,平臺(tái)收集的信息越少越好,這才是對(duì)你隱私的最大保護(hù)。

實(shí)際情況是相反的:因?yàn)橛脩舳际桥抨?duì)等著獲取體驗(yàn)名額,這些大模型產(chǎn)品在審核試用申請(qǐng)時(shí),會(huì)傾向于給那些更詳細(xì)提交自己身份信息的用戶。

用戶對(duì)AI生成的回答可以通過點(diǎn)贊和點(diǎn)踩,反饋滿意與否。開發(fā)商們也非常希望一些不好的生成例子,是最先在平臺(tái)內(nèi)部發(fā)現(xiàn)和反饋的。然而對(duì)開發(fā)商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內(nèi)部反饋,而是直接發(fā)到了小紅書、微博等社交網(wǎng)絡(luò)。

此時(shí),我們發(fā)現(xiàn)有模型在隱私政策中提到,萬一有必要,它們也會(huì)通過社交網(wǎng)絡(luò)資料知道某個(gè)截屏的人是誰:

“在法律允許的情況下,我們還會(huì)從公用或商用來源獲取有關(guān)您的信息,包括第三方社交網(wǎng)絡(luò)服務(wù)獲取有關(guān)您的信息。

用戶們把大模型當(dāng)樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一?!?/p>

然而,如果大模型的開發(fā)商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個(gè)人信息,以至于可識(shí)別出來的時(shí)候,這可能會(huì)給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應(yīng)用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認(rèn)那是你聊的內(nèi)容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請(qǐng)您謹(jǐn)慎輸入文本信息。一旦您參與測(cè)試體驗(yàn),將被視為您已經(jīng)接受以上條款。”

要是我違規(guī)了,會(huì)有什么處罰?

眾所周知,AI生成的內(nèi)容多年來在各國(guó)法律判決中,大多被視為不受到版權(quán)保護(hù),也就是任何人都可以拿去使用和修改。各國(guó)判例中主要認(rèn)為,AI不是人,所以不是知識(shí)產(chǎn)權(quán)的所有者。

很多用戶天然的認(rèn)為,在大模型平臺(tái)上生成的內(nèi)容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國(guó)產(chǎn)大模型的條款,并非都是這樣規(guī)定的。

訊飛星火的“保密條款”我們已經(jīng)見識(shí)過了。而昆侖萬維天工(條款中自稱“奇點(diǎn)”)是不允許用戶商業(yè)使用所生成的內(nèi)容,當(dāng)然這個(gè)背后可能也有避免麻煩的考量,畢竟可能數(shù)據(jù)集本身的版權(quán)也很模糊。

“除非奇點(diǎn)另行書面授權(quán),否則,您只能將天工服務(wù)用于非商業(yè)用途。您承諾不對(duì)天工服務(wù)任何部分或天工服務(wù)之使用或獲得,進(jìn)行復(fù)制、拷貝、出售、轉(zhuǎn)售或用于廣告或其他商業(yè)目的。”

阿里通義千問將屬于用戶的內(nèi)容劃歸給用戶。百度文心一言未在這方面作出明確規(guī)定,所以你應(yīng)該可以隨意使用它們。

相比之下,OpenAI則體現(xiàn)了對(duì)客戶的一種溫情:它明確將用戶生成的內(nèi)容的所有權(quán)利、所有權(quán)和利益轉(zhuǎn)讓給客戶。

此時(shí),問題來了——如果我真的把平臺(tái)不讓商用的生成結(jié)果拿去商用了,我會(huì)被抓起來嗎?

事實(shí)上,內(nèi)測(cè)用戶積極申請(qǐng)國(guó)產(chǎn)大模型的測(cè)試資格,當(dāng)然不全是為了玩。他們產(chǎn)出的內(nèi)容,肯定想盡量用于自己的工作中,真正實(shí)現(xiàn)效率的提升。平臺(tái)禁止生成內(nèi)容商用的規(guī)定顯得不合情理,但考慮到開發(fā)商們有可能有將API商用的打算,我們也大致能理解為什么會(huì)有這樣的規(guī)定。

唯一的問題是,就像秘塔科技:“中國(guó)的Grammarly”如何應(yīng)對(duì)GPT時(shí)代的“降維打擊”秘塔科技的COO王益為之前對(duì)娛樂資本論講的那樣,市場(chǎng)上目前沒有一種工具能真正檢測(cè)什么段落是由AI生成的?!叭绻幸患艺f,我就針對(duì)某一家的大模型專門去訓(xùn)練,或許有一點(diǎn)點(diǎn)可能檢測(cè)到這一種模型生產(chǎn)的痕跡,但要說能全都檢測(cè)出市面上這些大模型生成的結(jié)果,那是不可能的?!?/p>

另外,這些國(guó)產(chǎn)大模型為盡量實(shí)現(xiàn)可溯源的目標(biāo),都采用了在界面添加水印的方法,來保留用戶的個(gè)人信息。而我們已經(jīng)發(fā)現(xiàn)了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個(gè)問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號(hào)了,這會(huì)很困難嗎?

對(duì)于訊飛星火和昆侖萬維天工而言,這兩家的賬號(hào)或通行證都不會(huì)附帶某些特別重要的產(chǎn)品或服務(wù),所以是方便的(有些人可能是訊飛聽寫等的付費(fèi)用戶,或在使用訊飛的API,此時(shí)需要特別注意)。

然而,如果你想停用通義千問,這意味著要?jiǎng)h除你的阿里云賬號(hào);如果你想停用文心一言,這意味著要?jiǎng)h除你的百度賬號(hào)。這兩個(gè)的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號(hào)的前提下,訪問、處理和請(qǐng)求消除個(gè)人數(shù)據(jù)的多種方式,個(gè)性化的需求可以給他們發(fā)郵件來申訴。不過它也提到,清空對(duì)話界面上的對(duì)話記錄,并不等于立即消除這些記錄在服務(wù)器上的緩存:

當(dāng)您從我們的服務(wù)中刪除信息后,我們可能不會(huì)立即從備份系統(tǒng)中刪除相應(yīng)的信息,但會(huì)在備份更新時(shí)刪除這些信息。

通義千問的條款指出,“您可以登錄賬號(hào)中心后申請(qǐng)注銷賬戶以刪除您的全部信息?!边@個(gè)賬號(hào)中心并不在通義千問的界面里,只能在阿里云的控制臺(tái)找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號(hào)。

總之,在這些服務(wù)能脫離開賬號(hào)附帶的其它業(yè)務(wù),允許被單獨(dú)注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號(hào)來申請(qǐng)注冊(cè)這些大模型。

寫在最后

當(dāng)我們追問這些大模型在用戶協(xié)議里一些“強(qiáng)人所難”的規(guī)定時(shí),我們實(shí)際上在問的是,平臺(tái)與用戶權(quán)利、義務(wù)的邊界到底在哪兒?

大模型開發(fā)商對(duì)用戶數(shù)據(jù)收集的范圍比較廣。這些數(shù)據(jù)能為大模型改進(jìn)產(chǎn)品提供依據(jù),但也讓用戶承擔(dān)了諸多風(fēng)險(xiǎn)。相應(yīng)的,它們對(duì)自身承擔(dān)的有限責(zé)任劃定則十分保守,反復(fù)提醒用戶,作為一項(xiàng)實(shí)驗(yàn)性的功能,大模型不為用戶使用后發(fā)生的任何問題或損失承擔(dān)責(zé)任。

“沒有100%的數(shù)據(jù)安全”。AI大模型和其它互聯(lián)網(wǎng)產(chǎn)品一樣,在數(shù)據(jù)傳輸、存儲(chǔ)和處理過程中都會(huì)存在潛在的風(fēng)險(xiǎn)。這還沒有涉及到像ChatGPT那種根據(jù)輸入語料而學(xué)習(xí)的潛在的泄密方式。

雖然開發(fā)商自稱會(huì)對(duì)用戶信息“脫敏”,用戶仍應(yīng)當(dāng)定期檢查自己在這些平臺(tái)上的隱私設(shè)置,并及時(shí)關(guān)注平臺(tái)以小字、彈窗等不確定的形態(tài)發(fā)布的任何通知。

用戶協(xié)議是企業(yè)常用來和用戶締結(jié)契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權(quán)益與個(gè)人信息安全,各位用戶們需要仔細(xì)閱讀用戶協(xié)議、隱私政策等,再點(diǎn)擊那個(gè)醒目的“同意并繼續(xù)”。

尤瓦爾·赫拉利曾在《人類簡(jiǎn)史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發(fā)展的趨勢(shì)之一,便是提高人類生活的便捷性,在這個(gè)過程中,用戶“讓渡隱私權(quán)”似乎不可避免。

但是,通過仔細(xì)閱讀那些常被人忽略的協(xié)議和條款,我們?cè)噲D讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺(tái)的進(jìn)一步改進(jìn)。

我們也希望各家國(guó)產(chǎn)大模型的用戶權(quán)益保護(hù)工作,可以跟模型的研發(fā)進(jìn)度同步,在收集用戶信息時(shí)能夠取舍有度,從長(zhǎng)遠(yuǎn)利益出發(fā),審慎行之。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。