正在閱讀:

馬斯克跟蘋果互懟,用戶隱私的“壁壘”會(huì)被AI擊穿嗎?

掃一掃下載界面新聞APP

馬斯克跟蘋果互懟,用戶隱私的“壁壘”會(huì)被AI擊穿嗎?

AI或許真能泄露隱私,但不是你想的那樣。

圖片來源:界面新聞 匡達(dá)

文|娛樂資本論 James

北京時(shí)間周二凌晨,蘋果公司發(fā)布了關(guān)于AI的最新更新,并給其AI功能取了一個(gè)雙關(guān)的稱呼:“果工智能”(Apple Intelligence)。在這次發(fā)布會(huì)上雖然沒有太多驚艷之處,但“隱私”這個(gè)概念被反復(fù)強(qiáng)調(diào)了十幾次。

即使如此,也有一位“資深網(wǎng)友”對此不以為然,這就是埃隆·馬斯克。

01 怒噴蘋果和OpenAI,馬斯克是否反應(yīng)過度?

在蘋果發(fā)布會(huì)之后,馬斯克痛批蘋果與OpenAI之間的合作,認(rèn)為這無異于將用戶的隱私信息毫無保留地轉(zhuǎn)手給OpenAI,并配了一張梗圖,稱蘋果作為用戶隱私被出賣給OpenAI的中間商。

他甚至提到,如果蘋果對ChatGPT是系統(tǒng)級(jí)別的集成,他將不允許員工將iPhone帶入特斯拉,如果訪客帶著iPhone進(jìn)來,也需要把手機(jī)鎖在前臺(tái)的“法拉第籠”里面。

馬斯克本人(而不是高仿號(hào))發(fā)表此言論后,大部分科技媒體都持不以為然的態(tài)度,指出他對于蘋果實(shí)現(xiàn)設(shè)備AI的方式缺乏足夠的理解。

根據(jù)蘋果的官方演示,在Siri等地調(diào)動(dòng)ChatGPT的方式,是首先會(huì)詢問用戶是否引用ChatGPT,在此之后代為做一次性的簡單查詢。這其中,ChatGPT就像網(wǎng)絡(luò)搜索一樣,只不過Siri之前調(diào)用搜索引擎,會(huì)帶來一大串雜亂的搜索結(jié)果,現(xiàn)在改為直接用GPT輸出一個(gè)段落的答案,感覺更好。

如果僅限于此,網(wǎng)傳Siri在中國的AI能力會(huì)被替換成百度的文心一言,那效果其實(shí)也不會(huì)差太多,因?yàn)檫@種自然語言替代主要是集中于搜索功能。其實(shí),百度的AI搜索結(jié)果精選,效果比谷歌英文版的還好一些——后者因?yàn)槠孑饨Y(jié)果太多,不得不臨時(shí)降低了在結(jié)果頁面的展示頻率。

蘋果推出的其他AI功能,依靠手機(jī)本身的芯片運(yùn)算,或轉(zhuǎn)給蘋果自己的網(wǎng)絡(luò)端的大模型,這些運(yùn)算并不依賴ChatGPT或其它第三方大模型。蘋果還指出,臨時(shí)需要上傳的數(shù)據(jù)會(huì)經(jīng)過一個(gè)與目前iCloud等單獨(dú)分開的服務(wù)器,并隱藏相關(guān)可識(shí)別的用戶信息,甚至蘋果內(nèi)部員工也無法訪問。

我們普通消費(fèi)者也沒法證實(shí)蘋果的單方面陳述,但毋庸置疑的是,“隱私”現(xiàn)在確實(shí)是蘋果設(shè)備相對于Android等其他陣營的一個(gè)巨大賣點(diǎn)。特別是在后喬布斯時(shí)代,蘋果逐漸陷入創(chuàng)新乏力、“擠牙膏、割韭菜”的質(zhì)疑聲音中。為了普通用戶難以感知的升級(jí),每年多花幾千塊錢換新設(shè)備,這種必要性確實(shí)越來越受到質(zhì)疑。所以,無論是否年年換新,一部分蘋果用戶寧愿舍棄微信雙開、通話錄音等便利,可能正是為了那份對隱私極度重視,帶來的安全和清靜的感覺。

馬斯克所說的質(zhì)疑,更多其實(shí)是針對OpenAI一方表達(dá)不滿。馬斯克退出OpenAI管理層,之后又對其提起訴訟,其核心訴求在于讓OpenAI回到創(chuàng)業(yè)之初的非營利承諾,而不是只顧著賺錢。這一點(diǎn)比較抽象,但對馬斯克來說則是很重要的問題。與他持有類似觀念的還有OpenAI的“超級(jí)對齊”團(tuán)隊(duì),他們希望充分監(jiān)管人工智能的發(fā)展,確保它不會(huì)失控。但該團(tuán)隊(duì)在去年底的一次“宮斗”中失敗而解散。

這些爭論對于普通人是很難理解的。大家更關(guān)心的是,馬斯克的質(zhì)疑是不是真實(shí)的?即使不是蘋果,其它AI大模型是否也很容易泄露用戶隱私?這一點(diǎn)迫切需要一個(gè)明確的答案。

02 使用AI大模型,會(huì)被“開盒”嗎?

簡單的回答就是,AI產(chǎn)品有可能發(fā)生隱私泄露,但截至目前,隱私泄露的成因是與AI無關(guān)的,更多是傳統(tǒng)的安全威脅。

我們使用AI出于個(gè)人或工作目的,所以害怕泄露個(gè)人隱私或工作機(jī)密。具體危害大小,分兩種情況:一種是泄露后能定位到你本人,直接“開盒”,另一種是無法溯源的泄露。

能定位本人的泄露情況最危險(xiǎn),這可能是因?yàn)槟阍谑韬龃笠獾那闆r下勾選了某些選項(xiàng),使原本私密的信息被設(shè)定為公開范圍分享。字節(jié)旗下大模型“豆包”近日的風(fēng)波便是一例。

正如視智未來此前報(bào)道提到的,起初,豆包被指使用大量AI聊天結(jié)果頁面,污染搜索引擎結(jié)果。這種行為導(dǎo)致谷歌等搜索引擎,以及依賴它們的Perplexity等AI搜索產(chǎn)品,抓取的結(jié)果頁面也是AI生成的,導(dǎo)致AI自我引用,結(jié)果質(zhì)量螺旋式下降。然而,字節(jié)此舉應(yīng)該不是刻意污染互聯(lián)網(wǎng)環(huán)境,他們可能只是沒有意識(shí)到,對AI大模型使用同一招數(shù)時(shí),事件的性質(zhì)發(fā)生了改變。

豆包此舉最大的問題在于,這些分享的頁面來自真人用戶與豆包的交互過程。用戶分享某段豆包對話時(shí),分享頁面會(huì)自動(dòng)勾選“將對話內(nèi)容分享到整個(gè)網(wǎng)絡(luò)”的選項(xiàng),同時(shí)也沒有7天/30天有效期、鏈接帶密碼等常見的選項(xiàng)。在不注意的前提下,可能會(huì)讓你沒有察覺到“我本來只想把這段共享給我的微信群而已”。

當(dāng)前,字節(jié)跳動(dòng)已取消這種SEO嘗試,并下架了據(jù)稱多達(dá)2000多萬條的AI對話頁面。

可以定位到人的信息泄露還有其它情況。由于種種原因,我們可能需要與別人“拼車”使用ChatGPT、Midjourney等服務(wù)。使用這個(gè)賬號(hào)的歷史記錄也是共享的,所以你可以看到別人的工作內(nèi)容,并且通過這些記錄與他本人對應(yīng)起來。當(dāng)一個(gè)共享賬號(hào)中長時(shí)間出現(xiàn)某家公司的具體信息,我們自然可以認(rèn)為,其中涉及的未發(fā)布產(chǎn)品或戰(zhàn)略計(jì)劃等信息很可能是真實(shí)的。

另一種泄露情況是不可定位到發(fā)布者本人的,主要是指輸入的內(nèi)容被用作訓(xùn)練大模型,并在某種情況下被吐出。但這種情形一般都伴隨著嚴(yán)重的幻覺,所以幾乎不可能100%匹配你當(dāng)時(shí)輸入的隱私內(nèi)容。

在2023年ChatGPT剛剛興起時(shí),軟銀、日立等多家大型日企出臺(tái)政策,禁止員工使用ChatGPT的公開服務(wù)。一些企業(yè)后來購買了企業(yè)版大模型服務(wù),由官方承諾對機(jī)密內(nèi)容的托管是安全的,甚至可以選擇在公司內(nèi)的服務(wù)器部署。至于最近非常火的“AI PC”,其本質(zhì)也是使用高算力芯片,將一些原本需要聯(lián)網(wǎng)的大模型運(yùn)算改為本地生成,避免數(shù)據(jù)上傳到遠(yuǎn)程服務(wù)器,而可能發(fā)生的泄漏情況。

以上兩種情況是與AI能力相關(guān)的隱私泄露風(fēng)險(xiǎn),但這些問題發(fā)生的概率很低,并且只要更改使用習(xí)慣,也很大程度上可以避免。

03 更值得關(guān)注的隱私危機(jī),不僅限于AI

與這些相比,真正值得注意的隱私泄露風(fēng)險(xiǎn),發(fā)生在其他地方。

多數(shù)大模型開發(fā)商在數(shù)據(jù)收集、存儲(chǔ)和跨境傳輸?shù)确矫娴陌踩U夏芰τ邢蕖1M管國內(nèi)的政策在大模型備案時(shí),對其安全能力有基本要求,但客觀上,小公司或初創(chuàng)團(tuán)隊(duì)的“技能樹”多點(diǎn)在了研發(fā)方面,在安全運(yùn)營方面確實(shí)可能有所欠缺。需要指出的是,這方面的隱私泄露風(fēng)險(xiǎn)是普遍存在的,并不是只有AI公司才有的。

讓我們把視線轉(zhuǎn)回到嚴(yán)肅批評蘋果和OpenAI的馬斯克身上。既然他對隱私如此看重,他自己的產(chǎn)業(yè)是否有過隱私泄露的歷史呢?答案是肯定的。

特斯拉曾不止一次發(fā)生過用戶數(shù)據(jù)泄露風(fēng)波,不過較大的幾次都是由于內(nèi)部員工泄露所致。

在國內(nèi)造車“新勢力”中,也有一些廠商曾收到職業(yè)黑客的敲詐勒索,或是公開了車主的信息數(shù)據(jù)庫等。這是國內(nèi)眾多個(gè)人信息在暗網(wǎng)“倒賣”的案例之一。如果類似事情發(fā)生在AI工具中,那并不稀奇,但這些事故與AI技術(shù)的關(guān)系不大。

作為普通的AIGC用戶,我們要如何盡可能地保護(hù)自己,以避免隱私泄露的意外發(fā)生?

首先,按照蘋果官方的介紹,當(dāng)你在使用iOS/macOS的AI相關(guān)服務(wù)時(shí),這些過程很難向OpenAI等第三方泄露隱私。如果你之前信任蘋果的iCloud等服務(wù),也可以繼續(xù)放心使用“果工智能”。

對于其他AI服務(wù),在使用過程中,應(yīng)盡量避免輸入個(gè)人和私密信息。即使使用Character.AI或類似的陪伴服務(wù),它們必須通過讀取你的個(gè)人隱私來變得更懂你、更貼心,你也需要保持警惕。

在拼車使用ChatGPT等賬號(hào)時(shí),如果是為公司工作,最好在輸入過程中隱藏具體公司信息,可以使用一鍵替換的方式,并且在獲得生成結(jié)果后,立即刪除這段對話??梢酝ㄟ^將真實(shí)事件以“我有一個(gè)朋友”的方式轉(zhuǎn)述,使用化名或代號(hào)替代真實(shí)公司、產(chǎn)品和地域信息,盡量避免將真實(shí)信息告訴在線大模型。

在使用諸如AI Pin、Rabbit R1或Meta-雷朋太陽鏡等AI硬件時(shí),它們希望你的輸入是多模態(tài)的,例如對著攝像頭問“這朵花是什么”。這種情況下,AI硬件可能要求24小時(shí)授權(quán)攝像頭和麥克風(fēng)的訪問。這本身存在較高的隱私泄露風(fēng)險(xiǎn),因此需要權(quán)衡安全性和便利性的利弊。

總體而言,使用AI服務(wù)就算不幸發(fā)生了隱私泄露,在目前,這也跟AI沒有特別的關(guān)系,而是任何一家互聯(lián)網(wǎng)公司都面臨的同樣的風(fēng)險(xiǎn)。了解這一點(diǎn),可能會(huì)讓你更放心地繼續(xù)使用大模型等AI產(chǎn)品。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

馬斯克跟蘋果互懟,用戶隱私的“壁壘”會(huì)被AI擊穿嗎?

AI或許真能泄露隱私,但不是你想的那樣。

圖片來源:界面新聞 匡達(dá)

文|娛樂資本論 James

北京時(shí)間周二凌晨,蘋果公司發(fā)布了關(guān)于AI的最新更新,并給其AI功能取了一個(gè)雙關(guān)的稱呼:“果工智能”(Apple Intelligence)。在這次發(fā)布會(huì)上雖然沒有太多驚艷之處,但“隱私”這個(gè)概念被反復(fù)強(qiáng)調(diào)了十幾次。

即使如此,也有一位“資深網(wǎng)友”對此不以為然,這就是埃隆·馬斯克。

01 怒噴蘋果和OpenAI,馬斯克是否反應(yīng)過度?

在蘋果發(fā)布會(huì)之后,馬斯克痛批蘋果與OpenAI之間的合作,認(rèn)為這無異于將用戶的隱私信息毫無保留地轉(zhuǎn)手給OpenAI,并配了一張梗圖,稱蘋果作為用戶隱私被出賣給OpenAI的中間商。

他甚至提到,如果蘋果對ChatGPT是系統(tǒng)級(jí)別的集成,他將不允許員工將iPhone帶入特斯拉,如果訪客帶著iPhone進(jìn)來,也需要把手機(jī)鎖在前臺(tái)的“法拉第籠”里面。

馬斯克本人(而不是高仿號(hào))發(fā)表此言論后,大部分科技媒體都持不以為然的態(tài)度,指出他對于蘋果實(shí)現(xiàn)設(shè)備AI的方式缺乏足夠的理解。

根據(jù)蘋果的官方演示,在Siri等地調(diào)動(dòng)ChatGPT的方式,是首先會(huì)詢問用戶是否引用ChatGPT,在此之后代為做一次性的簡單查詢。這其中,ChatGPT就像網(wǎng)絡(luò)搜索一樣,只不過Siri之前調(diào)用搜索引擎,會(huì)帶來一大串雜亂的搜索結(jié)果,現(xiàn)在改為直接用GPT輸出一個(gè)段落的答案,感覺更好。

如果僅限于此,網(wǎng)傳Siri在中國的AI能力會(huì)被替換成百度的文心一言,那效果其實(shí)也不會(huì)差太多,因?yàn)檫@種自然語言替代主要是集中于搜索功能。其實(shí),百度的AI搜索結(jié)果精選,效果比谷歌英文版的還好一些——后者因?yàn)槠孑饨Y(jié)果太多,不得不臨時(shí)降低了在結(jié)果頁面的展示頻率。

蘋果推出的其他AI功能,依靠手機(jī)本身的芯片運(yùn)算,或轉(zhuǎn)給蘋果自己的網(wǎng)絡(luò)端的大模型,這些運(yùn)算并不依賴ChatGPT或其它第三方大模型。蘋果還指出,臨時(shí)需要上傳的數(shù)據(jù)會(huì)經(jīng)過一個(gè)與目前iCloud等單獨(dú)分開的服務(wù)器,并隱藏相關(guān)可識(shí)別的用戶信息,甚至蘋果內(nèi)部員工也無法訪問。

我們普通消費(fèi)者也沒法證實(shí)蘋果的單方面陳述,但毋庸置疑的是,“隱私”現(xiàn)在確實(shí)是蘋果設(shè)備相對于Android等其他陣營的一個(gè)巨大賣點(diǎn)。特別是在后喬布斯時(shí)代,蘋果逐漸陷入創(chuàng)新乏力、“擠牙膏、割韭菜”的質(zhì)疑聲音中。為了普通用戶難以感知的升級(jí),每年多花幾千塊錢換新設(shè)備,這種必要性確實(shí)越來越受到質(zhì)疑。所以,無論是否年年換新,一部分蘋果用戶寧愿舍棄微信雙開、通話錄音等便利,可能正是為了那份對隱私極度重視,帶來的安全和清靜的感覺。

馬斯克所說的質(zhì)疑,更多其實(shí)是針對OpenAI一方表達(dá)不滿。馬斯克退出OpenAI管理層,之后又對其提起訴訟,其核心訴求在于讓OpenAI回到創(chuàng)業(yè)之初的非營利承諾,而不是只顧著賺錢。這一點(diǎn)比較抽象,但對馬斯克來說則是很重要的問題。與他持有類似觀念的還有OpenAI的“超級(jí)對齊”團(tuán)隊(duì),他們希望充分監(jiān)管人工智能的發(fā)展,確保它不會(huì)失控。但該團(tuán)隊(duì)在去年底的一次“宮斗”中失敗而解散。

這些爭論對于普通人是很難理解的。大家更關(guān)心的是,馬斯克的質(zhì)疑是不是真實(shí)的?即使不是蘋果,其它AI大模型是否也很容易泄露用戶隱私?這一點(diǎn)迫切需要一個(gè)明確的答案。

02 使用AI大模型,會(huì)被“開盒”嗎?

簡單的回答就是,AI產(chǎn)品有可能發(fā)生隱私泄露,但截至目前,隱私泄露的成因是與AI無關(guān)的,更多是傳統(tǒng)的安全威脅。

我們使用AI出于個(gè)人或工作目的,所以害怕泄露個(gè)人隱私或工作機(jī)密。具體危害大小,分兩種情況:一種是泄露后能定位到你本人,直接“開盒”,另一種是無法溯源的泄露。

能定位本人的泄露情況最危險(xiǎn),這可能是因?yàn)槟阍谑韬龃笠獾那闆r下勾選了某些選項(xiàng),使原本私密的信息被設(shè)定為公開范圍分享。字節(jié)旗下大模型“豆包”近日的風(fēng)波便是一例。

正如視智未來此前報(bào)道提到的,起初,豆包被指使用大量AI聊天結(jié)果頁面,污染搜索引擎結(jié)果。這種行為導(dǎo)致谷歌等搜索引擎,以及依賴它們的Perplexity等AI搜索產(chǎn)品,抓取的結(jié)果頁面也是AI生成的,導(dǎo)致AI自我引用,結(jié)果質(zhì)量螺旋式下降。然而,字節(jié)此舉應(yīng)該不是刻意污染互聯(lián)網(wǎng)環(huán)境,他們可能只是沒有意識(shí)到,對AI大模型使用同一招數(shù)時(shí),事件的性質(zhì)發(fā)生了改變。

豆包此舉最大的問題在于,這些分享的頁面來自真人用戶與豆包的交互過程。用戶分享某段豆包對話時(shí),分享頁面會(huì)自動(dòng)勾選“將對話內(nèi)容分享到整個(gè)網(wǎng)絡(luò)”的選項(xiàng),同時(shí)也沒有7天/30天有效期、鏈接帶密碼等常見的選項(xiàng)。在不注意的前提下,可能會(huì)讓你沒有察覺到“我本來只想把這段共享給我的微信群而已”。

當(dāng)前,字節(jié)跳動(dòng)已取消這種SEO嘗試,并下架了據(jù)稱多達(dá)2000多萬條的AI對話頁面。

可以定位到人的信息泄露還有其它情況。由于種種原因,我們可能需要與別人“拼車”使用ChatGPT、Midjourney等服務(wù)。使用這個(gè)賬號(hào)的歷史記錄也是共享的,所以你可以看到別人的工作內(nèi)容,并且通過這些記錄與他本人對應(yīng)起來。當(dāng)一個(gè)共享賬號(hào)中長時(shí)間出現(xiàn)某家公司的具體信息,我們自然可以認(rèn)為,其中涉及的未發(fā)布產(chǎn)品或戰(zhàn)略計(jì)劃等信息很可能是真實(shí)的。

另一種泄露情況是不可定位到發(fā)布者本人的,主要是指輸入的內(nèi)容被用作訓(xùn)練大模型,并在某種情況下被吐出。但這種情形一般都伴隨著嚴(yán)重的幻覺,所以幾乎不可能100%匹配你當(dāng)時(shí)輸入的隱私內(nèi)容。

在2023年ChatGPT剛剛興起時(shí),軟銀、日立等多家大型日企出臺(tái)政策,禁止員工使用ChatGPT的公開服務(wù)。一些企業(yè)后來購買了企業(yè)版大模型服務(wù),由官方承諾對機(jī)密內(nèi)容的托管是安全的,甚至可以選擇在公司內(nèi)的服務(wù)器部署。至于最近非常火的“AI PC”,其本質(zhì)也是使用高算力芯片,將一些原本需要聯(lián)網(wǎng)的大模型運(yùn)算改為本地生成,避免數(shù)據(jù)上傳到遠(yuǎn)程服務(wù)器,而可能發(fā)生的泄漏情況。

以上兩種情況是與AI能力相關(guān)的隱私泄露風(fēng)險(xiǎn),但這些問題發(fā)生的概率很低,并且只要更改使用習(xí)慣,也很大程度上可以避免。

03 更值得關(guān)注的隱私危機(jī),不僅限于AI

與這些相比,真正值得注意的隱私泄露風(fēng)險(xiǎn),發(fā)生在其他地方。

多數(shù)大模型開發(fā)商在數(shù)據(jù)收集、存儲(chǔ)和跨境傳輸?shù)确矫娴陌踩U夏芰τ邢?。盡管國內(nèi)的政策在大模型備案時(shí),對其安全能力有基本要求,但客觀上,小公司或初創(chuàng)團(tuán)隊(duì)的“技能樹”多點(diǎn)在了研發(fā)方面,在安全運(yùn)營方面確實(shí)可能有所欠缺。需要指出的是,這方面的隱私泄露風(fēng)險(xiǎn)是普遍存在的,并不是只有AI公司才有的。

讓我們把視線轉(zhuǎn)回到嚴(yán)肅批評蘋果和OpenAI的馬斯克身上。既然他對隱私如此看重,他自己的產(chǎn)業(yè)是否有過隱私泄露的歷史呢?答案是肯定的。

特斯拉曾不止一次發(fā)生過用戶數(shù)據(jù)泄露風(fēng)波,不過較大的幾次都是由于內(nèi)部員工泄露所致。

在國內(nèi)造車“新勢力”中,也有一些廠商曾收到職業(yè)黑客的敲詐勒索,或是公開了車主的信息數(shù)據(jù)庫等。這是國內(nèi)眾多個(gè)人信息在暗網(wǎng)“倒賣”的案例之一。如果類似事情發(fā)生在AI工具中,那并不稀奇,但這些事故與AI技術(shù)的關(guān)系不大。

作為普通的AIGC用戶,我們要如何盡可能地保護(hù)自己,以避免隱私泄露的意外發(fā)生?

首先,按照蘋果官方的介紹,當(dāng)你在使用iOS/macOS的AI相關(guān)服務(wù)時(shí),這些過程很難向OpenAI等第三方泄露隱私。如果你之前信任蘋果的iCloud等服務(wù),也可以繼續(xù)放心使用“果工智能”。

對于其他AI服務(wù),在使用過程中,應(yīng)盡量避免輸入個(gè)人和私密信息。即使使用Character.AI或類似的陪伴服務(wù),它們必須通過讀取你的個(gè)人隱私來變得更懂你、更貼心,你也需要保持警惕。

在拼車使用ChatGPT等賬號(hào)時(shí),如果是為公司工作,最好在輸入過程中隱藏具體公司信息,可以使用一鍵替換的方式,并且在獲得生成結(jié)果后,立即刪除這段對話??梢酝ㄟ^將真實(shí)事件以“我有一個(gè)朋友”的方式轉(zhuǎn)述,使用化名或代號(hào)替代真實(shí)公司、產(chǎn)品和地域信息,盡量避免將真實(shí)信息告訴在線大模型。

在使用諸如AI Pin、Rabbit R1或Meta-雷朋太陽鏡等AI硬件時(shí),它們希望你的輸入是多模態(tài)的,例如對著攝像頭問“這朵花是什么”。這種情況下,AI硬件可能要求24小時(shí)授權(quán)攝像頭和麥克風(fēng)的訪問。這本身存在較高的隱私泄露風(fēng)險(xiǎn),因此需要權(quán)衡安全性和便利性的利弊。

總體而言,使用AI服務(wù)就算不幸發(fā)生了隱私泄露,在目前,這也跟AI沒有特別的關(guān)系,而是任何一家互聯(lián)網(wǎng)公司都面臨的同樣的風(fēng)險(xiǎn)。了解這一點(diǎn),可能會(huì)讓你更放心地繼續(xù)使用大模型等AI產(chǎn)品。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。