文|第一新聲 秋平
編輯|也行
近日,第一新聲聯(lián)合天眼查正式發(fā)布了《2023年中國AIGC創(chuàng)新企業(yè)系列榜》,從基礎(chǔ)層、模型層、應(yīng)用層三個維度展示了生成式AI的產(chǎn)業(yè)鏈布局。其中模型層主要包括通用大模型和垂直大模型(場景/領(lǐng)域/行業(yè)大模型)。
目前基礎(chǔ)層只有頭部"氪金玩家"才有資格入局,不在激烈內(nèi)卷之列。應(yīng)用層是長在大模型上的“高嶺之花”。而大模型作為生成式AI的基礎(chǔ)模型,為其提供強大的語言處理能力和廣泛的適用性。根據(jù)公開資料顯示,截至今年10月份,國內(nèi)已經(jīng)發(fā)布了238個大模型?!鞍倌4髴?zhàn)”正廝殺得異常火熱!
第一新聲從榜單評選與調(diào)研的過程中發(fā)現(xiàn),國內(nèi)大模型之戰(zhàn)正逐漸步入后半場。頭部科技企業(yè)的發(fā)力點開始從通用大模型,轉(zhuǎn)向行業(yè)/領(lǐng)域等垂直大模型,開始「向下」扎根。
例如阿里云在10月31日不僅發(fā)布了通義千問大模型最新的2.0版本,還推出了八大行業(yè)大模型;9月21日,華為云發(fā)布了盤古醫(yī)學大模型;9月19日,百度正式發(fā)布國內(nèi)首個“產(chǎn)業(yè)級”醫(yī)療AI大模型——靈醫(yī)大模型??梢哉f繼“AI For Science”之后,大模型已然開始步入“AI For Industries”階段。
為了深入研究通用大模型和垂直大模型的發(fā)展方向和應(yīng)用效果,第一新聲特別采訪了3家企業(yè),以各家企業(yè)的實踐為出發(fā)點,全面介紹了通用VS垂直大模型的演進方向。
01 國內(nèi)大模型超200+,聚焦3大基礎(chǔ)應(yīng)用場景
從年初ChatGPT橫空出世至今,引爆了國內(nèi)外大模型的熱情,各路資金蜂擁而至。
據(jù)相關(guān)媒體報道,目前全球最大的大模型開源社區(qū)Hugging Face上的預訓練模型數(shù)量,已經(jīng)從此前積累的10萬個增長到了超過30萬個。不知Open AI當初發(fā)布ChatGPT的時候,是否預想到會有如今的盛況。
回歸國內(nèi)市場來看,據(jù)公開資料不完全統(tǒng)計顯示,截至2023年11月底,國內(nèi)已經(jīng)有200+大模型推出,并且在各行各業(yè)“落子不斷”。從統(tǒng)計數(shù)據(jù)來看,除了通用大模型外,在金融行業(yè)的落地速度最快,有近15%的大模型都是金融垂直大模型。
在大模型廠商類型方面,國內(nèi)互聯(lián)網(wǎng)科技公司紛紛入局,包括百度、阿里、騰訊、華為等大廠,科大訊飛、商湯科技、曠視科技等垂直于AI領(lǐng)域的廠商,以及智譜華章、百川智能、達觀數(shù)據(jù)、等大模型初創(chuàng)企業(yè),還有金融、汽車、教育、智能家居、消費電子等垂直行業(yè)企業(yè)也基于垂直領(lǐng)域人工智能技術(shù)和數(shù)據(jù)積累等能力,推出大模型。
值得注意的是,今年上半年,大家關(guān)注點主要集中在大模型的參數(shù)數(shù)量和效果優(yōu)化上。從下半年開始,將關(guān)注重點轉(zhuǎn)向如何實際進行應(yīng)用,以及企業(yè)怎樣利用其能力帶來革命性提效。第一新聲采訪到的三家企業(yè),經(jīng)過半年實踐,也逐漸摸索出各具特色的大模型發(fā)展道路。
例如沃豐科技于今年4月推出的“原心大模型”,其解決方案吸收了通用大模型能力,并在營銷+服務(wù)領(lǐng)域的8年經(jīng)驗基礎(chǔ)上進行行業(yè)知識訓練,將通用大模型轉(zhuǎn)變?yōu)樾袠I(yè)專家,并能依托企業(yè)信息搭建專屬知識庫。目前沃豐科技已成功將該大模型應(yīng)用于旗下Udesk、GaussMind、ServiceGo、微豐四大產(chǎn)品線。
沃豐科技AI算法專家趙超表示:“大模型對算力和數(shù)據(jù)有巨大需求,而沃豐科技自成立以來就積累了大量線上文字、文本和語音數(shù)據(jù)?;诂F(xiàn)有數(shù)據(jù),公司計劃針對行業(yè)或特定場景進行模型迭代。為此,團隊采用行業(yè)開源模型,并利用自己在客服行業(yè)積累的數(shù)據(jù),進行模型的優(yōu)化和創(chuàng)新,以更好地滿足行業(yè)需求,并提高在特定場景中的應(yīng)用效果。”
在大模型全量參數(shù)的迭代中,會遇到一些技巧和語言問題,為此沃豐科技采取了兩種訓練策略。一是固定一部分參數(shù),只對其余參數(shù)進行迭代。二是在通用大模型基礎(chǔ)上,進行小模型迭代。
云從科技在5月份正式推出“從容大模型”,最大的特色就是云從科技具有多模態(tài)系列大模型,并具有對行業(yè)大模型的調(diào)整能力,可以根據(jù)行業(yè)場景需求去幫助客戶部署模型,實現(xiàn)性價比最優(yōu)。7月份云從科技攜手華為正式聯(lián)合發(fā)布了“從容大模型訓推一體化解決方案”。該方案基于云從從容大模型算法及工具,使得用戶可以輕松地訓練、構(gòu)建和管理自己的大模型。
對于國內(nèi)市場的繁榮現(xiàn)象及公司在大模型方面的規(guī)劃,云從科技副總裁張立向第一新聲表示:“實際上,公司兩年前就已經(jīng)在大模型領(lǐng)域進行技術(shù)儲備。由于此前芯片和算力沒有達到高水準,導致大模型無法充分發(fā)揮其效能和效率。去年以英偉達為主導的 GPU 芯片性能有了顯著提升,尤其是并行計算能力,這使得大模型的訓練更具產(chǎn)業(yè)化,得以成為可能,這才推動了今年大模型產(chǎn)業(yè)和市場的蓬勃發(fā)展?!?/p>
達觀數(shù)據(jù)推出的“曹植”大模型是國內(nèi)首批垂直行業(yè)專用、自主可控的國產(chǎn)版GPT大語言模型,具備長文本、垂直化和多語言特性,擅長長文檔寫作、審核、翻譯等。
“一直以來,達觀數(shù)據(jù)都專注于ToB領(lǐng)域,在金融和制造等行業(yè)積累了深厚的專業(yè)經(jīng)驗。我們采取的落地路線是將大模型引入原有產(chǎn)品中,為客戶提供更有價值的服務(wù)。例如,達觀的智能文本處理平臺IDPS以往主要偏向文本抽取,需要標注、訓練、調(diào)優(yōu)等復雜步驟才能實現(xiàn)效果。而現(xiàn)在通過大模型能夠?qū)崿F(xiàn)無標注的自動抽取,顯著降低了交付成本。讓企業(yè)真正實現(xiàn)了降本增效?!边_觀數(shù)據(jù)CTO紀達麒說道。
第一新聲通過與三家受訪企業(yè)交流及此前調(diào)研發(fā)現(xiàn),目前企業(yè)對大模型常見的基礎(chǔ)應(yīng)用場景有以下三個:第一個,企業(yè)想要利用大模型直接生成文章、圖片、設(shè)計等,那么用GPT或者其他開源大模型稍微Fine-tune(微調(diào))一下就可以直接使用,后續(xù)的工作也主要是進行前端頁面設(shè)計,不需要進行過多的模型迭代。
第二個,企業(yè)希望大模型在提供服務(wù)時體現(xiàn)出企業(yè)屬性,比如回答與企業(yè)相關(guān)的問題。這種情況下也很難為每個企業(yè)快速迭代出一個專屬模型,再加上企業(yè)的情況隨時都在變化,對應(yīng)模型也需要不斷調(diào)整。因此,將企業(yè)知識庫和大模型進行結(jié)合是一種可行的方案。
當然也有企業(yè)會對自己的知識庫有保密需求,不愿意將其提供給外部模型。在這種情況下,也可以基于自己訓練的模型進行部署。部署方式通常有兩種:一種是在企業(yè)自有模型的基礎(chǔ)上,使用企業(yè)知識庫進行迭代,另一種是先通過RAG(RAG:Retrieval-Augmented Generation檢索增強生成)加強大模型理解能力,再結(jié)合知識庫。RAG最直接的優(yōu)勢就是能夠讓大模型利用自身的邏輯推導能力,去理解企業(yè)私有數(shù)據(jù),實現(xiàn)問答能力的拓展。
第三個,數(shù)據(jù)分析亦是一些企業(yè)常見場景。傳統(tǒng)的報表配置方式復雜,而且當報表眾多時,尋找特定報表很費時。通過大模型的自然交互方式,用戶可以直接提問,實現(xiàn)智能化的數(shù)據(jù)查詢。這種交互式的數(shù)據(jù)分析方式直觀高效,用戶可以快速獲得所需信息,大大提升了使用體驗。
02 通用VS垂直:各有千秋、互補關(guān)系
通用大模型和垂直大模型各有其獨特的能力,它們之間是一種互補關(guān)系。
因為通用大模型具有強大的語言理解能力,能夠拓寬應(yīng)用范圍的廣度,而垂直大模型則瞄準特定行業(yè)或需求,在精度和深度上更能滿足實際要求。這兩者不是對立面,而是相互支持、協(xié)同發(fā)展的關(guān)系。未來,兩類大模型將會共生,成為賦能千行百業(yè)的關(guān)鍵。
對于這個觀點,紀達麒也表示同意,“通用大模型和垂直大模型針對或解決問題的目標不盡相同,通用大模型需要具備更強的泛化性,而垂直大模型則必須要在垂直行業(yè)內(nèi)的應(yīng)用中保持高準確度?!?/p>
提及通用大模型和垂直大模型的落地空間,他認為有一個核心不同是在客戶需求方面,不同層次和規(guī)模的客戶對大模型的要求有所差異。例如在ToC端或中小型B端企業(yè)中,客戶對模型的效果要求較低,但更看重成本的控制。因此,他們可能會選擇使用通用大模型來解決部分問題,以期用較低的成本實現(xiàn)水準以上的效果。
然而,對于一些大型B端客戶來說,提升效果能力很大程度能對他們的業(yè)務(wù)帶來重大影響和價值,因此他們愿意投入更多的成本。這些客戶可能會選擇訓練垂直大模型,或者利用像達觀數(shù)據(jù)這樣的專業(yè)垂直大模型服務(wù),以獲得更優(yōu)秀的效果。在這種情況下,客戶的關(guān)注點不僅在于成本,更在于如何實現(xiàn)最佳業(yè)務(wù)效果。
因此,在大模型的應(yīng)用中,靈活選擇適合特定業(yè)務(wù)場景的模型策略是非常重要的。
趙超也表示,通用大模型迭代成本較高,需要大量的算力支持。相反,垂直大模型的決策成本較低,所需的算力較小。但垂直大模型根源始終在通用大模型,通常都是基于通用大模型采用SFT監(jiān)督微調(diào)(Supervised Fine-Tun-ing)等方式訓練而來。并且,如果通用模型的基礎(chǔ)能力較強,那么垂直模型的調(diào)優(yōu)成本也就相對較低。
在驗證算法和策略時,由于垂直大模型可以在較短的時間內(nèi)進行迭代,驗證效果,因此企業(yè)通常會優(yōu)先在垂直模型上進行驗證和調(diào)優(yōu)驗證完成后,再將經(jīng)驗應(yīng)用到通用模型上,從而提升通用模型的能力。待通用模型得到有效提升后,再對行業(yè)模型進行迭代。是一個螺旋式的循環(huán)過程,促進垂直模型和通用模型相互借鑒、相互補充,而不是往單一排斥方向的發(fā)展。
張立表示,從行業(yè)應(yīng)用角度來說,通用大模型不是一個產(chǎn)品,而是一種能力。企業(yè)想要購買這種能力,通常要滿足三個條件?!暗谝唬谐渥愕馁Y金儲備。第二,要有所在行業(yè)構(gòu)建專屬模型的數(shù)據(jù)和Know- how積累。第三,要有相應(yīng)的技術(shù)能力。了解大模型技術(shù)的底層原理,以及如何訓練出符合自身需求的模型這種能力的靈活性使得客戶可以更好地利用大模型技術(shù),滿足其特定領(lǐng)域的需求?!?/p>
另外,張立也強調(diào),大模型的落地應(yīng)用不可能是兩頭擔子一頭熱,取決于兩端。一方面供應(yīng)側(cè)要具備垂直行業(yè)落地大模型的積累和能力;另一方面,需求方要想清楚自己需要用大模型具體解決哪些問題,達到什么目標。
不過,在趙超看來,定制模型在垂直行業(yè)中可能具有更高的價值,主要表現(xiàn)在兩個方面:一是垂直行業(yè)模型可以更好地滿足企業(yè)特定需求,為企業(yè)創(chuàng)造更多的商業(yè)機會。二是使用不同大模型會帶來顯著的成本差異。因此,企業(yè)可以選擇在大模型上進行優(yōu)化訓練,將數(shù)十億參數(shù)的大模型壓縮到幾億參數(shù)規(guī)模的垂直模型。
“一種可行的解決方案是,利用大模型進行數(shù)據(jù)標注,然后用較小規(guī)模的模型進行訓練。這樣既可以為企業(yè)提供垂直模型的優(yōu)良效果,又可以降低硬件資源的使用門檻,從而在一定程度上減輕企業(yè)的成本負擔。通過精細調(diào)整模型參數(shù)規(guī)模,既可以滿足特定行業(yè)的需求,又可以在資源利用上實現(xiàn)更高的經(jīng)濟效率。這種策略有助于為企業(yè)提供更靈活、可持續(xù)的模型應(yīng)用方案?!壁w超說道。
未來像聯(lián)合利華、麥當勞、可口可樂等巨頭企業(yè)大概率都會訓練出專屬大模型。趙超認為,雖然從外部看來這是企業(yè)私有大模型,但其實一種訓練方法是利用企業(yè)自有大量數(shù)據(jù)訓練出一個完整模型。另一種方法是采用向量數(shù)據(jù)庫(vector database)策略,將內(nèi)部數(shù)據(jù)轉(zhuǎn)換為向量,再對向量進行處理,得到一個較小的模型,與大模型結(jié)合使用。這種方法可以達到單獨訓練模型的效果,而且成本也較低。“從客戶使用側(cè)來說,輸出的模型的帶有企業(yè)特征和特色,但從技術(shù)角度,本質(zhì)就是大模型加小模型的疊加使用?!?/p>
他還認為,未來這種“大模型+小模型”的方式在實際應(yīng)用過程中,可能會很大程度上成為主流落地方式。因為對基礎(chǔ)模型進行頻繁迭代是困難的,而且需要高算力。除非是為了技術(shù)研究,否則購買大量算力很大可能會造成資源浪費,而且收益不明顯。
03 如何突破算力、數(shù)據(jù)、算法三大門檻?
大模型的應(yīng)用離不開算力、數(shù)據(jù)和算法的支持。這意味著中小企業(yè)或算力不足的企業(yè),要想應(yīng)用大模型門檻會很高。
一是在算力方面,企業(yè)可以嘗試在不增加硬件成本的情況下,增加迭代次數(shù),提高模型的收斂速度。同時,也可以通過將浮點數(shù)轉(zhuǎn)換為定點數(shù),以及對大規(guī)模矩陣運算進行預處理,來降低計算復雜度。這些方法都可以有效地節(jié)省算力資源,提高模型的訓練效率和整體性能。事實上,學術(shù)界已經(jīng)在矩陣運算方面取得了一些突破,例如目前學術(shù)界提出了一種針對超大矩陣的快速計算方法,比傳統(tǒng)的行列計算方式快了幾十倍。
對于算力方面,趙超的觀點是,一方面,算力不足的企業(yè)可以考慮用小規(guī)模算力做實驗,驗證大模型的應(yīng)用效果。這也是企業(yè)內(nèi)部和學術(shù)界要思考的優(yōu)化方向之一。 另一方面,F(xiàn)ew-shot Learning(小樣本學習)和Zero-Shot Learning(零樣本學習)是目前備受歡迎的大模型訓練技術(shù)。它們可以在數(shù)據(jù)不足的情況下展現(xiàn)出強大的學習和推理能力。數(shù)據(jù)不足的企業(yè)通過這種方法可以有效地應(yīng)用大模型,優(yōu)化性能。利用這兩種方法,可以持續(xù)優(yōu)化和創(chuàng)新性促進大模型技術(shù)的廣泛應(yīng)用。
二是在算法方面,也需要探索更適合大模型的結(jié)構(gòu)和方法。目前,大多數(shù)大模型都是基于谷歌提出的Transformer模型構(gòu)建的。然而,Transformer模型并不一定就是最優(yōu)的選擇。例如,一些研究者在Transformer模型的基礎(chǔ)上引入了ResNet(深度殘差網(wǎng)絡(luò))等其他結(jié)構(gòu),并在圖像領(lǐng)域取得了不錯的效果。因此,對于算法的創(chuàng)新和優(yōu)化仍然是一個有前景的方向。
三是在數(shù)據(jù)方面,需要考慮如何提高數(shù)據(jù)的質(zhì)量和適用性。隨著互聯(lián)網(wǎng)數(shù)據(jù)的爆炸式增長,數(shù)據(jù)的類型和形式也變得更加多樣和復雜。對于非結(jié)構(gòu)化數(shù)據(jù),需要預先對其進行結(jié)構(gòu)化處理,以便于模型的學習和理解。同時,還要對數(shù)據(jù)進行清洗和篩選,去除其中的噪聲和無用信息。
以上這些路徑都可以有效地提高數(shù)據(jù)的有效性和可靠性,從而提高模型的泛化能力和適應(yīng)能力。
針對大模型的未來發(fā)展,張立的觀點是,大模型技術(shù)的發(fā)展會從研發(fā)驅(qū)動轉(zhuǎn)向生態(tài)驅(qū)動,這是一個必然的趨勢。客戶對于大模型的需求會越來越復雜,大模型廠商無法直接解決客戶所有問題,也不可能對所有行業(yè)的know- how都有全面和深刻的掌握。因此大模型的落地應(yīng)用需要借助各個行業(yè)內(nèi)的專業(yè)信息化服務(wù)公司協(xié)同支持。
“這種合作模式能夠更有效地應(yīng)對不同領(lǐng)域的專業(yè)需求,讓大模型的應(yīng)用更快速和深入地滲透到各個產(chǎn)業(yè)鏈中。而且通過與信息化公司的密切合作,大模型廠商還能夠構(gòu)建起生態(tài)系統(tǒng),讓大模型的發(fā)展更加全面和可持續(xù)?!睆埩⒄f道。
04 大模型落地兩大難題
盡管大模型的發(fā)展目前非?;钴S和熱鬧,但在實際落地方面仍然存在兩大難點。
難點一:如何找到合適的應(yīng)用場景?
紀達麒表示,要想讓大模型技術(shù)真正落地,不僅要依靠大模型本身,還要考慮中間實施過程和到達最后一公里的路徑,即設(shè)計出合適的產(chǎn)品形態(tài),選擇最優(yōu)的性價比,控制好機器資源成本,最終找到最佳的落地效果。因此,需要有既懂大模型又了解行業(yè)的專業(yè)人士,來共同解決這個問題。
在ToB行業(yè)化中,一個主要問題是監(jiān)管難度的提高。在ToC端,也要面對備案等法規(guī)要求。傳統(tǒng)互聯(lián)網(wǎng)時代,能夠以相對容易地方式審核文本內(nèi)容,及時發(fā)現(xiàn)和處理一些涉及意識形態(tài)等有問題的內(nèi)容。但是,大模型讓監(jiān)管難度顯著增加。因此在落地過程中,如何進行有效監(jiān)管成為一個亟待解決的問題。否則會面臨濫用、不當使用或者其他潛在的法律問題。在解決監(jiān)管問題的同時,還需要思考如何讓更多的人從大模型的應(yīng)用中受益。一言以蔽之,如何保證合理監(jiān)管和推動社會效益之間的平衡是一個全行業(yè)都需要認真思考和解決的關(guān)鍵問題。
“達觀數(shù)據(jù)的工程師團隊在客戶提供數(shù)據(jù)后,會根據(jù)具體情況進行處理,做到這一步其實還算順利。但更難的問題是,如何結(jié)合大模型,充分發(fā)揮數(shù)據(jù)的價值,賦能企業(yè)實現(xiàn)更明確的業(yè)務(wù)目標。這就需要制定清晰的業(yè)務(wù)策略,明確產(chǎn)品的功能和特性,以及確保整個過程能夠有效地滿足客戶的需求?!奔o達麒強調(diào)道。
因此,當前所有企業(yè)面臨的挑戰(zhàn)是對大模型應(yīng)用的戰(zhàn)略性思考,以及將這些思考轉(zhuǎn)化為具體的產(chǎn)品設(shè)計和實施步驟。要解決這一挑戰(zhàn),需要綜合運用數(shù)據(jù)科學、業(yè)務(wù)洞察和技術(shù)專業(yè)知識,形成一個全面而可行的解決方案。最終,通過深度戰(zhàn)略規(guī)劃和清晰的產(chǎn)品設(shè)計,更好地發(fā)揮數(shù)據(jù)和大模型的潛力,實現(xiàn)更有針對性和有效的業(yè)務(wù)成果。
如今,人們的關(guān)注點不僅僅是如何開發(fā)出優(yōu)秀的大型模型,更多的是如何更好地應(yīng)用這些模型。這就需要考慮解決方案的層面,特別是用戶的體驗層面,而不是只局限于像OpenAI聊天能力這樣的應(yīng)用,或者只是解決類似于搜索引擎的問題。
當前和未來的趨勢也表明,人們希望在更多場景中應(yīng)用人工智能,并把它作為底層平臺。這就需要企業(yè)進行從 0 到 1 的創(chuàng)新,不斷找到一些適合落地并能夠大規(guī)模推廣的場景,從而有更多的落地靈感和方法論,增強大家對這一領(lǐng)域的信心。我相信明年大模型的落地一定會非常多。
難點二:戰(zhàn)略規(guī)劃和軟硬件設(shè)施很難完美兼容。
張立解釋造成該難點因素有五個方面:一是客戶的目標不明確,導致無法達到預期的效果。
二是很多客戶對大模型的認識不足,誤以為這是一個成熟的產(chǎn)品,買來就可以開箱即用。
三是即使前兩個問題都解決了,為客戶制定了詳細的落地計劃,分階段地推進大模型在客戶企業(yè)內(nèi)的應(yīng)用。但是,在這么長的一段時間內(nèi),誰也無法保證,客戶的戰(zhàn)略目標是否會發(fā)生變化?這就涉及到客戶在大模型上的戰(zhàn)略布局的穩(wěn)定性和持續(xù)性。
四是大模型的落地必須是一個雙向的過程??蛻羰侵鹘牵夹g(shù)公司是“教練”定位,負責陪伴和指導客戶前進。但由于使用大模型對企業(yè)技術(shù)能力要求比較高,而很多客戶技術(shù)部門的信息化能力都很傳統(tǒng),最終導致客戶完全依賴技術(shù)公司,讓技術(shù)公司從“教練”變成了主角,發(fā)生關(guān)系錯位。這是嚴重有問題的,因為技術(shù)公司的目標是賦能多個產(chǎn)業(yè),不能只專注于某一個客戶。
五是大模型在垂類市場的應(yīng)用,不僅僅考慮模型能力,還要考慮硬件配置但不可能讓客戶把原來的硬件都徹底換掉,顛覆其原有的系統(tǒng),更重要的是考慮和原有系統(tǒng)的整合。這需要有工程化和集成的能力,幫助客戶大模型技術(shù)和已有資源合理整合起來。這就涉及到原來的系統(tǒng)、軟件、數(shù)據(jù)庫和硬件等的兼容性問題。?
面對上述的難題,紀達麒的觀點是人們要達成兩點共識。首先,未來可能只有少數(shù)幾家廠商具備高質(zhì)量的提供底層通用大模型的能力,而垂直大模型和其產(chǎn)業(yè)化應(yīng)用將迎來非常多的機會和競爭。未來企業(yè)內(nèi)部,可能會同時將多個大模型結(jié)合起來,一起來去解決企業(yè)內(nèi)部的各種問題。其次,企業(yè)的目標是利用 AI 來解決問題,而不是單純地和 AI 結(jié)合。因此,企業(yè)需要思考如何讓人和機器更好地協(xié)作,且以解決問題為出發(fā)點。不是為了用大模型而追捧大模型。
張立也持同樣立場,她認為在利用大模型解決根本性問題時,需著眼于技術(shù)和產(chǎn)業(yè)化的有效結(jié)合。大模型廠商關(guān)注的焦點也應(yīng)當是構(gòu)建基于模型的應(yīng)用或產(chǎn)品,以滿足客戶的實際需求,而不是為了推廣大模型而用大模型。若發(fā)現(xiàn)從容大模型無法勝任任務(wù),云從科技可以轉(zhuǎn)向使用其他大模型,甚至包括開源模型。大家的目標始終是以協(xié)同之力解決客戶所面臨的實際問題。
“過去很多應(yīng)用從用戶側(cè)或許并不盡如人意,而引入大型模型則可以使其更加出色,更深刻理解用戶需求,實現(xiàn)更高程度的自動化。企業(yè)今天不是要顛覆原來所有應(yīng)用,而是在其基礎(chǔ)上增添大型模型的強大能力。通過云化降低成本或提高訓練效率,并迅速將這一技術(shù)產(chǎn)業(yè)化,使更多客戶以更為合理的成本享受大型模型的優(yōu)勢。”張立補充道,
在AI落地的過程中,大型模型應(yīng)該是人類的伙伴,而非替代者。
校對/Tina
策劃/Eason