文|腦極體
九月初的時候,AI繪畫作品《太空歌劇院》在美國獲得了人類藝術(shù)競賽一等獎的新聞讓許多人震驚不已。許多人沒有想到,畫沙雕圖的AI竟然這么快就技能進步到超越了人類。AI作畫的時間從年初以小時為單位到現(xiàn)在短到秒級別,并且繪出的圖像質(zhì)量越來越高,幾乎接近人類專業(yè)畫家的水平。我們在社交媒體中也看到越來越多的人分享他們在各種AI作畫平臺上的作品。
AI作畫的風頭正盛,用AI做視頻的應(yīng)用也悄然而至。九月底Meta小扎公布了自家Make-A-Video的AI視頻制作工具。這款工具可以生成高質(zhì)量的短視頻。Meta AI做視頻的新聞還沒有焐熱,谷歌也不甘示弱,推出了兩款AI生成視頻的工具:Imagen Video 和 Phenaki。前者傾向于打造視頻質(zhì)量,后者傾向于視頻的邏輯與時長。這幾款AI視頻制作工具各有特色。
文本生成圖像的AI技術(shù)大火才不過幾個月,就直接躍升至文本生成動態(tài)視頻。從畫圖到做視頻,AI的發(fā)展速度令人訝異,同時令人對未來的數(shù)字媒體憧憬。那么,這種跨越到底會給未來帶來什么呢?
AI做視頻是AI作圖的延伸
在討論AI生成視頻會給未來帶來哪些改變前,我們先梳理下,AI生成視頻的技術(shù)原理和應(yīng)用場景。
先從Meta家的Make-A-Video看起。在小扎公布的視頻中,我們可以看到一場AI制作的視頻秀,其中一幕是泰迪熊正在畫自畫像。僅僅通過文本描述,Make-A-Video就可以生成一段視頻。官網(wǎng)的案例中,我們會發(fā)現(xiàn)還有一些會飛的超人狗狗、喝水的馬等,這些視頻都是由AI生成的。
谷歌的Phenaki工具也類似Make-A-Video,可以通過一系列的文本提示生成有故事性的連貫視頻。如官網(wǎng)展示的騎馬太空人、游泳的小熊等。
從AI作畫到AI制作視頻,靜態(tài)的圖像創(chuàng)作又轉(zhuǎn)化為動態(tài)的視頻演繹一些簡單的情節(jié)片段,這些是如何依靠技術(shù)達成的呢?
AI繪畫的原理,簡單來說是通過神經(jīng)網(wǎng)絡(luò)模型將圖像與文本連接,基于大規(guī)模的圖文訓練集對比學習訓練,提取文本與圖像特征互相匹配,最終生成關(guān)聯(lián)程度較高的圖像。
與AI作畫相比,AI生成視頻需要多個AI模型的配合來完成視頻的制作。作畫與做視頻的第一步都需要預訓練文本-圖像模型,先由文本生成大量的圖像。而后續(xù)的步驟就出現(xiàn)較大的差別。AI生成視頻,在完成基本的圖像生成之后,還需要將這些圖片連起來,變成動態(tài)清晰有邏輯的視頻。這就需要額外增加插值模型來處理圖片變成一幀幀流暢的視頻動作,用超分辨率模型來提升圖像的像素。通過這些模型的處理,讓前后幀之間的過渡動作更加平滑,畫質(zhì)的像素質(zhì)量更高,最終生成高分辨率和幀率的視頻。
相較于AI作畫,從技術(shù)上來看,視頻可以認為是多張“圖片”有邏輯、連貫的組成。視頻幀是一張張圖像,各幀之間有畫面、邏輯等層面的關(guān)聯(lián)。因此,由文生圖與由文生視頻完全是兩種難度級別。AI生成視頻,是AI生成圖像的深度延伸。
AI生成視頻相對更難實現(xiàn)。為什么AI研究人員會向視頻領(lǐng)域的創(chuàng)作進發(fā)?AI做視頻到底有什么應(yīng)用價值呢?
AI做視頻價值幾何?
移動互聯(lián)網(wǎng)的繁榮,催生出了各類社交和流媒體平臺。這些平臺中豐富的圖文、視頻內(nèi)容,成為當代人碎片時間的精神食糧。伴隨短視頻平臺和直播行業(yè)的興起,人們對內(nèi)容的需求越來越旺盛。這也筑造了規(guī)模龐大的泛內(nèi)容產(chǎn)業(yè)。
對于內(nèi)容的創(chuàng)作,核心的是創(chuàng)意與效率。但以人為核心模式的創(chuàng)作模式在高速迭代的內(nèi)容產(chǎn)業(yè)中似乎越來越趕不上趟。應(yīng)用AI技術(shù)來輔助內(nèi)容創(chuàng)作的AIGC模式,開始滲入到泛內(nèi)容領(lǐng)域中。
從視頻的創(chuàng)作角度來說,在腳本外,尋找匹配適合的視頻素材是創(chuàng)作的核心。雖然行業(yè)內(nèi)有大量的素材庫,但尋覓素材的過程耗費時間,并且也不一定能找到符合腳本內(nèi)容的視頻素材。
面對提升效率與貼合腳本內(nèi)容的需求,AI生成視頻工具可以很好地解決這類問題。谷歌和Meta的AI視頻工具都可以基于文本描述生成視頻。
Make-A-Video目前可以實現(xiàn)文字轉(zhuǎn)視頻、圖片轉(zhuǎn)視頻、視頻生成視頻三種功能場景。谷歌Imagen Video不僅能生成高清視頻,而且能理解并生成不同藝術(shù)風格的作品。而谷歌Phenaki目前可以做到文字轉(zhuǎn)視頻,并且根據(jù)文字描述可以生成較長、情節(jié)連貫的作品。Phenaki瞄準的是長視頻的制作。
無論是短視頻領(lǐng)域,還是長視頻領(lǐng)域,面向這些行業(yè),AI生成視頻都會為視頻內(nèi)容行業(yè)的發(fā)展賦予價值。
1.提升視頻制作效率的同時降低制作成本。傳統(tǒng)的視頻制作需要腳本、收集素材、剪輯等流程,每一項工作都需要耗費大量的時間與成本。AI生成視頻可以通過文本生成視頻,或者由圖片、視頻等素材生成視頻,可以降低拍攝或搜集視頻素材的成本。AI可以對應(yīng)著腳本文本的描述,就能生成視頻,大幅提高視頻制作的效率。
2.增加豐富的創(chuàng)意。AI大模型可以遍歷學習所有的創(chuàng)意與風格。從內(nèi)容的豐富度來說,人類無法企及。通過不同風格、創(chuàng)意素材的喂養(yǎng),AI視頻生成可以創(chuàng)作出多種風格融合的作品,補充人類制作視頻的創(chuàng)意。
3.增加內(nèi)容產(chǎn)業(yè)價值。AI視頻生成對視頻內(nèi)容領(lǐng)域的革新,為行業(yè)帶來新的應(yīng)用場景與新工種。AI作畫已經(jīng)誕生出了新的職業(yè)AI畫師。類似AI作圖,AI做視頻也會誕生出新的職業(yè),AI剪輯師,應(yīng)用AI工具創(chuàng)作視頻。未來AI生成視頻將會與游戲、影視、媒體等多行業(yè)結(jié)合,與元宇宙、AR、VR等場景碰撞,創(chuàng)造出更多的場景與產(chǎn)業(yè)價值。
不過現(xiàn)下AI生成視頻的發(fā)展處于非常初級的階段,并不能完全生成出較完善的視頻。我們在谷歌和Meta中看到的視頻,仍然存在許多問題。比如視頻動作過渡不自然、理解角度詭異、視頻分辨率不高等。這些情況的出現(xiàn)原因在于AI工具模型的能力不高,對模型投喂的素材數(shù)據(jù)質(zhì)量有一定的要求。如果這些問題得不到較好的解決,也會限制未來一些場景的應(yīng)用可能,如對于像素和邏輯要求較高的商業(yè)影視劇。而短平快的小視頻根據(jù)分發(fā)渠道的不同,質(zhì)量的參差帶來的影響不同。但歸根結(jié)底,高質(zhì)量的視頻內(nèi)容商業(yè)化的可能性會更大。
未來的商業(yè)模式
AI生成視頻,未來的商業(yè)模式取決于不同的應(yīng)用場景。面對一些制作短視頻為主的小B端企業(yè),如媒體、廣告、電商等行業(yè)。谷歌、Meta等AI企業(yè)會為這些小B端企業(yè)提供AI視頻制作應(yīng)用服務(wù)。類似AI作畫的商業(yè)邏輯,可能提供按次收費、按時長付費或者是按照不同功能與需求的制作收費,助力這些行業(yè)提升內(nèi)容創(chuàng)造的效率,增加在線視頻領(lǐng)域的流量。不過這種商業(yè)模式的發(fā)展必須以規(guī)?;危@樣才能有可持續(xù)發(fā)展的可能,畢竟AI廠商的視頻工具開發(fā)與運維成本較高。
對于以流媒體平臺分發(fā)為主,制作中長視頻的影視行業(yè)來說,需求的頻次與質(zhì)量要求較高,因此AI廠商需要提供的是解決方案為主的服務(wù),甚至是定制化的服務(wù),提供專屬的創(chuàng)作模塊,比如特效、運鏡、轉(zhuǎn)場等模塊化工具。這種商業(yè)模式的價值高,但對于整個影視行業(yè)以及上下游產(chǎn)業(yè)鏈來說,是巨大的變革。產(chǎn)業(yè)需要花費較長時間地過渡與適應(yīng)。
除了影視企業(yè)以外,游戲行業(yè)與AI視頻制作也會有可能碰撞出火花。游戲行業(yè)的視頻內(nèi)容開發(fā)可以借助AI生成視頻來提高創(chuàng)意與效率,降低開發(fā)的成本。對于游戲行業(yè)的商業(yè)模式也會類似影視行業(yè)提供專門的行業(yè)解決方案。
當然,整個產(chǎn)業(yè)領(lǐng)域中,也有一些企業(yè)對視頻生成的需求并不高,但也不是完全沒有需求。比如大多數(shù)小企業(yè)都需要簡單的企業(yè)宣傳視頻,或是年度的幾場活動需要視頻內(nèi)容宣傳支持。一年可能就兩三次的需求,頻次較低。這些企業(yè)并沒有專業(yè)的視頻制作人員,可能會選擇應(yīng)用AI生成視頻工具。
如果觀察的視角從企業(yè)轉(zhuǎn)向個體的話,大部分個人消費者也可以應(yīng)用AI生成視頻來娛樂。就像AI作圖一般,AI生成的視頻也會成為新的社交媒體話題。網(wǎng)友可以通過輸入文本指令生成各種各樣的視頻,交流創(chuàng)意。我們或許會從被投喂的角色,轉(zhuǎn)化為創(chuàng)作者互相分享,交流創(chuàng)意與思想。
這些商業(yè)模式的可能性建立在視頻內(nèi)容優(yōu)良與成本合理的前提下。未來AI視頻商業(yè)化的過程中,可能依然會面臨版權(quán)和倫理的問題。無論是素材庫還是AI生成視頻的風格養(yǎng)成,都離不開人類創(chuàng)作的圖像、視頻等內(nèi)容。AI工具需要這些人類創(chuàng)作的圖像數(shù)據(jù)訓練迭代。這也意味著在版權(quán)方面依然存在歸屬爭議的灰色地帶。倫理方面,當輸入暴力、血腥、黃色等敏感信息,生成的內(nèi)容可能會陷入倫理道德的困境。這些問題會伴隨著視頻生成長期存在,需要設(shè)置更好的機制與模式去減少這類事情的發(fā)生。
與AI做視頻不同,AI作圖最終內(nèi)容可以抽象。這種圖像內(nèi)容可能藝術(shù)價值更高。但對于視頻來說,內(nèi)容必須連貫、有邏輯。這也對AI生成視頻的能力提出了要求。AI生成長視頻是否有邏輯,可以根據(jù)文本表達出故事性,仍然是個未知數(shù)。尤其是一些深度的內(nèi)容制作,AI是否能夠創(chuàng)作出這類內(nèi)容需要打個問號。而這些AI到達不了的領(lǐng)域,就是人類創(chuàng)作的價值地所在。
內(nèi)容的創(chuàng)作,藝術(shù)的創(chuàng)作最終導向的是連接,或者是連接智慧,或者是連接靈魂。人們借由藝術(shù)表達共鳴,而這些都是AI去不了的場域。未來,或許在AI的內(nèi)卷下,是人類高質(zhì)量內(nèi)容創(chuàng)作的高峰。