最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁(yè) >> 今日更新 >

AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰(shuí)還能攔住網(wǎng)友搞二創(chuàng)啊

2024-10-22 09:30:49 來(lái)源: 用戶(hù): 

相信很多大家對(duì)AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰(shuí)還能攔住網(wǎng)友搞二創(chuàng)啊還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

高端的大片特效,如今只需要最樸素的操作。

簡(jiǎn)陋實(shí)拍“AI一下”秒變驚險(xiǎn)動(dòng)作片:

上方為AI生成

下方為原視頻素材

還可以一人分飾兩角,變裝易容從未如此簡(jiǎn)單:

上方為AI生成

下方為原視頻素材

以上動(dòng)圖來(lái)自X博主“Jon Finger”利用Runway Gen-3模型最新V2V(視頻生視頻)功能整活的AI特效視頻。

9月底,該視頻發(fā)布后,迅速在A(yíng)I創(chuàng)作圈引起熱議。視頻中人物一致性、動(dòng)作表現(xiàn)相當(dāng)驚艷,不少在X平臺(tái)上有一定影響力的創(chuàng)作者,也在評(píng)論區(qū)紛紛盛贊“Incredible”。

背后工作流并不復(fù)雜。博主先是“就地取材”,實(shí)拍了一些表演鏡頭,結(jié)合部分未經(jīng)渲染的3D建模鏡頭,投喂給AI后,經(jīng)過(guò)大量抽卡,便得到了最終的視頻效果。

AI視頻創(chuàng)作中,目前最常見(jiàn)的工作流是圖生視頻和文生視頻。相較之下,大多數(shù)頭部AI視頻工具如Luma、可靈、即夢(mèng)等,都還沒(méi)有支持V2V功能。

但對(duì)于尋求進(jìn)階玩法的玩家來(lái)說(shuō),V2V在保持畫(huà)面連續(xù)性、人物運(yùn)動(dòng)符合物理運(yùn)動(dòng)規(guī)則方面有著天然的優(yōu)勢(shì)。

圖源:X博主“aulerius”

更不用說(shuō),今年在應(yīng)用層上卷生卷死的AI視頻生成產(chǎn)品,還把V2V的操作門(mén)檻打了下來(lái)、生成質(zhì)量提了上去。

據(jù)我們觀(guān)察,以抖音、TikTok為代表的短視頻平臺(tái)上,已經(jīng)涌進(jìn)大量V2V制作的熱門(mén)UGC內(nèi)容,其中還有不少博主借此快速漲粉起號(hào)。

目前市面上有哪些好用的V2V工具?創(chuàng)作者都在用V2V做些什么?相較圖生視頻和文生視頻,V2V的應(yīng)用前景如何?我們進(jìn)行了一番探究。

把一支視頻交給AI,可以有哪些玩法?

為了方便理解,先看看整體制作流程。簡(jiǎn)單來(lái)說(shuō),利用V2V功能制作一支AI特效視頻主要分為兩個(gè)步驟:

第一步,準(zhǔn)備好原始素材。無(wú)論是實(shí)拍還是3D建模,只要畫(huà)面構(gòu)圖、人物動(dòng)作符合創(chuàng)作需求即可。實(shí)拍可以是任何場(chǎng)景,而3D建模則可以是任何想象中的物體或環(huán)境。這些素材不需要完美,因?yàn)锳I可以進(jìn)行進(jìn)一步加工。

第二步,投喂素材給AI,進(jìn)行風(fēng)格化處理。如果說(shuō)第一步相當(dāng)于繪畫(huà)中的線(xiàn)稿,那這一步就是上色和細(xì)節(jié)修飾的過(guò)程。不過(guò),由于各家AI視頻工具的定位和面向的用戶(hù)群體有所差異,在這一步中,你用不同的工具,能創(chuàng)作出來(lái)的視頻是不一樣的。

所以,依據(jù)功能和玩法差異,我們把支持V2V的AI視頻生成工具分成了以下三類(lèi):

1.視頻轉(zhuǎn)繪工具:可以通過(guò)文字提示詞指揮AI做后期特效,包括改變視頻氛圍、色調(diào)和風(fēng)格,甚至更改人物形象。代表工具有Runway、Domo和Kaiber。

https://runwayml.com/

https://www.domoai.app/zh-Hant/create/video

https://kaiber.ai/

2.模版化的視頻轉(zhuǎn)繪工具:這類(lèi)工具定位更接近“視頻風(fēng)格轉(zhuǎn)繪”,通常由官方提供預(yù)設(shè)模版,適合需要快速制作特定視頻風(fēng)格的玩家。代表工具有GoEnhance AI、Wink AI。

https://app.goenhance.ai/vid2vid

https://wink.meitu.com/

3.局部視頻編輯工具:支持輸入文字提示詞進(jìn)行局部編輯,適合需要精細(xì)調(diào)整視頻的玩家。代表工具有Pika1.0、以及尚未面向公眾開(kāi)放的Sora和Meta最近發(fā)布的AI視頻模型Movie Gen。

Pika1.0演示Demo

這三類(lèi)工具都基于V2V的使用方法,即你輸入一個(gè)視頻,可以通過(guò)文字提示詞或預(yù)設(shè)模版,來(lái)改變視頻的風(fēng)格或添加創(chuàng)意特效。

不同之處在于,模版化的視頻轉(zhuǎn)繪工具如GoEnhance AI,不支持文字提示詞輸入,所以你沒(méi)有辦法“用嘴”指揮AI修改畫(huà)面主體的細(xì)節(jié)。

例如,讓人物戴個(gè)帽子、或者更改人物樣貌,如果官方?jīng)]有提供特定的模版,都難以通過(guò)這類(lèi)工具實(shí)現(xiàn)。

早前在TikTok、抖音上流行的真人轉(zhuǎn)繪漫畫(huà)風(fēng)格玩法,就是基于模版化的視頻轉(zhuǎn)繪工具。在一定程度上,模版優(yōu)化了產(chǎn)品使用體驗(yàn),方便UGC內(nèi)容制作,但同時(shí)也限制了創(chuàng)意的發(fā)揮。

而局部視頻編輯,雖然在交互上更自然、更可控——可以通過(guò)框選局部畫(huà)面進(jìn)行精細(xì)修改,也支持文字提示詞輸入。但目前市面上提供該功能的產(chǎn)品很少。

據(jù)我們不完全統(tǒng)計(jì),面向公眾開(kāi)放的產(chǎn)品中,僅有Pika(目前已更新至Pika1.5)的上一代模型Pika1.0支持局部視頻編輯,且需要訂閱會(huì)員才能使用。

相比之下,以Runway為代表的視頻轉(zhuǎn)繪工具可玩性就很高了。

以Runway為例,其V2V功能是由最新模型Gen-3支持的,不僅在生成視頻質(zhì)量上有顯著提升,還能一次性上傳并轉(zhuǎn)換時(shí)長(zhǎng)達(dá)10秒的視頻。

對(duì)于第一次使用的新手,官方還提供了提示詞示例參考如3D卡通、黏土風(fēng)等流行風(fēng)格,點(diǎn)擊你想要的風(fēng)格,修改彩色字體部分(畫(huà)面主體描述)即可。

在這里,我們嘗試了多種提示詞。例如,讓跳舞的兩個(gè)人帶上墨鏡、或者讓他們的手變成熱狗腸,都成功生成了。

由于生成質(zhì)量的提升,近期各大社交媒體上也涌現(xiàn)出了不少基于Runway V2V的有趣玩法,其中一些玩法還獲得了不錯(cuò)的流量。

一個(gè)在網(wǎng)上傳播頗廣的例子是,國(guó)民電子榨菜《甄嬛傳》的二創(chuàng)?!百惒┯皹I(yè)”是抖音上的一位博主,自9月20日起其在抖音上陸續(xù)更新了一系列《甄嬛傳》的二創(chuàng)視頻,定位是“印度甄嬛”。

這些視頻大多圍繞劇中的名場(chǎng)面或經(jīng)典情節(jié)整活,其中有一條視頻獲得36.8萬(wàn)轉(zhuǎn)發(fā)。

從效果呈現(xiàn)來(lái)看,這些二創(chuàng)視頻并沒(méi)有對(duì)原片進(jìn)行較大改動(dòng),僅僅是利用V2V將畫(huà)面風(fēng)格和人物裝扮轉(zhuǎn)換成了具有印度特色的元素。

背后制作流程類(lèi)似X博主“@CharaspowerAI”在9月24日發(fā)布的對(duì)比視頻所示,一段視頻素材+一句提示詞,就輕松完成了人物和場(chǎng)景的“套皮”。

AI圈知名博主“歸藏”還發(fā)文稱(chēng)這是“天才想法”,并推測(cè)其背后的工作流可能是“剪輯一些影視劇的經(jīng)典鏡頭,然后用Runway V2V轉(zhuǎn)成別的主題”,并評(píng)價(jià)稱(chēng)這“非常容易起量,又避免了原創(chuàng)問(wèn)題”。

不過(guò)還是可以看到,雖然V2V在畫(huà)面整體風(fēng)格上可以保持一致性(用網(wǎng)友的話(huà)來(lái)說(shuō)就是“一股咖喱味”),但仍然無(wú)法保證在多切幾個(gè)鏡頭之后,“甄嬛”還是那個(gè)“甄嬛”。

可見(jiàn),在強(qiáng)敘事、多人物的視頻中保持人物一致性,V2V也不是最終的解決之道。

從電影制作到短視頻生產(chǎn),

V2V的應(yīng)用前景如何?

在A(yíng)I視頻生成領(lǐng)域,V2V并不是一個(gè)新玩法。

頭部AI視頻初創(chuàng)公司Runway最早嘗試的視頻生成模式就是V2V。早在2023年2月,Runway就推出了可以轉(zhuǎn)換視頻風(fēng)格的Gen-1模型,雖然這款初代模型在當(dāng)時(shí)為影視制作帶來(lái)了一些新思路,但與Gen-3相比,其生成效果多少還是有點(diǎn)拉胯。

從這兩代的生成效果對(duì)比,可以看到AI視頻生成技術(shù)的迭代之快。

Gen-1

Gen-3

所以, V2V其實(shí)不是一個(gè)新功能,但之前由于生成質(zhì)量、操作門(mén)檻等各種因素,它在實(shí)際應(yīng)用中的普及度,相比圖生視頻和文生視頻等工作流要小眾得多。

V2V主要使用人群在早前更偏向?qū)I(yè)創(chuàng)作者,作為一種實(shí)驗(yàn)性的方法,用來(lái)替代傳統(tǒng)影視制作中的動(dòng)作捕捉、CG和布景等制作成本高昂、耗時(shí)較長(zhǎng)的制作環(huán)節(jié)。

迪士尼導(dǎo)演Nem Perez工作流:實(shí)拍綠幕+Kaiber

一些專(zhuān)業(yè)的AI創(chuàng)作者會(huì)利用ComfyUI+AnimateDiff+LCM的工作流進(jìn)行視頻風(fēng)格轉(zhuǎn)繪。

Simon阿文,贊126

隨著底層模型能力的提升,AI視頻在產(chǎn)品應(yīng)用層上的內(nèi)卷,如今做一支AI轉(zhuǎn)繪視頻,無(wú)需復(fù)雜的前期部署,就能讓原本的視頻“改頭換面”。

這對(duì)大多數(shù)創(chuàng)作者來(lái)說(shuō)是一個(gè)好消息,就算你沒(méi)有專(zhuān)業(yè)影視制作背景和資源,也能用AI做出以前做不到的視覺(jué)效果。

就視頻生成模式而言,用視頻作為“原料”來(lái)生成新視頻,比光用文字或圖片靠譜得多——給模型一個(gè)基本的視頻內(nèi)容框架,再讓AI賦予原視頻新的外表和風(fēng)格,遠(yuǎn)遠(yuǎn)比文字或圖片作為輸入“原料”更為可控。

在A(yíng)I備受詬病的原創(chuàng)性問(wèn)題上,V2V的工作流程也因?yàn)樘峁┝俗銐虻膭?chuàng)作自由度,在作品歸屬上更易被判定為是創(chuàng)作者本人的智力投入。

尤其對(duì)專(zhuān)注特效、劇情賽道的博主和自媒體創(chuàng)作者來(lái)說(shuō),結(jié)合實(shí)拍等方式的V2V,既可以在制作上節(jié)省成本,也能比以往更輕松地將腦子的創(chuàng)意轉(zhuǎn)化為現(xiàn)實(shí),用小成本撬動(dòng)大流量的同時(shí),還規(guī)避掉了使用AI創(chuàng)作的原創(chuàng)性問(wèn)題。

自今年年初Sora橫空出世以來(lái),國(guó)內(nèi)外大廠(chǎng)、AI初創(chuàng)公司在視頻生成產(chǎn)品上的內(nèi)卷有目共睹。畢竟視頻作為當(dāng)今互聯(lián)網(wǎng)內(nèi)容消費(fèi)的流量大頭,誰(shuí)都不愿錯(cuò)過(guò)在A(yíng)I時(shí)代成為抖音的機(jī)會(huì)。

在“人人都能成為導(dǎo)演”的科技愿景兌現(xiàn)之前,不可否認(rèn)的是,AI正在以前所未有的速度降低內(nèi)容生產(chǎn)的門(mén)檻。

如今在V2V的幫助下,人人都可以是“五毛特效師”。

以上就是關(guān)于【AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰(shuí)還能攔住網(wǎng)友搞二創(chuàng)啊】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!

  免責(zé)聲明:本文由用戶(hù)上傳,與本網(wǎng)站立場(chǎng)無(wú)關(guān)。財(cái)經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。 如有侵權(quán)請(qǐng)聯(lián)系刪除!

 
分享:
最新文章
站長(zhǎng)推薦