自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Pika 1.0徹底顛覆動畫行業(yè)!夢工廠創(chuàng)始人預測3年內(nèi)動畫成本降至1/10

人工智能 新聞
夢工廠創(chuàng)始人斷言:3年內(nèi)動畫行業(yè)將徹底變天,成本下降90%。而Pika1.0的發(fā)布,預示著這一天將很快來臨。

最近,夢工廠創(chuàng)始人Jeffrey Katzenberg預測,生成式AI將使動畫電影的成本在未來3年內(nèi)降低90%,因為該技術(shù)將給媒體和娛樂行業(yè)帶來徹底地顛覆。

「如果從歷史的角度來看,鋼筆、畫筆、印刷機、靜態(tài)相機、電影攝影機;這些東西以非凡的方式擴展了創(chuàng)造力和講述故事的方式,人類已經(jīng)見證過這種發(fā)展軌跡。」

圖片

他表示,「我不知道還有哪個行業(yè)會比媒體、娛樂和創(chuàng)作受到生成式AI影響更大?!?/span>

「我認為,一方面,它將具有顛覆性,并將當今藝術(shù)家和講故事的人難以接觸到的東西商品化?!?nbsp;

「在我制作動畫電影的美好時光里,500 名藝術(shù)家花了五年時間才制作出一部世界級的動畫電影。我認為未來3年,這個成本將縮減到10%」

「在我看來,未來個人的創(chuàng)造力將決定一切」。

而AI視頻領(lǐng)域,也確實入他所說,技術(shù)在一日如十年地突飛猛進。

Pika 1.0 ,用戶幾分鐘就能做出迪士尼級別的動畫短片

前幾天火爆全網(wǎng)的Pika Labs發(fā)布正式版1.0。

官方做的第一個視頻展現(xiàn)出的動畫效果,豪不夸張地說,已經(jīng)能達到迪士尼等動畫電影公司的質(zhì)感了。

怪不得夢工廠的創(chuàng)始人會有如此預言,也許就是Pika這樣面向未來的動畫工具,讓他看到了行業(yè)(bei)革命的曙光。

視頻中我們可以看出,雖然每個鏡頭的時間還不長,但是動畫人物的一致性,畫面質(zhì)感,已經(jīng)和大型動畫公司制作出來的動畫沒有太大的區(qū)別了。

而自從Pika 1.0開放了邀請體驗以后,網(wǎng)上越來越多的案例被放了出來??赐赀@些用Pika 1.0做的動畫之后,似乎都覺得這個3年90%的預測稍微保守了一些。

這個機器人過圣誕節(jié)的動畫,除了鏡頭切換的稍顯頻繁之外,幾乎很難挑出哪里有明顯的毛病。

機器人來回的幾個鏡頭一致性很高,完全沒有了AI動畫之前那種換一個鏡頭之后主角就會完全變樣的硬傷。

機器人沒有一句臺詞,但是依然向觀眾傳達了一個簡單的情節(jié)。在此基礎(chǔ)之上發(fā)展出一個好故事,一個AI動畫短片就完成了。

而這個動畫,按照作者的說法是為了慶祝Pika1.0的上線。

雖然動畫中只有一個簡單的黑夜場景,但是禮花效果的一致性很好,城市中黑夜的光影也很多樣,效果絢麗。

而且不同的鏡頭錯落有致,氛圍渲染的非常到位。

而這一個段的動畫,看得出臉部效果畸變的問題也幾乎被Pika解決了。

雖然人物臉部動作不明顯,但是也保持了非常好的一致性,大大改善了之前AI動畫最大的短板。

而這一段動畫,已經(jīng)可以說是一段「AI小電影」了。

站在夕陽中的泰坦尼克號上的Jack,身邊的Rose換成了一只憨態(tài)可掬的大熊貓,效果還居然一點都不違和。

這后邊大大的「To Be Continued」,也暗示了未來AI動畫行業(yè)的故事才剛剛開始。

也許當動畫制作的門檻不斷降低,每個有優(yōu)美故事的創(chuàng)作者,就能夠完全地釋放自己的創(chuàng)造力,制作出足夠精良的視頻來呈現(xiàn)精彩的故事。

Gen-2推出動態(tài)畫筆,賦予用戶更大的控制能力

Gen-2推出「動態(tài)畫筆」,讓用戶能夠自由地決定視頻中的動態(tài)效果。一條推特短短幾天時間閱讀超過160萬。

就像傳說中的「神筆馬良一樣」,用戶只要鼠標一拖,就能讓靜態(tài)的圖片按照自己的意愿動起來。

不論是背景的運動,還是圖片中的具體景物,人物,都能生成自然的運動效果。

圖片

無論是畫面中的汽車,煙霧,瀑布,火焰,人物,都能自然運動。

湖面,船舶,人像,魚缸中的金魚,都能地開始運動。

圖片

可以想象,在賦予用戶如此之強的動態(tài)效果控制能力之后,制作動畫和視頻的成本將會大大降低。

也許未來,每個普通人就能像寫字一樣,用幾張圖片,幾個小時,就能動態(tài)生成一段自己創(chuàng)作的視頻。

5秒就能生成3D素材

動畫內(nèi)容制作另一個領(lǐng)域——3D建模,也在AI技術(shù)的推動下不斷推陳出新。

最近由Adobe和澳大利亞國立大學研究員發(fā)表的一篇論文,提出了一個用2D圖像直接生成3D素材的技術(shù),徹底震撼了業(yè)界。

項目地址:https://yiconghong.me/LRM/

作者稱,只需要5秒鐘,他們的模型就能將給定的一幅2D圖像轉(zhuǎn)化為3D素材。

除了普通的3D素材之外,可互動的3D素材也可以用模型生成。

這個基于Transformer構(gòu)架的3D模型,具有5億個參數(shù),在短短5秒內(nèi)就能從一個輸入的圖像預測出他的3D模型,而且可以直接從數(shù)據(jù)集預測神經(jīng)輻射場(NeRF)。

研究人員在包含大約 100 萬個對象的海量多視圖數(shù)據(jù)上以端到端的方式訓練模型,其中包括來自O(shè)bjaverse的合成渲染和來自MVImgNet的真實捕獲。

高容量模型和大規(guī)模訓練數(shù)據(jù)的結(jié)合使模型具有高度通用性。

相信,伴隨著3D建模技術(shù)的不斷發(fā)展,也許他們的Pika 1.0時刻也不遠了。

到時候,就像社交媒體出現(xiàn)之后,自媒體和信息傳播的方式會產(chǎn)生很大變化一樣,當AI動畫將動畫制作的門檻大大降低之后,我們將會進入一個視頻媒體大爆炸的時代。

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-01-22 08:14:54

人工智能AGIOpenAI

2016-01-04 17:53:27

創(chuàng)始人2015失利

2018-04-04 09:55:51

區(qū)塊鏈 51CTO

2021-05-11 08:19:00

CSS 文字動畫技巧

2010-05-04 16:22:45

Unix系統(tǒng)

2023-11-13 10:34:39

AI科學

2025-01-23 08:40:00

2018-06-27 10:30:30

閃存

2012-06-14 16:21:24

LinuxLinus Torva

2022-12-06 07:18:56

DedeCMS創(chuàng)始人林學

2010-06-24 15:51:49

數(shù)據(jù)中心能耗

2012-10-22 13:56:42

夢工廠數(shù)據(jù)中心

2014-08-20 10:55:29

2009-05-20 13:40:22

GoogleTwitter即時搜索

2009-12-09 13:53:32

PostgreSQLMySQL

2013-03-14 09:11:15

AndroidChromeChrome OS

2012-04-02 19:17:37

蘋果

2014-08-28 15:50:46

聯(lián)通WO

2009-06-19 16:44:56

SpringJava EE
點贊
收藏

51CTO技術(shù)棧公眾號