自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

把腳本變成視頻,人工智能只需要一步

人工智能
來自Meta的一個機(jī)器學(xué)習(xí)工程師團(tuán)隊(duì)發(fā)布了一個名為Make-A-Video的新系統(tǒng)。顧名思義,這種人工智能模型允許用戶以文本方式輸入一個場景的粗略描述,它將快速生成與文本匹配的短視頻。這些視頻雖然主題模糊,動畫失真,但仍然代表著人工智能內(nèi)容生成領(lǐng)域的重大發(fā)展。

Meta在一篇宣布這項(xiàng)工作的博客文章中表示:“生成式人工智能研究為人們提供了快速、輕松創(chuàng)建新內(nèi)容的工具,從而推動了創(chuàng)造性表達(dá)的發(fā)展。只需幾句話或幾行文字,Make-A-Video就能將想象力賦予生命,創(chuàng)造出獨(dú)一無二的充滿生動色彩和風(fēng)景的視頻?!?/span>

Meta首席執(zhí)行官馬克·扎克伯格在Facebook上稱這項(xiàng)工作是“驚人的進(jìn)步”,并補(bǔ)充說:“生成視頻比生成照片要困難得多,因?yàn)槌苏_生成每個像素外,系統(tǒng)還必須預(yù)測它們將如何隨時間變化。”

這些視頻不超過5秒,不包含任何音頻,但包含了大量的提示。判斷模型性能的最佳方法是觀察它的輸出。不過目前不允許任何人訪問模型。這意味著這些片段可能是研發(fā)人員精心挑選出來的,以最好的方式展示這個系統(tǒng)。

同樣,雖然這些視頻顯然是計(jì)算機(jī)生成的,但這種人工智能模型的輸出在不久的將來將迅速提高。相比之下,在短短幾年的時間里,人工智能圖像生成器已經(jīng)從創(chuàng)造難以理解的邊緣圖片發(fā)展到逼真的內(nèi)容。盡管視頻的進(jìn)展可能會因?yàn)檫@一主題的近乎無限的復(fù)雜性而緩慢,但無縫視頻生成的價值將激勵許多機(jī)構(gòu)和公司向該項(xiàng)目投入大量資源。

與文本到圖像模型一樣,有可能也會產(chǎn)生有害的應(yīng)用。

Meta在宣布Make-a-Video的博客中指出,視頻生成工具“對創(chuàng)作者和藝術(shù)家”來說可能是無價的。但是,就像從文本到圖像的模式一樣,前景也令人擔(dān)憂。這些工具的輸出可能被用于虛假信息、宣傳。

Meta表示,它希望“對如何構(gòu)建這樣的生成式AI系統(tǒng)進(jìn)行深思熟慮”,目前只發(fā)表了一篇關(guān)于Make-A-Video模型的論文。該公司表示,計(jì)劃發(fā)布該系統(tǒng)的演示版本,但沒有說明何時或如何限制對該模型的訪問。

值得一提的是,Meta并不是唯一一家致力于AI視頻生成器的機(jī)構(gòu)。今年早些時候,清華大學(xué)和北京人工智能研究院(BAAI)的一組研究人員發(fā)布了他們自己的文本到視頻模型,命名為CogVideo。

Meta的研究人員在一篇描述該模型的論文中指出,Make-A-Video正在對成對的圖像和標(biāo)題以及未標(biāo)記的視頻片段進(jìn)行訓(xùn)練。培訓(xùn)內(nèi)容來自兩個數(shù)據(jù)集(WebVid-10M和HD-VILA-100M),這兩個數(shù)據(jù)集總共包含了數(shù)百萬個視頻,跨越數(shù)十萬小時的鏡頭。這包括由Shutterstock等網(wǎng)站創(chuàng)建并從網(wǎng)上抓取的庫存視頻片段。

研究人員在論文中指出,除了模糊的鏡頭和不連貫的動畫外,該模型還有許多技術(shù)局限性。例如,它們的訓(xùn)練方法無法學(xué)習(xí)可能只有人類觀看視頻時才能推斷出的信息——例如,一個揮手的視頻是從左向右還是從右向左。其他問題包括生成超過5秒的視頻,包含多個場景和事件的視頻,以及更高的分辨率。Make-A-Video目前輸出16幀分辨率為64 * 64像素的視頻,然后使用單獨(dú)的人工智能模型將其尺寸提高到768 * 768。

Meta的團(tuán)隊(duì)還指出,就像所有使用從網(wǎng)絡(luò)上抓取的數(shù)據(jù)訓(xùn)練的人工智能模型一樣,Make-A-Video學(xué)習(xí)并可能夸大了社會偏見,包括有害的偏見。在文本到圖像的模型中,這些偏見通常會強(qiáng)化社會偏見。例如,讓一個生成一個“恐怖分子”的圖像,它很可能描繪的是一個戴著頭巾的人。然而,在沒有開放訪問的情況下,很難說Meta的模型學(xué)習(xí)到了什么偏見。

Meta表示,該公司“正在與技術(shù)社區(qū)公開分享這種生成式AI研究和結(jié)果,以獲得他們的反饋,并將繼續(xù)使用我們負(fù)責(zé)任的AI框架來完善和發(fā)展我們對這種新興技術(shù)的方法?!?/span>

隨著繪畫和視頻領(lǐng)域人工智能生成器逐漸火熱,相信很快(也許已經(jīng))就會出現(xiàn)其他藝術(shù)(比如音樂)的人工智能生成工具了。

責(zé)任編輯:華軒 來源: Ai時代前沿
相關(guān)推薦

2018-08-01 09:22:29

人工智能機(jī)器學(xué)習(xí)機(jī)器人

2022-01-18 11:23:21

人工智能機(jī)器學(xué)習(xí)

2021-09-07 10:06:00

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-02-19 23:05:19

人工智能算法核聚變

2021-07-13 08:14:27

色彩用色類型輔助色

2020-10-09 10:05:00

智能

2017-03-19 15:44:25

卷積神經(jīng)網(wǎng)絡(luò)

2020-06-30 08:45:00

人工智能醫(yī)療技術(shù)

2020-10-04 11:15:29

人工智能

2023-12-15 11:42:49

人工智能機(jī)器人AI

2022-05-26 21:30:37

人工智能AI

2018-08-03 12:21:02

2021-01-10 23:46:19

人工智能機(jī)器人科技

2021-01-11 14:07:27

人工智能生物安全智慧城市

2021-06-01 13:55:17

Python人工語音對話Python基礎(chǔ)

2022-10-09 14:38:22

人工智能直播安全

2017-11-20 11:17:52

2016-10-14 14:21:40

2021-02-23 22:30:15

人工智能科學(xué)技術(shù)

2024-08-06 09:29:54

程序機(jī)器指令字符串
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號