自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta 開(kāi)源 AI 語(yǔ)言模型 MusicGen,可將文本和旋律轉(zhuǎn)化為完整樂(lè)曲

人工智能 開(kāi)源
Meta 近日在 Github 上開(kāi)源了其 AI 語(yǔ)言模型 MusicGen,該模型基于谷歌 2017 年推出的 Transformer 模型。

6 月 12 日消息,Meta 近日在 Github 上開(kāi)源了其 AI 語(yǔ)言模型 MusicGen,該模型基于谷歌 2017 年推出的 Transformer 模型。如同模型名稱所示,MusicGen 主要用于音樂(lè)生成,它可以將文本和已有的旋律轉(zhuǎn)化為完整樂(lè)曲。

圖片 1

研發(fā)團(tuán)隊(duì)表示:“我們使用了 20000 小時(shí)的授權(quán)音樂(lè)來(lái)對(duì)訓(xùn)練該模型,并采用 Meta 的 EnCodec 編碼器將音頻數(shù)據(jù)分解為更小的單元進(jìn)行并行處理,進(jìn)而讓 MusicGen 的運(yùn)算效率和生成速度都比同類型 AI 模型更為出色?!?/p>

除此之外,MusicGen 還支持文本與旋律的組合輸入,例如你可以提出生成“一首輕快的曲目”并同時(shí)要求“將它與貝多芬的《歡樂(lè)頌》結(jié)合起來(lái)”。

研發(fā)團(tuán)隊(duì)還對(duì) MusicGen 的實(shí)際表現(xiàn)進(jìn)行了測(cè)試。結(jié)果顯示,與谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他音樂(lè)模型相比,MusicGen 在測(cè)試音樂(lè)與文本提示的匹配度以及作曲的可信度等指標(biāo)上表現(xiàn)更好,總體而言略高于谷歌 MusicLM 的水平。

Meta 已允許該模型的商業(yè)使用,并在 Huggingface 上發(fā)布了一個(gè)供演示用的網(wǎng)頁(yè)應(yīng)用。

IT之家附上模型地址點(diǎn)此前往

演示應(yīng)用地址點(diǎn)此前往

責(zé)任編輯:龐桂玉 來(lái)源: IT之家
相關(guān)推薦

2023-08-03 07:24:40

MetaAI 語(yǔ)言模型

2023-07-31 16:19:47

機(jī)器人人工智能

2023-05-25 16:24:13

2023-12-08 08:00:00

人工智能MusicGen音樂(lè)模型

2010-02-24 08:54:25

AjaxSwing

2024-12-18 15:02:48

2023-08-05 13:56:03

數(shù)據(jù)音樂(lè)

2025-02-17 10:36:00

微軟開(kāi)源模型

2025-02-11 12:41:57

2023-02-28 14:57:02

MetaAI

2023-02-25 16:14:36

AIMeta語(yǔ)言模型

2023-10-17 08:00:00

人工智能ColabMusicGen

2023-07-19 07:48:21

Llama 2 模型Azure AI

2024-07-19 11:50:28

2022-12-26 14:00:10

模型升級(jí)

2023-06-08 11:06:17

OpenAITigerBot

2023-04-23 13:32:28

MetaAI開(kāi)源

2024-12-20 08:00:00

2024-11-12 10:09:59

Go語(yǔ)言第三方庫(kù)

2023-06-12 16:04:52

谷歌音樂(lè)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)