自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

開源版GPT-4o來了,AI大神Karpathy盛贊!67頁技術(shù)報(bào)告全公開

人工智能 新聞
兩個(gè)多月前那個(gè)對(duì)標(biāo)GPT-4o的端到端語音模型,終于開源了。大神Karpathy體驗(yàn)之后表示:nice!

前段時(shí)間技驚四座、劍指GPT-4o的實(shí)時(shí)語音模型Moshi,終于開源了!

自然聊天,情緒豐富,隨意打斷,拒絕呆板和回合制!

大神Karpathy體驗(yàn)之后也表示:nice~

圖片

來自法國(guó)的初創(chuàng)團(tuán)隊(duì)Kyutai,于7月初發(fā)布了這個(gè)對(duì)標(biāo)GPT-4o的神奇的端到端語音模型。

2個(gè)多月后的今天,他們兌現(xiàn)了自己的承諾,將代碼、模型權(quán)重和一份超長(zhǎng)的技術(shù)報(bào)告一股腦開源。

圖片

論文地址:https://kyutai.org/Moshi.pdf

開源代碼:https://github.com/kyutai-labs/moshi

開放權(quán)重:https://huggingface.co/collections/kyutai

在海的那一邊,GPT-4o的語音模式還沒有完全端上來,這邊的模型已經(jīng)免費(fèi)送了。

大家可以去官網(wǎng)(moshi.chat)在線免費(fèi)體驗(yàn),相比于平時(shí)你問我答的AI語音助手,這種「像人一樣」的聊天方式還是很奇特的。

圖片

整個(gè)模型的參數(shù)量為7.69B,pytorch平臺(tái)上只有bf16版本,如果在本地跑的話對(duì)顯存有一定要求,而candle上提供了8bit版本,mlx上更是有4bit版本可供使用。

圖片

moshiko和moshika表示男聲和女聲兩個(gè)版本

moshi作為一個(gè)全雙工口語對(duì)話框架,由幾部分組成:首先是Mimi,目前最先進(jìn)的流式神經(jīng)音頻編解碼器,能夠以完全流式的方式(延遲80毫秒)處理24 kHz音頻(12.5 Hz表示,帶寬1.1 kbps)。

圖片

然后是負(fù)責(zé)知識(shí)儲(chǔ)備、理解和輸出的Transformer部分,包括Helium Temporal Transformer和Depth Transformer。

其中小型的深度Transformer負(fù)責(zé)對(duì)給定時(shí)間步長(zhǎng)的碼本間依賴性進(jìn)行建模,而大型(7B參數(shù))時(shí)間Transformer對(duì)時(shí)間依賴性進(jìn)行建模。

作者還提出了「內(nèi)心獨(dú)白」:在訓(xùn)練和推理過程中,對(duì)文本和音頻進(jìn)行聯(lián)合建模。這使得模型能夠充分利用文本模態(tài)傳遞的知識(shí),同時(shí)保留語音的能力。

Moshi模擬兩種音頻流:一種來自Moshi自身(模型的輸出),另一種來自用戶(音頻輸入)。

圖片

沿著這兩個(gè)音頻流,Moshi預(yù)測(cè)與自己的語音(內(nèi)心獨(dú)白)相對(duì)應(yīng)的文本,極大地提高了生成的質(zhì)量。

Moshi的理論延遲為160毫秒(Mimi幀大小80毫秒 + 聲學(xué)延遲80毫秒),在L4 GPU上的實(shí)際總延遲僅有200毫秒。

技術(shù)細(xì)節(jié)

Moshi突破了傳統(tǒng)AI對(duì)話模型的限制:延遲、文本信息瓶頸和基于回合的建模。

Moshi使用較小的音頻語言模型增強(qiáng)了文本LLM主干,模型接收并預(yù)測(cè)離散的音頻單元,通過理解輸入并直接在音頻域中生成輸出來消除文本的信息瓶頸,同時(shí)又可以受益于底層文本LLM的知識(shí)和推理能力。

Moshi擴(kuò)展了之前關(guān)于音頻語言模型的工作,引入了第一個(gè)多流音頻語言模型,將輸入和輸出音頻流聯(lián)合顯式處理為兩個(gè)自回歸token流,完全消除了說話者轉(zhuǎn)向的概念,從而允許在任意動(dòng)態(tài)(重疊和中斷)的自然對(duì)話上訓(xùn)練模型。

圖片

Helium

首先介紹負(fù)責(zé)文本部分的Helium,這里采用了一些比較通用的設(shè)計(jì)。

比如,在注意力層、前饋層和輸出線性層的輸入處使用RMS歸一化;使用旋轉(zhuǎn)位置嵌入(RoPE)、4,096 個(gè)token的上下文長(zhǎng)度和 FlashAttention來進(jìn)行高效訓(xùn)練;使用門控線性單元,SiLU作為門控函數(shù)。

Helium的分詞器基于SentencePiece的一元模型,包含32,000個(gè)主要針對(duì)英語的元素。

作者將所有數(shù)字拆分為單個(gè)數(shù)字,并使用字節(jié)退避來確保分詞器不會(huì)丟失信息。使用AdamW優(yōu)化器訓(xùn)練模型,先采用固定學(xué)習(xí)率,然后進(jìn)行余弦學(xué)習(xí)率衰減。

圖片

7B Helium語言模型和Moshi架構(gòu)訓(xùn)練的超參數(shù)

研究人員在公共英語數(shù)據(jù)的2.1T token上對(duì)模型進(jìn)行了預(yù)訓(xùn)練。

訓(xùn)練數(shù)據(jù)包括維基百科、Stack Exchange和大量科學(xué)文章,還依賴網(wǎng)絡(luò)爬?。ㄌ貏e是來自CommonCrawl的數(shù)據(jù))來擴(kuò)展數(shù)據(jù)集,并通過重復(fù)數(shù)據(jù)刪除、語言識(shí)別和質(zhì)量過濾等操作獲得高質(zhì)量的訓(xùn)練集。

Mimi

Mimi使用殘差矢量量化 (RVQ) 將音頻轉(zhuǎn)換為Moshi預(yù)測(cè)的離散token,并通過蒸餾將非因果的高級(jí)語義信息傳輸?shù)揭蚬P蜕傻膖oken中,從而允許對(duì)語義進(jìn)行流式編碼和解碼。

圖片

Mimi架構(gòu)的靈感來自SoundStream和Encodec,編碼器通過級(jí)聯(lián)殘差卷積塊將單通道波形投射到潛在表示。所有卷積都是因果的,因此該自動(dòng)編碼器可以以流方式運(yùn)行。

通過4個(gè)步幅為(4、5、6、8)的卷積塊 ,以及步幅為2的1D卷積,Mimi的編碼器將24kHz波形投影為每秒12.5幀、維度為512的潛在表示,而解碼器采用轉(zhuǎn)置卷積將潛在表示投射回24kHz音頻。

為了提高M(jìn)imi將語音編碼為緊湊表示的能力,研究人員在模型中添加了Transformer模塊,分別位于量化之前和之后。

每個(gè)Transformer塊包含8層、8個(gè)頭、使用RoPE位置編碼、250幀(20 秒)的有限上下文、模型維度512、MLP維度2048。使用 LayerScale來保證穩(wěn)定訓(xùn)練,對(duì)角線值初始化為0.01。兩個(gè)Transformer都使用因果屏蔽,保留了整個(gè)架構(gòu)與流式推理的兼容性。

Moshi

Moshi作為一種用于音頻語言建模的新架構(gòu),將Helium與較小的Transformer模型相結(jié)合,以分層和流式傳輸?shù)姆绞筋A(yù)測(cè)音頻token。

這種無條件音頻語言模型,提供了優(yōu)于非流模型的清晰度和音頻質(zhì)量,同時(shí)以流方式生成音頻。作者進(jìn)一步擴(kuò)展了這種架構(gòu),以并行模擬多個(gè)音頻流,從而可以在概念上和實(shí)踐上簡(jiǎn)單地處理具有任意動(dòng)態(tài)的全雙工對(duì)話。

圖片

在上圖的整體架構(gòu)中,RQ Transformer將長(zhǎng)度為K·S的扁平序列分解為大型時(shí)間Transformer的S個(gè)時(shí)間步長(zhǎng),生成上下文嵌入,用于在K個(gè)步驟上調(diào)節(jié)較小的深度Transformer。

與使用單個(gè)模型對(duì)展平序列進(jìn)行建模相比,這允許通過增加S來縮放到更長(zhǎng)的序列,或者通過增加K來縮放到更高的深度。

圖片

架構(gòu)中的深度Transformer有6層,維度為1024,16個(gè)注意力頭。與之前的工作不同,作者在深度Transformer中為線性層、投影層和全連接層使用每個(gè)索引的不同參數(shù)。

圖片

事實(shí)上,不同的子序列可能需要不同的轉(zhuǎn)換。鑒于該Transformer的尺寸較小,這對(duì)訓(xùn)練和推理時(shí)間都沒有影響,但上表結(jié)果顯示這種深度參數(shù)化是有益的。

內(nèi)心獨(dú)白

內(nèi)心獨(dú)白是一種用于音頻語言模型訓(xùn)練和推理的新方法,它通過在音頻token之前預(yù)測(cè)時(shí)間對(duì)齊的文本token,顯著提高了生成語音的事實(shí)性和語言質(zhì)量。

Moshi允許推理來自用戶音頻和Moshi音頻的非語言信息,但這與Moshi在其語音輸出中生成文本并不矛盾。根據(jù)過去的觀察,從粗到細(xì)的生成(從語義到聲學(xué)token)對(duì)于生成一致的語音至關(guān)重要。

圖片

作者利用這種層次結(jié)構(gòu),使用文本token作為語義token的每個(gè)時(shí)間步前綴。實(shí)驗(yàn)表明,這不僅極大地提高了生成語音的長(zhǎng)度和質(zhì)量,還展示了單個(gè)延遲超參數(shù)如何允許從ASR模型切換到TTS模型,而不會(huì)改變損失、架構(gòu)或訓(xùn)練數(shù)據(jù)。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-09-19 13:34:27

AI開源模型

2024-08-14 14:30:00

AI訓(xùn)練

2024-07-31 13:20:14

2025-04-16 09:15:00

AI模型數(shù)據(jù)

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI

2024-05-14 11:29:15

2025-04-08 02:26:00

2024-05-21 12:23:17

2024-06-05 08:29:35

2024-06-21 09:58:38

2024-09-23 15:10:00

2024-08-13 13:50:00

數(shù)據(jù)模型

2025-01-06 13:15:02

2024-05-20 08:20:00

OpenAI模型

2025-04-15 08:01:12

2024-11-28 15:51:19

GPT-4o微軟

2025-01-16 16:39:44

2024-05-24 14:04:04

2024-07-08 08:25:00

2024-12-10 16:00:00

AI開源
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)