自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

世界超大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

新聞 人工智能
最近,F(xiàn)acebook開源了目前世界上最大的多語言語音數(shù)據(jù)集,VoxPopuli。

 [[416170]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

最近,F(xiàn)acebook開源了目前世界上最大的多語言語音數(shù)據(jù)集,VoxPopuli:

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

這一數(shù)據(jù)集共涵蓋了23種語言,時長超過40萬小時。

其中,每種語言都有9000到18000小時的無標簽語音數(shù)據(jù)。

此外,還包括了共1800小時,16種語言的轉(zhuǎn)錄語音數(shù)據(jù),以及17300小時,15種目標語言的口譯語音數(shù)據(jù)。

國外網(wǎng)友很快為這一行為點贊:

顯然,如果數(shù)據(jù)集已經(jīng)存在,那么它應(yīng)該被利用,并以一種道德的方式來改善人類社會。

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

這一數(shù)據(jù)集龐大的無標簽數(shù)據(jù)量和廣泛的語言覆蓋率,對改進自監(jiān)督模型有著很大的幫助。

而Facebook也希望能夠幫助提高語音數(shù)據(jù)集的質(zhì)量和魯棒性,使訓(xùn)練語音轉(zhuǎn)換神經(jīng)網(wǎng)絡(luò)更加可靠。

最終加速新的NLP系統(tǒng)的開發(fā),使AI翻譯的效果越來越好。

而數(shù)據(jù)集的名字,VoxPopuli的直譯“人民的心聲”也表示了其原始數(shù)據(jù)的來源——

即源語音全都收集自2009-2020年歐洲議會的活動錄音。

來自10年歐會的語料庫

在歐洲議會的各自活動,如全體會議、委員會會議和其他活動上,發(fā)言者都會以不同的歐盟語言輪流發(fā)表演講。

Facebook就是從歐會官網(wǎng)上抓取了每個演講的文字記錄、演講者信息、開始/結(jié)束時間戳。

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

然后,將所有的原始演講數(shù)據(jù)進行處理,大致分為以下3類:

共40萬小時,23種語言的無標簽語音數(shù)據(jù)

每種語言都有8千到2萬多的原始語音數(shù)據(jù)。

因此,F(xiàn)acebook基于能量的語音激活檢測(VAD)算法,將完整音頻分割成15-30秒的短片段。

最終得到?jīng)]有太多的數(shù)據(jù)不平衡,也不需要調(diào)整數(shù)據(jù)采樣策略的數(shù)據(jù)集。

因此非常適合多語言模型的訓(xùn)練。

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

而上表中除了無標簽數(shù)據(jù),也有轉(zhuǎn)錄的語音數(shù)據(jù),這也就是第二種:

共1800小時,16種語言的轉(zhuǎn)錄語音數(shù)據(jù)

歐會官方的時間戳雖然可以用來在會議中定義演講者,但常常會被截斷,或混合前后演講的片段,因此并不完全準確。

所以Facebook對全會話音頻采用了聲紋分割聚類(SD)。

這時的語音段落平均時長為197秒,再利用語音識別(ASR)系統(tǒng),將其細分為20秒左右的短片段。

觀察上表,可以看到最終得到的數(shù)據(jù)中,有包括各語言的持續(xù)時間、發(fā)言人數(shù)量、女性發(fā)言人百分比、標記數(shù)量等多種屬性。

17300小時的15種目標語言的口譯語音數(shù)據(jù)

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

每個原始語音都有相對應(yīng)的同聲傳譯,并互相關(guān)聯(lián)。

但要使這個數(shù)據(jù)集可用,必須經(jīng)過大量的預(yù)處理和過濾。

因此,F(xiàn)acebook使用了語音識別(ASR)系統(tǒng)在句子層面上對齊源語音和目標語音。

在域外環(huán)境的半監(jiān)督學(xué)習(xí)下具有通用性

那么這一數(shù)據(jù)集用起來到底怎么樣?

首先,是使用包含了域外語言(out-of-domain out-of-language)的無監(jiān)督預(yù)訓(xùn)練,進行少樣本的語音識別

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

可以從表中看到,VP-Mono5K在5種VoxPopuli語言上,都優(yōu)于XLSR-Mono和XLSR-10。

而VP-100K則在10種語言中的8種上的都比XLSR-10的表現(xiàn)更好。

并且,雖然XLSR-53涵蓋了Zh語言,但與VP-100K(Large)在Zh上的表現(xiàn)相距甚遠。

這表明VP-100K所學(xué)的語音表征具有高度的通用性。

然后是使用VoxPopuli數(shù)據(jù)集進行自我訓(xùn)練或弱監(jiān)督的語言翻譯(ST)和語音識別(ASR):

世界最大的多語言語音數(shù)據(jù)集現(xiàn)已開源!超40萬小時,共23種語言

從表中可以看到,不管是對于域內(nèi)語言還是域外語言,對VoxPopuli的自我訓(xùn)練在大多數(shù)時候都能夠提高性能。

而在翻譯上,也不用再增加昂貴的標簽數(shù)據(jù)。

通過自我訓(xùn)練,就能夠縮小端到端模型和級聯(lián)模型之間的差距。

論文地址:
https://arxiv.org/abs/2101.00390

下載:
https://github.com/facebookresearch/voxpopuli

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-09-04 19:19:36

語言模型LLM

2023-05-23 14:14:14

技術(shù)模型

2021-06-29 21:48:32

開源語言架構(gòu)

2014-07-09 09:20:06

WPFWPF應(yīng)用

2022-08-09 07:22:15

語言數(shù)據(jù)庫程序

2014-04-16 14:50:20

Spark

2012-04-19 11:40:21

Titanium

2011-08-05 17:54:33

Cocoa Touch 多語言

2009-08-25 10:44:50

C#實現(xiàn)多語言

2023-08-04 10:18:15

2019-10-10 09:00:00

谷歌數(shù)據(jù)技術(shù)

2024-11-25 15:30:00

語言模型數(shù)據(jù)

2024-05-09 08:14:09

系統(tǒng)設(shè)計語言多語言

2021-09-07 10:17:35

iOS多語言適配設(shè)計

2023-05-23 14:01:29

模型開源

2023-10-18 15:21:23

2009-07-17 10:02:29

WPF程序多語言支持

2023-08-29 13:54:00

AI技術(shù)

2020-04-14 09:50:02

2024-03-04 14:15:16

OpenAI語言嵌入模型
點贊
收藏

51CTO技術(shù)棧公眾號