不出聲也能命令Siri!清華校友開發(fā)「無聲語言識別」項(xiàng)鏈
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
這,或許是現(xiàn)在跟Siri交流最潮的方式了——
只需要動動嘴皮子,就能讓它under你的control。
沒錯,就是不需要出任何聲音的那種。
這就是來自康奈爾華人團(tuán)隊(duì)的最新研究成果 SpeeChin,無聲語音識別。
像這樣:
在沒有聲音的情況下,你能猜出來他在說什么嗎(文末揭曉答案)?
但在SpeeChin的加持下,現(xiàn)在的Siri、Alexa等就已經(jīng)可以識別,而且還支持普通話和英文!
是有種“此時無聲勝似有聲”的感覺了。
不說話,怎么控制語音助手?
康奈爾團(tuán)隊(duì)研發(fā)的SpeeChin,其實(shí)是一條神奇的項(xiàng)鏈。
戴上這條項(xiàng)鏈,就能開啟無聲語音控制的大門了。
例如對著電腦默念一句“Next”,音樂就會自動切換成下一首歌:
或許你會說一個單詞過于簡單了,別急,現(xiàn)在就來加大難度:
“Switch to Taylor Swift.”
可見,SpeeChin即便是面對一句完整的話術(shù),也可以做到精準(zhǔn)識別。
而這條“無聲識別”項(xiàng)鏈的關(guān)鍵,就在于安裝在項(xiàng)鏈下方的紅外攝像機(jī)。
它可以捕捉到人物頸部和面部皮膚的變形圖像,從而進(jìn)行分析識別工作,確定從“嘴皮子”傳達(dá)的是什么命令。
而且這條項(xiàng)鏈不僅能無聲識別英文,連中文 (普通話)也能夠hold住。
在最初的實(shí)驗(yàn)中,有20人參與到了測試中,其中10人講英文,另外10人說普通話。
研究人員讓測試者分別用英文和中文發(fā)出數(shù)十條指令,包括數(shù)字、互動指令、語音輔助指令、標(biāo)點(diǎn)指令和導(dǎo)航指令。
最后的實(shí)驗(yàn)結(jié)果,“無聲識別”的準(zhǔn)確率分別達(dá)到了90.5%和91.6%。
來自康奈爾大學(xué)的華人團(tuán)隊(duì)
這項(xiàng)研究來自康奈爾大學(xué),一作是Ruidong Zhang。
其中,Cheng Zhang是這項(xiàng)研究的通訊作者。
他是康奈爾大學(xué)信息科學(xué)系的助理教授,他的研究聚焦在如何獲取人體及其周圍的信息,以應(yīng)對各種應(yīng)用領(lǐng)域中的現(xiàn)實(shí)世界挑戰(zhàn),如交互、健康感知和活動識別。
研究的一作Ruidong Zhang,他是Cheng Zhang教授的一名博士生,本科畢業(yè)于清華大學(xué)。
他的研究興趣在于人機(jī)交互和普適計(jì)算(ubiquitous computing),特別是建立新型的可穿戴設(shè)備,用來促進(jìn)互動體驗(yàn)并加深我們對人類行為的理解。
至于為什么他們要做SpeeChin這項(xiàng)工作,據(jù)Ruidong Zhang解釋:
主要是考慮到在某些特定場合中,人們可能不適合發(fā)出聲音;還考慮到一些不能說話的人群。
最后,來揭曉一下開頭GIF的答案:
你猜對了嗎?