谷歌 AI 的七個“不正經(jīng)”玩法,個個能玩一整天
誰說AI只能搞一些一本正經(jīng)的工作?
谷歌最近就放出了幾只比較搞笑的AI,可以完成一些不走尋常路的工作,比如:幫你實現(xiàn)靠臉吃飯,讓你說的跟唱的一樣~
是謂:谷歌AI的七個“不正經(jīng)”玩法。
每個我都能玩一整天~
玩法 1:跳著舞就把琴彈了
正常人彈琴,都是乖乖的坐在鋼琴前按鍵盤,或是以演奏姿勢抱著吉他、手風琴彈。
但是谷歌這個名叫Body Synth的項目不一樣,是讓你在電腦前,以手為鍵,以腿為弦,手舞足蹈,自己彈自己。
先看一下效果,請欣賞由量子位帶來的谷歌AI樂器獨奏:《和弦》
其中的原理很簡單,打開攝像頭,自動開啟人體姿態(tài)識別,四肢和腦袋分別對應不同的音調(diào)。
只要監(jiān)測到身體某個部分有動作,就可以發(fā)出對應的音調(diào)。
跟我念,
1~2~3~4~5~6~7~
do re mi fa so la si~
以默認的C大調(diào)為例,搖頭晃腦,發(fā)出的就是so的聲音。

動動左手,就是mi。
動動右手,就是do。

動動右腿,就是低音so。

動動左腿,就是低音do。
即使轉(zhuǎn)身背對鏡頭,也是一樣可用。
另外,你還可以設(shè)置音色音調(diào)。

或者打開語音控制開關(guān),默認的音色是吉他,喊一聲strings,就可以變成管弦樂,喊一聲drums,就可以變成鼓點。
玩法 2-5:靠臉吃飯
除了“靠四肢彈琴”,還可以“靠臉吃飯”。
當然,不是真的靠臉吃飯的意思,而是你可以用臉來完成一系列工作(混口飯吃)。
比如說,依靠Sound Canvas工具,你就可以用臉來畫畫或者寫字。
打開Sound Canvas之后,默認是用鍵鼠來畫畫。
這太低級了,簡直是windows 98自帶畫圖程序的水平。
所以,需要先把Tracking改一下,選中Body,就可以打開攝像頭,用臉畫畫了。

此時,你臉的朝向就是屏幕上畫筆的位置,慢慢移動自己的腦袋,微微轉(zhuǎn)頭,就可以在屏幕上勾勒線條。
比如,寫“量子位”三個字。
人呀,一旦發(fā)現(xiàn)了臉的用途,就開始開發(fā)新工具。
除了寫字,還可以彈琴。
Keyboard就是用來彈琴的。和用臉寫字的操作差不多,臉的朝向就是小圓點在屏幕上的位置,操控小圓點敲擊屏幕上的琴鍵,就可以發(fā)出對應的聲音。
和前面的“跳舞彈琴”一樣,Keyboard上也可以選擇不同的音色音調(diào),如果你覺得只有5個音不夠發(fā)揮的話,可以設(shè)置到最多15個琴鍵,兩個八度足夠演奏很多音樂了。

當然,兩個八度的話,琴鍵太窄了,臉太大不好操作,可以切換回鼠標操作……
熟悉了之后,還可以玩Clarion Lite,雖然也是一個用臉彈琴的項目,不過做了幾種不同的花樣。

屏幕上的每個彩色區(qū)域都應對這一個音調(diào),同樣用臉把小圓點放上去即可觸發(fā),搖頭晃腦,樂聲出現(xiàn)。
但是,演奏樂曲對音樂知識還是有一點要求的,有沒有小白即刻上手(上臉)的操作?
沒問題,谷歌還準備了“用臉當DJ”的Sampler項目,包含鼓點、吉他、號角、古鋼琴四段簡短的音樂,只要用臉控制小圓點移動上去,就開始自動播放。
現(xiàn)在,請欣賞下一個節(jié)目,由量子位為大家演奏《靠臉吃飯的音樂家》。
(中間有一段大家熟悉的歌,聽出來的朋友評論區(qū)見)
玩法 6:說的跟唱的一樣
我有個同事,就是雷軍的粉絲,不是米粉,單純就是B站鬼畜區(qū)知名歌手雷布斯的粉絲。
鬼畜簡單來說,就是通過調(diào)音,把一句話變成歌聲~B站上個個都是人才,但對于普通人來說,這種操作還是很難。
不妨試試這個Word Synth吧~
你只要輸入一些單詞,然后就能按照自己的喜好調(diào)節(jié)旋律,探索不同的聲音、聲調(diào)的組合,嘗試構(gòu)建鬼畜一般的歌聲。
我們嘗試了一下,限于只能放三個視頻,這里就用一個動圖和一個音頻呈現(xiàn)了:
RUOK 來自量子位 00:00 00:08
這個項目背后,主要應用了谷歌云的文字轉(zhuǎn)語音API,它靠DeepMind開發(fā)的WaveNet來合成你聽到的這些聲音。
玩法 7:用聲音畫畫
這其實是一個音樂可視化的工具。
所謂的音樂,既包括人聲也包括多種樂器。你可以打開麥克風自己哼唱,也能調(diào)用內(nèi)置的聲音看看效果。
所有輸入的聲音,能夠以不同的模式呈現(xiàn),比方Hilbert Scope以及Spectrogram,能夠顯示出聲音的細致紋理和旋律的形狀。
據(jù)一位聾人音樂家表示,這個工具還能更好的幫助他們在聽不到或者聽不清聲音的情況下,更好的學習歌唱。
正經(jīng)揭秘
但,谷歌搞出這么多奇妙的功能,并不是只想讓你玩一天而已。
所有以上這些,是一個被稱為Creatability的項目,旨在探索如何通過網(wǎng)絡(luò)和AI技術(shù),讓更多人能夠釋放自己的創(chuàng)造力。
紐約大學的Claire Kearney-Volpe,曾經(jīng)作為藝術(shù)治療師遇到過各行各業(yè)的人,她認為每個人都能從參與創(chuàng)作的過程中受益。
例如通過畫畫、制作音樂等方式,幫助患有自閉癥的中學生;借助不同的技術(shù)手段,為盲人構(gòu)建工具以完成晚宴的規(guī)劃和設(shè)計。
正是秉持著同樣的目的,她和谷歌團隊、無障礙社區(qū)的伙伴合作,共同搞出了Creatability項目。
在這個項目的幫助下,即便你聽不見,也能參與音樂創(chuàng)作。即便你行動不便,可以對著屏幕動動手指或者腦袋,也能感受到音樂的魅力。
在谷歌的宣傳片中,行動不便人士的笑容真的很燦爛。
這一項目背后的AI動力,主要是谷歌的TensorFlow.js等工具,讓機器學習技術(shù)能夠在瀏覽器中實現(xiàn)。
無論你是老師、學生、研究人員還是藝術(shù)家,都可以參與其中。你可以玩,也可以利用相關(guān)技術(shù),開發(fā)并提交自己創(chuàng)造的項目。
當然前提是你還得有科學的方法才能訪問~