Aipoly:為世界上的近三億人構(gòu)筑虛擬的現(xiàn)實(shí)世界
你是否曾有想過,當(dāng)我們在追求電子產(chǎn)品日新月異的時(shí)候,世界上還有 2.85 億人視障人士,他們是在怎么使用著智能手機(jī)?
我身邊就有這樣一位朋友,他有著視覺障礙,但卻在日常生活中熟練使用著 iPhone,通過與我微信交流,發(fā)朋友圈,在我見到他之前,幾乎無法相信他是一個(gè)看不見現(xiàn)實(shí)世界的人。
「只要把我當(dāng)做與你們一樣的正常人就好,」我還記得他說過這樣一句話。這一切都多虧了 iOS 系統(tǒng)中的 Accessibility(輔助功能),對于正常人來說它可能就是一個(gè)小圓點(diǎn),而對于殘障人士來說,這是一套從視覺、聽覺與物理動(dòng)作設(shè)計(jì)的智能手機(jī)使用的完整解決方案。
那位朋友告訴我,通過 VoiceOver 與 Speak Screen,他可以像我一樣正常使用手機(jī),它會(huì)通過語音告訴你地圖里定位的具體位置,甚至照片的時(shí)間地點(diǎn)拍攝環(huán)境。
Accessibility 幫助視障人士認(rèn)識數(shù)字世界,而誰來幫他們看清現(xiàn)實(shí)世界,最近有一個(gè)詞頻繁出現(xiàn)在視野中,那就是 Aipoly。
Aipoly 來自 Alberto Rizzoli、Marita Cheng 與一幫 Singularity University(奇點(diǎn)大學(xué))技術(shù)團(tuán)隊(duì)的合作項(xiàng)目,前者都在致力利用 AI 來解決社會(huì)問題的領(lǐng)域有著多年積累。
「我們將所了解到的神經(jīng)網(wǎng)絡(luò)系統(tǒng)集成在這個(gè) app 中,用戶對著需要識別的圖像,按下一個(gè)按鈕,便會(huì)收到語音信息,這是最簡單的操作。」Alberto Rizzoli 講道。
Aipoly 工作原理便是分析圖片的各個(gè)部分,并通過反向圖片搜索,確定物體的名稱(如「狗」、「汽車」)以及形容詞(如「銀色」、「閃閃發(fā)亮的」)。最重要的地方在于,AI 會(huì)理解分解圖像后的信息,將其組合并轉(zhuǎn)化成音頻轉(zhuǎn)達(dá)給用戶(如「閃閃發(fā)亮的銀色汽車」)。
這仍是一個(gè)處于實(shí)驗(yàn)階段的技術(shù),盡管它已經(jīng)可以識別數(shù)百個(gè)物體與顏色,不斷自主學(xué)習(xí),變得更聰明,并且已經(jīng)上架了 App Store 提供公開下載。
Alberto Rizzoli 表示 Aipoly 一旦完善,視障人士可以使用它識別一盤食物里分別有什么,或者解讀一張照片里人物的穿衣打扮。
Aipoly的野心很大,他們設(shè)想利用它來創(chuàng)造為視障人士設(shè)計(jì)的「Google 街景」,「我們可以建造一個(gè)現(xiàn)實(shí)世界的虛擬模型,這樣用戶就不必持續(xù)掃描他們周圍的環(huán)境?!惯@聽起來像是一個(gè)宏偉的計(jì)劃。
不得不承認(rèn),我們確實(shí)在很長一段時(shí)間忽略了視障人士的電子消費(fèi)需求,在過去的 10 年,我們在圖像識別上的技術(shù)已經(jīng)獲得了不少突破,未來的幾年則會(huì)變得更加精確。
而 Alberto Rizzoli 認(rèn)為這 2.85 億人將會(huì)為接下來幾年的智能手機(jī),甚至 VR 市場注入更多的活力。Google 在這一領(lǐng)域一直走在前沿,同時(shí) Aipoly 也正在申請獲得來自 Google 的經(jīng)費(fèi)支持。