消費(fèi)者為何不信任栩栩如生的AI
盡管像Amazon Alexa這樣的語音助手興起,但人們對(duì)逼真的AI感到不舒服。例如,去年Google推出了Google Assistant的“ Duplex”功能。聽起來不錯(cuò)的AI可以代表用戶撥打簡單的電話,主要用于預(yù)訂餐廳。
AI聽起來太逼真了。呼叫接收者報(bào)告說,Duplex bot感到“蠕動(dòng)”,因?yàn)樗c人類幾乎沒有區(qū)別。這是“不可思議的山谷”或當(dāng)類似人的AI模仿一個(gè)人時(shí)讓人感到陰森恐怖的例子,但似乎并不完全真實(shí)。這種現(xiàn)實(shí)主義上的鴻溝導(dǎo)致了一種排斥和不信任的感覺。
與客戶建立熱烈可信賴的關(guān)系需要只有高端開發(fā)人員才能提供的特殊聯(lián)系。為了使AI獲得未來消費(fèi)者的信任并實(shí)現(xiàn)更好的業(yè)務(wù)成果,開發(fā)人員需要對(duì)不可思議的低谷及其后果有扎實(shí)的了解。
考慮使用AI的企業(yè)應(yīng)在采用AI之前就AI如何影響消費(fèi)者的信任度考慮很多方面。
神秘的內(nèi)部
人工智能的逼真度令人不安,但是這種負(fù)面的情緒反應(yīng)并不是什么新鮮事。看著栩栩如生的娃娃,尸體甚至假肢可以觸發(fā)相同的效果。這是因?yàn)樗罋獬脸恋袢祟愐粯拥奈矬w使我們想起了自己的死亡??苹秒娪昂涂植离娪俺浞掷昧诉@種現(xiàn)象,使圖像太接近舒適。
逼真的AI也令人不安,因?yàn)槿藗兪艿搅松飳W(xué)上的激勵(lì),以避開那些看起來生病,不健康或“虛假”的人。這就是所謂的“避免病原體”,從生物學(xué)上講可以預(yù)防危險(xiǎn)的疾病。逼真的AI似乎幾乎是人類,但幾乎人類還不夠。
人們既不信任也不了解AI
人類已經(jīng)進(jìn)化為控制環(huán)境。結(jié)果,我們不愿將任務(wù)委派給既不被完全理解又不至于故障安全的算法。因此,當(dāng)AI通常無法達(dá)到人類標(biāo)準(zhǔn)時(shí),我們就會(huì)敏銳地意識(shí)到這一點(diǎn)。
例如,Uber的自動(dòng)駕駛汽車尚未能夠在自動(dòng)駕駛中安全運(yùn)行。根據(jù)加州大學(xué)伯克利分校的研究,一種AI住房系統(tǒng)著手向少數(shù)房屋所有者收取更高的住房貸款利率。
即使對(duì)于Google Duplex,用戶也懷疑AI是否能夠正確理解其餐廳預(yù)訂的簡單細(xì)節(jié)。
人工智能被認(rèn)為是不可信任的,因?yàn)闊o論成功有多頻繁,即使失敗了幾次,這些情況仍然存在。盡管便利性很吸引人,但消費(fèi)者在使用該技術(shù)時(shí)仍要求可靠性,控制性和舒適性。
諸如Amazon Alexa之類的語音助手為用戶提供了一種快樂的媒體。AI不太逼真,并且很容易理解如何控制技術(shù)。人們只相信自己的理解。但是像大多數(shù)人一樣,栩栩如生的AI并不為人所知。
區(qū)分和理解信任的關(guān)鍵
為了獲得信任,AI開發(fā)人員和企業(yè)必須確保為用戶提供更舒適的AI體驗(yàn)。最重要的是,這意味著AI應(yīng)該顯得更人性化。
人們希望諸如Google Duplex之類的技術(shù)宣布自己為AI,這將使他們對(duì)這項(xiàng)技術(shù)更加滿意。在視覺上,可以創(chuàng)建AI使其看起來可愛而不是解剖上準(zhǔn)確。如果AI易于與人類區(qū)分開,則人們更可能采用AI。
盡管機(jī)器學(xué)習(xí)算法過于復(fù)雜以至于人類無法理解,但是透明性和可解釋性卻產(chǎn)生了信任。為此,共享有關(guān)AI決策過程的信息可以為機(jī)器學(xué)習(xí)算法的“黑匣子”增光添彩。在一項(xiàng)研究中,如果允許人們對(duì)算法進(jìn)行調(diào)整以使其滿意,那么人們將來更可能信任和使用AI。
這表明控制感和熟悉感是促進(jìn)人們接受逼真的AI的關(guān)鍵。
最后,如果消費(fèi)者不信任企業(yè)的AI系統(tǒng),請(qǐng)回到老式的方式,并使用人工與客戶進(jìn)行交流–并尋求虛擬助手等第三方資源的幫助,以確保任務(wù)不會(huì)繁重。
為何消費(fèi)者不信任栩栩如生的AI
為了向人們開放栩栩如生的AI,公司必須避開不可思議的低谷。需要熟悉,教育和視覺上的區(qū)別,以幫助人們?cè)诜氯思夹g(shù)的出現(xiàn)時(shí)感到舒適。