到2030年,哪些人工智能應(yīng)用將蓬勃發(fā)展?
幾十年來(lái),人工智能一直被科幻小說(shuō)描繪成一股邪惡力量。想想阿瑟·c·克拉克(ArthurC.Clarke)的《太空奧德賽》(SpaceOdyssey)系列中的主要對(duì)手HAL-9000。但是,盡管人工智能和機(jī)器學(xué)習(xí)的應(yīng)用確實(shí)非常復(fù)雜,并具有潛在的危險(xiǎn),但我個(gè)人的觀點(diǎn)是,在這十年中,人們與這些神經(jīng)技術(shù)最頻繁的接觸將顯得既普通又積極。但有一個(gè)重要的算法應(yīng)用領(lǐng)域需要實(shí)際工作。
首先是良性用途。在這里,我想的是原型已經(jīng)存在的領(lǐng)域:人工智能驅(qū)動(dòng)的活動(dòng),這些活動(dòng)可能會(huì)在這個(gè)十年結(jié)束時(shí)成為常態(tài):會(huì)話商務(wù)、家庭技術(shù)支持、以及自動(dòng)駕駛汽車(chē)。然而,第四個(gè)是機(jī)構(gòu)決策,目前沒(méi)有令人滿意的原型,因此將很難修正。
會(huì)話商務(wù)
這是指語(yǔ)音驅(qū)動(dòng)的銷(xiāo)售活動(dòng),其中自然聲音是客戶的聲音,在供應(yīng)商端與AI驅(qū)動(dòng)的機(jī)器人聲音進(jìn)行交互。它與當(dāng)今的電子商務(wù)模式不同,在該模式中,客戶經(jīng)歷了一系列步驟:訪問(wèn)供應(yīng)商的網(wǎng)站,查看一系列圖片,輸入他們的選擇,鍵入交貨方向,提供信用卡信息,然后確認(rèn)購(gòu)買(mǎi)。取而代之的是,客戶將從訪問(wèn)網(wǎng)站或與智能揚(yáng)聲器交談開(kāi)始。機(jī)器人會(huì)向該人打招呼,詢問(wèn)其如何利用先前的搜索和購(gòu)買(mǎi)知識(shí)來(lái)提供幫助。所有這些都將使用自然語(yǔ)言進(jìn)行。隨著時(shí)間的流逝,人工智能機(jī)器人甚至可以開(kāi)始聯(lián)系,為禮物,重新訂購(gòu)或特殊交易提供建議。我預(yù)計(jì),到下個(gè)十年中,所有商務(wù)中的一半將轉(zhuǎn)向語(yǔ)音技術(shù)。
家庭技術(shù)支持
如今,在家電問(wèn)題上尋求幫助通常是從給OEM的客戶服務(wù)臺(tái)或當(dāng)?shù)胤?wù)中心打電話開(kāi)始的??蛻裘枋隽怂麄兊膯?wèn)題,一名技術(shù)人員被派往家中,問(wèn)題在現(xiàn)場(chǎng)解決。根據(jù)問(wèn)題的不同,可能需要幾天時(shí)間才能解決。然而,在接下來(lái)的幾年里,當(dāng)最初的呼叫發(fā)出時(shí),將會(huì)有一個(gè)全天候的機(jī)器人接聽(tīng)。系統(tǒng)會(huì)指示您使用手機(jī),并將攝像頭對(duì)準(zhǔn)型號(hào)識(shí)別標(biāo)簽、控制設(shè)置、安裝詳細(xì)信息和問(wèn)題。系統(tǒng)將詢問(wèn)您一系列問(wèn)題,以縮小診斷范圍并確定更換部件。然后,您將看到增強(qiáng)現(xiàn)實(shí)增強(qiáng)的教程視頻,使您能夠自己完成大部分服務(wù)。如果失敗,你的電話將被轉(zhuǎn)接給一名人類(lèi)技術(shù)人員,他的建議也將被人工智能系統(tǒng)吸收,并用于改善未來(lái)的服務(wù)呼叫。
自動(dòng)駕駛車(chē)輛
完全自主的汽車(chē)和卡車(chē)已經(jīng)在準(zhǔn)備中,但是為了它們的安全運(yùn)行,人為干預(yù)仍然是必要的。到本世紀(jì)末,情況將不再如此。對(duì)于有問(wèn)題的道路情況,特別是涉及施工、道路危險(xiǎn)、手勢(shì)和魯莽駕駛的情況,自動(dòng)駕駛汽車(chē)和卡車(chē)將學(xué)習(xí)并迅速實(shí)施適當(dāng)?shù)膽?yīng)對(duì)措施。這將使通勤者在行駛中可以自由地做其他事情,緩解商業(yè)司機(jī)短缺,并改變產(chǎn)品交付的格局。他們的隨需應(yīng)變能力也可能影響私人車(chē)輛擁有的模式。
機(jī)構(gòu)決策
人工智能最具挑戰(zhàn)性的應(yīng)用不是那些嵌入數(shù)字設(shè)備中的應(yīng)用,而是嵌入公共和私人機(jī)構(gòu)決策機(jī)制中的應(yīng)用,在這些機(jī)構(gòu)中,人工智能被用來(lái)做出有關(guān)人類(lèi)服務(wù)的決策:獲得貸款、獲得保險(xiǎn)、設(shè)定利率、獲得政府福利的資格,刑事判決、保釋的適用性、工作成功的可能性、接受醫(yī)療保健的資格等等。然而,這些算法的私人開(kāi)發(fā)人員卻小心翼翼地保護(hù)著他們的作品,政府機(jī)構(gòu)也很少透露他們的算法是如何工作的。此外,由于算法會(huì)隨著數(shù)據(jù)的攝入而不斷變化,因此需要專(zhuān)家充分了解算法的工作原理,更不用說(shuō)在法庭上為算法辯護(hù)了。然而,更具破壞性的是,當(dāng)人工智能系統(tǒng)所使用的數(shù)據(jù)集在無(wú)意中對(duì)少數(shù)群體產(chǎn)生偏見(jiàn)時(shí),就像一些人聲稱的警察數(shù)據(jù)那樣,它可以有效地自動(dòng)進(jìn)行歧視。
算法不受道德規(guī)范的指導(dǎo)。雖然他們可以學(xué)習(xí)為好的行為建模,他們也有能力根據(jù)數(shù)據(jù)來(lái)學(xué)習(xí)壞的行為,這些數(shù)據(jù)的偏差會(huì)影響其結(jié)論。然而,人工智能技術(shù)的速度、全面性和成本節(jié)約都太有價(jià)值了,不能一股腦兒拋之腦后。因此,我預(yù)計(jì),在這個(gè)十年的剩余時(shí)間里,新的透明度形式將會(huì)出現(xiàn)。它們將使普通公民及其倡導(dǎo)者能夠更好地理解,并在必要時(shí)挑戰(zhàn)有缺陷的算法,提供一種有意義的檢查,以防范有缺陷的人工智能系統(tǒng)帶來(lái)的潛在危害。