科學(xué)家正開發(fā)像人類一樣會(huì)“思考”的人工智能
創(chuàng)造類似人類的人工智能不僅僅是模仿人類的行為--技術(shù)也必須能夠像人類一樣處理信息,或"思考",如果它要被完全依賴的話。由格拉斯哥大學(xué)心理學(xué)和神經(jīng)科學(xué)學(xué)院領(lǐng)導(dǎo)的發(fā)表在《模式》雜志上的新研究,使用 3D 建模來(lái)分析深度神經(jīng)網(wǎng)絡(luò)處理信息的方式,也就是更廣泛的機(jī)器學(xué)習(xí)家族的一部分,以可視化它們的信息處理如何與人類相匹配。
人們希望這項(xiàng)新工作將為創(chuàng)造更可靠的人工智能技術(shù)鋪平道路,這種技術(shù)將像人類一樣處理信息,并出現(xiàn)我們可以理解和預(yù)測(cè)的錯(cuò)誤。人工智能發(fā)展仍然面臨的挑戰(zhàn)之一是如何更好地理解機(jī)器的思維過程,以及它是否與人類處理信息的方式相匹配,以確保準(zhǔn)確性。深度神經(jīng)網(wǎng)絡(luò)經(jīng)常被認(rèn)為是目前人類決策行為的最佳模型,在一些任務(wù)中達(dá)到甚至超過人類的表現(xiàn)。然而,即使是欺騙性的簡(jiǎn)單視覺辨別任務(wù),與人類相比,人工智能模型也會(huì)顯示出明顯的不一致和錯(cuò)誤。
目前,深度神經(jīng)網(wǎng)絡(luò)技術(shù)被用于人臉識(shí)別等應(yīng)用,雖然它在這些領(lǐng)域非常成功,但科學(xué)家們?nèi)匀粵]有完全理解這些網(wǎng)絡(luò)是如何處理信息的,因此何時(shí)可能出現(xiàn)錯(cuò)誤。
在這項(xiàng)新的研究中,研究小組通過對(duì)深度神經(jīng)網(wǎng)絡(luò)得到的視覺刺激進(jìn)行建模,以多種方式進(jìn)行轉(zhuǎn)換,從而解決了這一問題,他們可以通過處理人類和人工智能模型之間類似的信息來(lái)證明識(shí)別的相似性。
該研究的資深作者、格拉斯哥大學(xué)神經(jīng)科學(xué)與技術(shù)研究所所長(zhǎng) Philippe Schyns 教授說。"在建立行為"像"人類的人工智能模型時(shí),例如,只要看到一個(gè)人的臉,就能像人類一樣識(shí)別出來(lái),我們必須確保人工智能模型使用與另一個(gè)人相同的信息來(lái)識(shí)別它。如果人工智能不這樣做,我們可能會(huì)有這樣的錯(cuò)覺,即該系統(tǒng)的工作方式與人類一樣,但隨后發(fā)現(xiàn)它在一些新的或未經(jīng)測(cè)試的情況下會(huì)出錯(cuò)。"
研究人員使用了一系列可修改的 3D 面孔,并要求人類對(duì)這些隨機(jī)生成的面孔與四個(gè)熟悉身份的相似性進(jìn)行評(píng)分。然后他們用這些信息來(lái)測(cè)試深度神經(jīng)網(wǎng)絡(luò)是否出于同樣的原因做出了同樣的評(píng)價(jià)--不僅測(cè)試人類和人工智能是否做出了同樣的決定,而且還測(cè)試它是否基于同樣的信息。研究人員希望這項(xiàng)工作將為更可靠的人工智能技術(shù)鋪平道路,使其行為更像人類,并減少不可預(yù)知的錯(cuò)誤。