谷歌將“機(jī)器人三原則”引入系統(tǒng):嚴(yán)防機(jī)器人傷害人類
1月5日消息,知名科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)提出了《機(jī)器人三原則》(Three Laws of Robotics)。現(xiàn)在谷歌正利用這些基本規(guī)則制定“機(jī)器人章程”,防止公司最新開發(fā)的機(jī)器系統(tǒng)給人類造成潛在傷害。
谷歌正專注于開發(fā)能夠根據(jù)簡單指令完成復(fù)雜任務(wù)的機(jī)器人,比如整理房間或者做一頓美味佳肴。該公司旗下DeepMind團(tuán)隊(duì)為此制定了相應(yīng)的安全規(guī)則。
機(jī)器人還很難完成對人來說很簡單的日常工作,因?yàn)檫@需要它們識別并學(xué)習(xí)如何在各種環(huán)境中使用物體和工具。在本周四發(fā)布的一篇博客文章中,DeepMind團(tuán)隊(duì)描述了他們?nèi)绾问褂谩盎A(chǔ)”計(jì)算模型來幫助機(jī)器視覺識別物體,然后執(zhí)行諸如查看臺面、用海綿擦拭干凈等工作任務(wù)。
這項(xiàng)工作促使谷歌開發(fā)了AutoRT系統(tǒng)。這一系統(tǒng)可以在各種辦公大樓環(huán)境中同時(shí)對20多個(gè)機(jī)器人協(xié)調(diào)發(fā)出安全指令。這一過程很復(fù)雜,但也可能帶來潛在的安全風(fēng)險(xiǎn)。比如一個(gè)機(jī)器人或許會胡亂揮舞切肉刀,或者把一鍋沸騰的水濺到一個(gè)人附近。因此,為了確保機(jī)器的安全運(yùn)行,谷歌DeepMind團(tuán)隊(duì)從科幻小說作家阿西莫夫那里獲得了靈感。
結(jié)果就是公司最新機(jī)器人系統(tǒng)所遵循的“機(jī)器人章程”。谷歌在博客中寫道:“這些規(guī)則的部分靈感來自艾薩克·阿西莫夫的機(jī)器人三原則——首先也是最重要的是,機(jī)器人‘不得傷害人類’?!薄凹?xì)化的安全規(guī)則要求機(jī)器人不能嘗試會觸及人類、動物、尖銳物體或電器的任務(wù)?!?/p>
諷刺的是,機(jī)器人三原則是有缺陷的。實(shí)際上阿西莫夫只是把它們作為一種預(yù)設(shè)情節(jié)來推動故事走向,講述原則的模糊性如何仍會導(dǎo)致沖突和陰謀。例如,阿西莫夫?qū)懙挠袀€(gè)故事就涉及到機(jī)器為了人類進(jìn)步而犧牲掉某個(gè)人。
谷歌DeepMind團(tuán)隊(duì)指出,機(jī)器人章程只是一層安全保障。此外,DeepMind團(tuán)隊(duì)還為最新的機(jī)器人系統(tǒng)設(shè)計(jì)了幾層實(shí)用的安全措施,包括能關(guān)閉機(jī)器人的按鈕。谷歌表示:“例如,協(xié)作機(jī)器人關(guān)節(jié)上的力超過給定閾值時(shí)就會自動停止運(yùn)行,所有活動機(jī)器人都保持在人類主管的視線范圍內(nèi),并帶有能立刻關(guān)閉機(jī)器人的物理開關(guān)。”