自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

讓AI做決策,我們的社會(huì)準(zhǔn)備好了嗎?

人工智能
隨著技術(shù)的加速發(fā)展,人工智能(AI)在決策過(guò)程中發(fā)揮著越來(lái)越重要的作用。人類(lèi)越來(lái)越依賴(lài)算法來(lái)處理信息、推薦某些行為,甚至代表他們采取行動(dòng)。

?隨著技術(shù)的加速發(fā)展,人工智能(AI)在決策過(guò)程中發(fā)揮著越來(lái)越重要的作用。人類(lèi)越來(lái)越依賴(lài)算法來(lái)處理信息、推薦某些行為,甚至代表他們采取行動(dòng)。

但是,如果真的讓 AI 幫助、甚至代替我們來(lái)做決策,尤其是涉及主觀的、道德倫理相關(guān)的決策,你能接受嗎?

近日,一個(gè)來(lái)自廣島大學(xué)的研究小組探究了人類(lèi)對(duì)引入人工智能決策的反應(yīng)。具體來(lái)說(shuō),他們通過(guò)研究人類(lèi)與自動(dòng)駕駛汽車(chē)的互動(dòng),探討了一個(gè)問(wèn)題:“社會(huì)準(zhǔn)備好接受人工智能道德決策了嗎?”

該團(tuán)隊(duì)于 2022 年 5 月 6 日在 Journal of Behavioral and Experimental Economics 上發(fā)表了他們的發(fā)現(xiàn)。

在第一個(gè)實(shí)驗(yàn)中,研究人員向 529 名人類(lèi)受試者展示了駕駛員可能面臨的道德困境。在研究人員創(chuàng)建的場(chǎng)景中,汽車(chē)駕駛員必須決定是將汽車(chē)撞向一群人還是另一群人,而且碰撞是不可避免的。也就是說(shuō),事故將對(duì)一組人造成嚴(yán)重傷害,但會(huì)挽救另一組人的生命。

實(shí)驗(yàn)中的人類(lèi)受試者必須對(duì)汽車(chē)駕駛員的決定進(jìn)行評(píng)分,駕駛員有可能是人類(lèi),也有可能是人工智能。以此,研究人員旨在衡量人們可能對(duì)人工智能道德決策產(chǎn)生的偏見(jiàn)。

在他們的第二個(gè)實(shí)驗(yàn)中,563 名人類(lèi)受試者回答了研究人員提出的一些相關(guān)問(wèn)題,以確定人們對(duì)AI在成為社會(huì)的一部分后,對(duì)人工智能倫理決策有何反應(yīng)。

在這個(gè)實(shí)驗(yàn)中,有兩種情況。其中一個(gè)涉及一個(gè)假設(shè)的政府,該政府已經(jīng)決定允許自動(dòng)駕駛汽車(chē)做出道德決定;另一個(gè)場(chǎng)景允許受試者“投票”是否允許自動(dòng)駕駛汽車(chē)做出道德決定。在這兩種情況下,受試者都可以選擇支持或反對(duì)技術(shù)做出的決定。

第二個(gè)實(shí)驗(yàn)旨在測(cè)試將人工智能引入社會(huì)的兩種替代方式的效果。

研究人員觀察到,當(dāng)受試者被要求評(píng)估人類(lèi)或人工智能駕駛員的道德決定時(shí),他們對(duì)兩者都沒(méi)有明確的偏好。然而,當(dāng)受試者被問(wèn)及是否應(yīng)該允許人工智能在道路上做出道德決定的明確意見(jiàn)時(shí),受試者對(duì)人工智能駕駛的汽車(chē)有更強(qiáng)烈的意見(jiàn)。

研究人員認(rèn)為,這兩個(gè)結(jié)果之間的差異是由兩種因素共同造成的。

第一個(gè)要素是,很多人認(rèn)為整個(gè)社會(huì)不希望人工智能做與倫理道德相關(guān)的決策,因此當(dāng)被問(wèn)及對(duì)此事的看法時(shí),他們會(huì)被自己的觀念所影響?!?/p>

事實(shí)上,當(dāng)參與者被明確要求將他們的答案與社會(huì)的答案區(qū)分開(kāi)來(lái)時(shí),人工智能和人類(lèi)司機(jī)之間的差異就會(huì)消失?!睆V島大學(xué)人文社會(huì)科學(xué)研究生院助理教授 Johann Caro-Burnett 說(shuō)。

第二個(gè)要素是,在將這項(xiàng)新技術(shù)引入社會(huì)時(shí),是否允許討論該相關(guān)話題的結(jié)果,因國(guó)家而異?!霸谌藗冃湃握碛袕?qiáng)大政府機(jī)構(gòu)的地區(qū),信息和決策權(quán)有助于受試者評(píng)估人工智能道德決策的方式。相比之下,在人們不信任政府且制度薄弱的地區(qū),決策能力惡化了受試者評(píng)估人工智能道德決策的方式?!盋aro-Burnett 說(shuō)。“

我們發(fā)現(xiàn),社會(huì)對(duì) AI 道德決策存在恐懼。然而,這種恐懼的根源并不是個(gè)人所固有的。事實(shí)上,這種對(duì)人工智能的拒絕來(lái)自個(gè)人認(rèn)為是社會(huì)的看法?!睆V島大學(xué)人文社會(huì)科學(xué)研究生院教授 Shinji Kaneko 說(shuō)。

圖片

圖 | 平均而言,人們對(duì) AI 駕駛員的道德決策的評(píng)價(jià)與人類(lèi)駕駛員的評(píng)價(jià)沒(méi)有區(qū)別。但是,人們并不想讓人工智能在路上做出道德決定

因此,當(dāng)沒(méi)有被明確詢(xún)問(wèn)時(shí),人們不會(huì)表現(xiàn)出任何對(duì)人工智能道德決策有偏見(jiàn)的跡象。然而,當(dāng)被明確詢(xún)問(wèn)時(shí),人們表現(xiàn)出對(duì)人工智能的厭惡。此外,在增加了關(guān)于該主題的討論和信息的情況下,人工智能的接受度在發(fā)達(dá)國(guó)家有所提高,而在發(fā)展中國(guó)家則惡化。

研究人員認(rèn)為,這種對(duì)新技術(shù)的拒絕,主要是由于個(gè)人對(duì)社會(huì)意見(jiàn)的信念,很可能適用于其他機(jī)器和機(jī)器人。“因此,重要的是要確定個(gè)人偏好如何匯總為一種社會(huì)偏好。此外,正如我們的結(jié)果所表明的那樣,這類(lèi)結(jié)論在各國(guó)之間也必須有所不同?!盞aneko 說(shuō)。?

責(zé)任編輯:華軒 來(lái)源: 學(xué)術(shù)頭條 學(xué)術(shù)頭條
相關(guān)推薦

2014-06-04 12:50:43

轉(zhuǎn)型IT轉(zhuǎn)型

2021-05-10 14:30:18

智慧城市物聯(lián)網(wǎng)

2011-05-25 10:15:47

開(kāi)源

2015-06-24 16:03:24

大數(shù)據(jù).SAS

2010-08-25 15:49:04

面試

2019-05-20 10:28:29

IIoT邊緣計(jì)算物聯(lián)網(wǎng)設(shè)備

2016-05-31 16:50:33

2011-05-25 17:08:29

ibmdwLinux

2015-10-15 17:11:47

賽思股份

2017-08-08 09:08:03

企業(yè)對(duì)象存儲(chǔ)

2018-11-07 10:24:25

AI硬件企業(yè)

2020-04-23 16:00:37

人工智能金融數(shù)據(jù)

2020-05-08 10:34:21

人工智能金融數(shù)據(jù)

2020-05-08 12:10:43

人工智能AI金融業(yè)

2015-01-07 10:45:05

Dockerkubernetescontain

2013-01-28 16:51:45

2015-10-19 16:51:01

2018-10-11 17:43:15

人臉識(shí)別人工智能AI

2012-12-03 11:15:36

開(kāi)源KVMLinux

2020-03-26 17:28:22

CIO觀點(diǎn)MES系統(tǒng)制造企業(yè)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)