自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

自動駕駛撞死一個人被判無罪,未來的AI世界會好嗎?

人工智能 無人駕駛 CIOAge
2018年3月18日,美國亞利桑那州,一輛配備了安全駕駛員的Uber自動駕駛汽車,撞倒了一位違規(guī)橫穿馬路的行人,后者被送往醫(yī)院,最終不治身亡。一年后,就在大眾輿論快要忘卻這樁悲劇的時候,它有了最新判決結(jié)果。

2018年3月18日,美國亞利桑那州,一輛配備了安全駕駛員的Uber自動駕駛汽車,撞倒了一位違規(guī)橫穿馬路的行人,后者被送往醫(yī)院,最終不治身亡。

一年后,就在大眾輿論快要忘卻這樁悲劇的時候,它有了***判決結(jié)果,當?shù)貦z察官在一封信中稱,Uber在事故中負有刑事責任的指控“沒有依據(jù)”,事故視頻可能并未準確地描述車禍過程,當時車上的安全駕駛員則需進一步調(diào)查。

你可以理解為:這起全球首例無人車致死事故,無人車,無罪。

在post-truth時代,任何公共事件都能成為劃分敵我的分野工具。這次也不例外,判決一出,圍攏在不同利益集團和觀念陣地的旗幟下,人們迅速開始站隊。

有人欣喜于“技術的勝利”。畢竟,是“愚蠢”的人類違規(guī)橫穿馬路在先,技術又有什么錯呢?另外,“愚蠢”的還有安全駕駛員,警方表示,Uber的自動駕駛系統(tǒng)在出事前就發(fā)現(xiàn)了受害者,但因計算機系統(tǒng)的設置問題,計算機控制模式下車輛無法自動啟用緊急剎車,剎車的責任交給了安全駕駛員,但安全駕駛員在事故當晚看了大約42分鐘的“美國好聲音”,她反復低頭,無心關注路面,就在她一次抬頭的半秒鐘后,事故發(fā)生。 

不過,盡管看起來無人車是“無辜”的,但對于判決結(jié)果,也有人感到“不舒服”。畢竟,是人類對機器的信賴,造成了這樁悲劇。這也是為什么,盡管檢方目前判Uber無罪,但美國國家運輸安全委員會仍在對事故進行調(diào)查,Uber也仍有可能遭到挑戰(zhàn)。

面臨挑戰(zhàn)的不只是Uber一家公司,事實上,這樁事故也猶如一記悶棍,再次逼迫所有人思考:人類信任機器的邊界在哪里?

L5可能是個夢

截至目前,全球幾乎沒有太多完善的保險條例和法律權限來規(guī)定無人車的責任,美國40多個州在無人車法規(guī)的制定上莫衷一是,已經(jīng)足以折射出自動駕駛的現(xiàn)實痛點。

首先是技術,最近大眾商用車負責人在接受媒體采訪時表示,實現(xiàn)L5自動駕駛,堪比火星探測。

我覺得他仍然低估了L5的難度。關于自動駕駛的未來,業(yè)內(nèi)一種最極端的說法是:L5或許是一個夢。為什么?因為AI處理不了意外。

數(shù)十年前,AI概念誕生初期,當時的研究者心高氣傲,并不滿足于將機器僅用于計算,他們試圖讓AI完整拷貝人腦的思考過程,讓機器“知其然,也知其所以然”。

但眾所周知,多年以來,人類意識之謎沒有任何實質(zhì)進展,研究者開始收縮野心,重回對“計算”的追尋。如今的機器學習就是一條試圖彎道超車的捷徑,將現(xiàn)實世界以數(shù)據(jù)作為顆粒度呈現(xiàn),再通過神經(jīng)網(wǎng)絡消化數(shù)據(jù),更好地認清這個世界。

以自動駕駛為例,它最基礎的原理就是將人類司機目力所及的一切物體,路人,建筑,其他車……都構建成三維模型,關心它們之間的移動趨勢,估算速度,預測路線,有沖突就剎車或繞路。 

但從邏輯上,這也幾乎意味著,無人車做不到所謂“絕對”的準確性,因為真實的交通是一個復雜生態(tài)系統(tǒng),隨機分布著各種意外。

據(jù)說谷歌自動駕駛就遇到過一些意外:比如,幾個小孩在高速路上玩青蛙;一個殘疾人坐著電動輪椅,在路上追一只鴨子,鴨子繞圈跑,他也繞圈追……面對如此荒誕場景,你很難苛求機器能***預測這些人的軌跡。要知道近些年人工智能領域的一切進步,都可歸為相似的框架:“輸入數(shù)據(jù),生成回應”——換句話說,由過去推導未來,機器沒法預測完全不在它經(jīng)驗范圍內(nèi)的意外。

當然,像小孩玩青蛙,殘疾人追鴨,這種意外想必大多數(shù)人也沒見過,但與機器的“沒見過”不同,因為人類“理解”他們在干嘛,就足以導向正確決策。

這也是現(xiàn)階段安全駕駛員的作用,可惜這次人類自己也失職了。

臨時不想死怎么辦?

除了技術所限,人類將方向盤徹底交給機器,還面臨道德問題。

學者萬維剛在“精英日課”專欄里舉了一個例子:你正以高速開車,突然發(fā)現(xiàn)前方有一群小學生在馬路上打鬧,避讓他們,就只能撞到路邊的建筑物墻上,這意味著你有生命危險,請問在這種情況下,你是選擇撞墻還是撞向小學生? 

我相信有許多人會選擇撞墻,人性光輝,為你點贊——但問題來了,假如自動駕駛系統(tǒng)的初始設置,就是在這種情況下“先確保行人安全”,你作何感想?

可能會覺得“不舒服”,就像萬維剛老師所言:“我犧牲我自己,是我自己的決定。我不能讓汽車替我做決定!萬一我臨時不想死怎么辦?萬一汽車判斷錯了怎么辦?我不想開一輛在某種情況下會犧牲我的車?,F(xiàn)在有很多公司正在研究自動駕駛的道德規(guī)范,Google 甚至還專門聘請了哲學家,但是沒有研究出來什么令人滿意的方案。”

面對人類如此矛盾的物種,也許令人滿意的方案根本就不存在。事實上,只要是出于所謂的自由意志(盡管神經(jīng)科學已基本拋棄了它的存在),人類無論自己做出什么決策,其他人都會感到“事態(tài)可控”,但若同一決策出自AI之手,許多人就會感到巨大的不適。

所以,在危機時刻將決策權交給人類自己,或許是最討巧的選擇——如果時間來得及的話。

人類沒有回頭路

關于自動駕駛,前面潑了兩盆冷水,***灌一碗雞湯。

依我之見,哪怕L5或許是一場幻夢,但自動駕駛本身,委實是一種確定性趨勢。

為什么這么說?原因至少有兩個。

其一當然老生常談,在概率層面,機器犯錯更少,美國交通部長趙小蘭幾乎在每次關于自動駕駛的演講中都要提及:美國持續(xù)增長的交通事故中,有94%是因駕駛員的失誤造成。而全球范圍內(nèi),每行駛20萬英里,人類駕駛員就會出現(xiàn)一次非致命性碰撞;每行駛100萬英里,就會有一名司機喪命。

我重點談一下原因之二,那就是:回溯人類技術演變史,一旦新事物破繭而出,往往就沒有了回頭路,你只能去迭代它,不能消滅它。

舉個最近很熱的例子,大概公元400多年,人類開始使用煙草,而一旦香煙誕生,你覺得它還會從世界上徹底消失嗎?永遠不會。哪怕進入現(xiàn)代,人類若想減少香煙帶給整個社會的負外部性,也只能通過技術而非禁止——比如發(fā)明電子煙。

事實上,縱觀人類文明史,解決技術帶來的問題的方式永遠都是通過更好的技術,忘了是凱文·凱利還是誰說過:“即使新的科技發(fā)明帶來的49%是問題,但它同時也帶來了51%的好處,差別就在于這2%,2%很少,但人類需要這2%,通過一年年積累產(chǎn)生強大影響力。所以,即便新發(fā)明帶來的好處只比問題多一點,這一點就是人類進步的動力。”

自動駕駛更是如此,Uber的事故只是放緩了他們自己的研發(fā)速度,并未阻礙全球自動駕駛產(chǎn)業(yè)猛踩油門,這個世界上但凡有能力的國家和企業(yè),都已全部聚齊在自動駕駛的漫長賽道上,并且都試圖率先達成技術迭代,用戶習慣,輿論環(huán)境,基礎設施等諸多方面的動態(tài)均衡。

所以你說,今天自動駕駛撞死了一個人,被判無罪,那么未來的AI世界會好嗎?

我的回答是:除了選擇相信“會”,還能怎么樣呢?

命運自有時間表。一百多年前,人類一旦發(fā)明汽車,馬車所代表的田園牧歌,就只能成為一曲挽歌;一百多年后亦是如此,從汽車與信息文明相遇的那一瞬間,一切悲喜就已不可避免。

責任編輯:未麗燕 來源: 品途商業(yè)評論
相關推薦

2015-06-12 15:29:06

一個人的爆品

2020-10-13 18:51:11

自動駕駛人工智能技術

2013-08-14 10:23:22

創(chuàng)業(yè)個人創(chuàng)業(yè)互聯(lián)網(wǎng)創(chuàng)業(yè)

2013-03-08 02:52:03

個人開發(fā)項目糾錯

2015-09-24 14:12:34

醫(yī)療大數(shù)據(jù)數(shù)據(jù)化

2011-06-16 14:21:43

習慣管理

2019-11-25 09:55:34

自動駕駛人工智能無人駕駛

2025-03-07 09:18:10

2013-06-07 10:42:53

2022-01-18 10:51:09

自動駕駛數(shù)據(jù)人工智能

2018-02-01 17:31:35

微信

2022-04-12 09:21:50

AIPython自動駕駛

2017-07-13 12:33:15

戴爾

2009-02-26 10:19:56

2020-12-25 16:13:20

AI倫理人工智能機器人

2022-11-10 09:28:40

框架開發(fā)

2014-05-29 10:43:29

斯諾登棱鏡監(jiān)聽

2009-09-27 16:04:49

CCIE資格

2012-05-29 09:22:50

游戲設計開發(fā)

2013-11-12 09:37:30

點贊
收藏

51CTO技術棧公眾號