自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

對人工智能“踩點剎”的六個理由

人工智能
人工智能正在逐漸進入業(yè)務流程。但是首席信息官們應該停下來研究一下人工智能工具的潛在商業(yè)影響——不管影響是好是壞。

人工智能正在逐漸進入業(yè)務流程。但是首席信息官們應該停下來研究一下人工智能工具的潛在商業(yè)影響——不管影響是好是壞。

2017年,人工智能的炒作達到了頂峰,首席信息官、顧問和學者們紛紛宣稱這項技術(shù)可能會將這一切自動化——從商業(yè)和IT運營到客戶聯(lián)絡。然而,在2018年的第一個季度就有幾家媒體報道了人工智能的危險,其中包括培訓計算機執(zhí)行那些往往需要人類智能的任務。

講授認知技術(shù)課程的巴布森學院的杰出教授Thomas Davenport說:“媒體上充斥這么多關(guān)于人工智能的炒作,而這只是記者試圖通過談論消極的一面來擴大宣傳。”

也許是這樣吧,但這些擔憂并不是什么新鮮事兒,而且不會持續(xù)下去,從對種族、性別和其它偏見的恐懼,到失控的自動駕駛的無人機都有可能帶來致命后果。

[[226926]]

在《MIT技術(shù)評論》發(fā)表了一篇題為《當人工智能終于致人死亡時,誰來負責?》的故事的一周后。此文提出了這樣一個問題——如果有一輛自動駕駛的汽車把人撞死,有一輛自動駕駛的優(yōu)步汽車在亞利桑那州撞死一名女子,什么樣的法律適用于這個問題。如他所言,時機決定了一切。

記者會在下文詳細介紹一些有關(guān)人工智能采用的問題,然后是對希望測試該技術(shù)的首席信息官提出的一些建議。

有關(guān)人工智能的六大擔憂

1. 太粗魯了

正如我們從微軟的災難性的聊天機器人Tay事件中了解到的,會話式消息傳遞系統(tǒng)可能是荒謬的,無禮的,甚至是唐突的。首席信息官們必須小心翼翼地對待他們所使用的東西,以及他們使用這些東西的方式。聊天機器人只消有一次唐突的,亂扣帽子的行為就能摧毀品牌的友好形象。

2. 認知不佳

谷歌的人工智能科學家兼斯坦福大學李飛飛教授在《紐約時報》的一篇專欄文章中稱,盡管人工智能是由人類開發(fā)的,但具有諷刺意味的是,人工智能根本不像人類。李飛飛指出,盡管人類的視覺感受高度情境化,但人工智能感知圖像的能力有很大的局限性。

李飛飛說,人工智能程序員可能必須與各領域的專家合作——回歸該領域的學術(shù)根源——縮小人與機器感知之間的差距。

3. 黑匣子難題

有很多企業(yè)想使用人工智能,它包含一些可能提供戰(zhàn)略優(yōu)勢的活動,但金融服務等行業(yè)的公司必須小心翼翼,他們可以解釋人工智能是如何得出其結(jié)論的。房利美(Fannie Mae)的運營兼技術(shù)負責人Bruce Lee說,使用Nest溫控器這樣的產(chǎn)品來管理電費的房主可能會有更多的自由現(xiàn)金流(free cash flow)來償還抵押貸款,這種推斷也許是合乎情理的。但在監(jiān)管機構(gòu)的眼中,讓人工智能具備這樣的資質(zhì)是有問題的。

李飛飛告訴記者:“在你開始著手這種有關(guān)公平借貸的問題時——如何偏倚樣本集,你會否漸漸向使用Nest的人提供更好的抵押貸款利率?人工智能在信貸決策這樣看似明顯的領域的事情中,實際上充斥著要掃清的監(jiān)管障礙,所以我們所做的很多事情都必須進行徹底的回溯測試,以確保我們不會帶來不當?shù)钠校⒋_保這對住房基礎設施是一種凈收益。人工智能必須要解釋得通。”

如果人們不清楚人工智能軟件如何檢測模式并觀察結(jié)果,那么冒著法規(guī)風險的公司就會懷疑機器的可信度。Fox Rothschild律師事務所的技術(shù)實踐聯(lián)合主席Dan Farris說:“情境、道德和數(shù)據(jù)質(zhì)量是影響人工智能的價值和可靠性的問題,特別是在受到高度監(jiān)管的行業(yè)中。在所有受到高度監(jiān)管的行業(yè)部署人工智能都可能會造成合規(guī)性問題。”

4. 民族志,社會經(jīng)濟方面的偏差

斯坦福大學的博士生TimnitGebru在進行一個項目——該項目使用谷歌街景(Google Street View)的汽車圖片來確定所有美國城鎮(zhèn)的人口結(jié)構(gòu)。她對研究中的種族、性別和社會經(jīng)濟偏差感到擔憂。彭博社的報道稱,這一啟示促使Gebru加入微軟,她在那里努力挖掘人工智能的偏差。

即使是人工智能虛擬助理也受到偏差的困擾。你有沒有想過為什么Alexa、Siri和小娜(Cortana)等虛擬助理技術(shù)都是女性角色?客戶服務軟件公司LivePerson的首席執(zhí)行官Rob LoCascio向記者表示:“為什么我們將這些‘助理’技術(shù)定性為女性?就我們對世界和職場女性的期望,這意味著什么?女性本質(zhì)上是‘助手’,她們‘愛嘮叨’,她們扮演行政角色,她們善于接單?”

5. 用于攻擊的人工智能,致命的攻擊

劍橋大學、牛津大學和耶魯大學的25位技術(shù)和公共政策研究人員撰寫的一份長達98頁的報告稱,人工智能的快速發(fā)展意味著這樣的風險——惡意用戶很快就會利用該技術(shù)發(fā)動自動的黑客攻擊,模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機變?yōu)橛嗅槍π缘奈淦鳌?/p>

牛津大學人類未來研究院(Oxford’s Future of Humanity Institute)的研究員Miles Brundage告訴路透社:“我們都贊同人工智能有很多積極的應用。有關(guān)惡意使用問題的文獻中存在一個缺口”?!都~約時報》和Gizmodo也刊登了題為《人工智能的惡意使用:預測、預防和緩解》的報告。

6. 人工智能會把我們變成家貓

接下來是奴役論。以特斯拉和SpaceX聞名遐邇的企業(yè)家埃隆馬斯克(Elon Musk)警告說,人類冒著這樣的風險——變成依賴成性的“家貓”——受具有卓越智能和功能的人工智能奴役。最近,以色列歷史學家Yuval Noah Harari認為,一切自動化的人工智能的出現(xiàn)可能會造成一個“全球無用階級”。在這樣的世界里,民主會受到威脅,因為人類不像機器那樣了解自己。

IT,頑強的IT

Davenport說,一般來說,這些擔憂在很大程度上被夸大了。例如,他說偏差也長期存在于正常分析項目的范圍內(nèi)。Davenport說:“就我所知,從事過分析工作的人都不會否認偏差的存在。Davenport最近寫了一本新書——《人工智能優(yōu)勢,關(guān)于大型企業(yè)采用人工智能的所有事情》,他說,幾家大公司正在認真地測試人工智能。

Davenport說:“如今我們看到很多企業(yè)應用程序,而且我還沒有聽到有人說我們將停止IT計劃”,他補充說,這項技術(shù)仍然不成熟。“明智的公司還在繼續(xù)努力研究這些東西,并且盡力免受媒體搬弄是非的威懾。”

事實上,Gartner的統(tǒng)計指出,IT領導者似乎基本上不受炒作的困擾,因為超過85%的首席信息官將在2020年通過購買,構(gòu)建和外包的方式對人工智能計劃進行試點。雖然Gartner建議首席信息官們在這些領域建立智能的虛擬支持功能——在這些領域里,客戶和公民希望通過基于人工智能的助手進行調(diào)解,但他們還必須與業(yè)務伙伴攜手構(gòu)建數(shù)字化道德戰(zhàn)略。

責任編輯:趙寧寧 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2018-04-24 09:31:08

2020-11-20 14:57:37

人工智能Gartner學習

2023-05-18 10:13:20

人工智能AI

2021-10-09 10:26:14

人工智能IT自動化AI

2019-06-11 14:20:29

人工智能AI

2021-12-07 14:08:45

人工智能AI深度學習

2023-11-16 09:00:00

人工智能

2021-08-16 10:12:51

人工智能AI失敗

2022-09-22 14:33:49

人工智能AI

2018-07-08 23:15:01

AI人工智能銀行業(yè)

2016-07-25 18:10:55

2023-09-28 13:27:40

Tailwind瀏覽器CSS

2019-05-24 11:35:38

人工智能偏見企業(yè)

2021-12-02 10:17:07

Kubernetes公共云云計算

2018-10-05 22:56:43

人工智能AI會話式人工智能

2022-05-24 15:09:13

機器人深度學習人工智能

2018-08-17 15:17:56

人工智能層次極端

2019-03-13 08:30:07

人工智能AI

2017-12-21 09:34:12

工智能誤解

2024-02-22 11:55:43

點贊
收藏

51CTO技術(shù)棧公眾號