自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

為AI指引正確方向

人工智能
在過去的一年里,我曾與數(shù)百位客戶面談,討論 AI 如何改變了他們對事物可能性的認(rèn)識。我們討論了如何通過算法應(yīng)用實現(xiàn)智能分診,從而減少醫(yī)護人員的工作量;如何實現(xiàn)準(zhǔn)確的語言翻譯,從而將記者與全球各地的觀眾聯(lián)系在一起;如何實現(xiàn)自動響應(yīng)常見請求,從而減少客戶服務(wù)等待時間。

在過去的一年里,我曾與數(shù)百位客戶面談,討論 AI 如何改變了他們對事物可能性的認(rèn)識。我們討論了如何通過算法應(yīng)用實現(xiàn)智能分診,從而減少醫(yī)護人員的工作量;如何實現(xiàn)準(zhǔn)確的語言翻譯,從而將記者與全球各地的觀眾聯(lián)系在一起;如何實現(xiàn)自動響應(yīng)常見請求,從而減少客戶服務(wù)等待時間。我們能夠應(yīng)用 AI 幫助客戶解決如此之多的業(yè)務(wù)問題,這著實令我感到驚訝,但這些客戶也在一定程度上表達了對 AI 的猶疑和擔(dān)心。

在這項技術(shù)的幫助下,我們實現(xiàn)了很多超乎想象的事情,但這同時也有可能帶來意料之外的后果。我們有許多客戶都在問:我們?nèi)绾尾拍軓?AI 中獲益同時又避免其帶來的挑戰(zhàn)? 

為AI指引正確方向
NCSA Mosaic 網(wǎng)絡(luò)瀏覽器,發(fā)布于 1993 年

 

為便于從討論中得出正確的觀點,我經(jīng)常會從上面這張圖片說起。這是在 1993 年面世的 Mosaic 網(wǎng)絡(luò)瀏覽器,在我看來,2018 年 AI 技術(shù)的現(xiàn)況就好比當(dāng)年的 Mosaic 網(wǎng)絡(luò)瀏覽器。與上世紀(jì) 90 年代中期的網(wǎng)絡(luò)技術(shù)類似,現(xiàn)時的 AI 正經(jīng)歷著從學(xué)術(shù)領(lǐng)域到主流技術(shù)的快速轉(zhuǎn)變。互聯(lián)網(wǎng)革命讓我們受益良多,但同時也給我們帶來了諸多風(fēng)險,我們有責(zé)任考慮擺在我們面前的各種可能性。畢竟,像電子郵件和短信等技術(shù)讓我們很輕松就能保持聯(lián)系,要看到這一點并不難,但要想象這類技術(shù)在惡意軟件和網(wǎng)絡(luò)霸凌等現(xiàn)象蔓延中所起的作用卻不那么容易。

相較網(wǎng)絡(luò)技術(shù)發(fā)展早期時產(chǎn)生的問題,未來十年我們可能會遇到更加復(fù)雜棘手的挑戰(zhàn),但我們的客戶如此熱切地主動迎接挑戰(zhàn),讓我備受鼓舞。事實上,同樣的問題往往會反復(fù)出現(xiàn):

  • 不公平的偏見:我們?nèi)绾文軌虼_定我們的機器學(xué)習(xí)模型對每位用戶一視同仁?
  • 可解釋性:我們?nèi)绾文軌蜃?AI 更加透明,從而更好地理解它的建議?
  • 改變員工:我們?nèi)绾文軌蜇撠?zé)任地利用自動化技術(shù)的力量,同時確?,F(xiàn)在的員工為未來做好準(zhǔn)備?
  • 正確利用:最后,我們?nèi)绾文軌虼_定我們正在將 AI 用于正途?

不公平的偏見

我們很容易認(rèn)為算法是客觀的,而且絕對可靠,但事實是,機器學(xué)習(xí)模型的可靠性有賴于訓(xùn)練模型時使用的數(shù)據(jù)。此外,由于負責(zé)尋找、組織和標(biāo)記這些數(shù)據(jù)的都是人類,因此即便是最輕微的不規(guī)范行為,也很容易在結(jié)果中造成重大差異。更糟糕的是,算法的執(zhí)行速度遠非人類所能及,再加上是在全球范圍內(nèi)執(zhí)行,因此不公平的偏見不僅被重復(fù),而且還有所擴大。

雖然不公平的偏見可能是蓄意偏見的產(chǎn)物,但我們的盲點卻發(fā)揮著更普遍的作用。例如,我們往往會被能夠證實自己信念的人和觀點所吸引,而對置疑我們信念的人和觀點,則容易回避。這種現(xiàn)象被稱為證實性偏見,它甚至可以扭曲最有善意的開發(fā)者的看法。

此外,由于我們身邊已經(jīng)發(fā)現(xiàn)有不公平的偏見,因此即便是如實收集的數(shù)據(jù),也可以反映這種偏見。例如,大量的歷史文本經(jīng)常用于訓(xùn)練涉及自然語言處理或翻譯的機器學(xué)習(xí)模型,如不改正,可能會使這種有害的成見持續(xù)下去。Bolukbasi 等人的開創(chuàng)性研究以令人震驚的清晰度量化了這一現(xiàn)象,證明統(tǒng)計語言模型能夠非常輕松地 “學(xué)習(xí)” 關(guān)于性別的過時假設(shè),例如 “醫(yī)生” 是 “男性”,“護士” 是 “女性”。與此相似的嵌入性偏見問題在種族方面也有體現(xiàn)。

我們正在多個領(lǐng)域處理這些問題,其中以感知領(lǐng)域最為重要。為了促進人們更廣泛地理解公平對于機器學(xué)習(xí)等技術(shù)的必要性,我們創(chuàng)建了教育資源,例如 ml-fairness.com,并在 ML 教育速成課程中新近推出公平性模塊。

我們還看到一種鼓舞人心的趨勢,即借助文檔記錄來更好地理解機器學(xué)習(xí)解決方案中的內(nèi)容。今年早些時候,研究人員提出了一種記錄數(shù)據(jù)集的正式方法,這種方法特別適用于數(shù)據(jù)集包含以人為中心的信息或人口統(tǒng)計敏感信息的情況。以此觀點為基礎(chǔ),Google 的研究人員提出了 “模型卡片”,這是一種用于描述機器學(xué)習(xí)模型的目標(biāo)、假設(shè)、性能指標(biāo)、甚至倫理道德考量的標(biāo)準(zhǔn)化格式。一目了然,模型卡片旨在幫助開發(fā)者(無論是否有 ML 專業(yè)知識)在掌握信息的情況下決定負責(zé)任地使用給定組件。

當(dāng)然,我們一直致力于為開發(fā)者提供值得信賴的工具,在挑戰(zhàn)偏見方面也是一樣。首先從嵌入式文檔開始,例如包容性 ML 指南,我們將該指南集成在 AutoML 中,并擴展到類似 TensorFlow Model Analysis (TFMA) 和 What-If Tool 等工具,該指南為開發(fā)者提供所需的分析數(shù)據(jù),使其確信他們的模型會公平對待所有用戶。TFMA 可以輕松將模型在用戶群體的不同環(huán)境、特征和子集下的性能表現(xiàn)可視化,而 What-If 支持開發(fā)者輕松運行反設(shè)事實,闡明關(guān)鍵特征(例如給定用戶的人口屬性)逆轉(zhuǎn)時可能會發(fā)生的情況。這兩個工具都可以提供沉浸式互動方法,用于詳細探索機器學(xué)習(xí)行為,幫助您識別公平性和代表性方面的失誤。

最后,我們計劃通過數(shù)據(jù)科學(xué)平臺 Kaggle 充分發(fā)揮社區(qū)的力量。我們最近推出的包容性圖像挑戰(zhàn)賽主要解決圖像訓(xùn)練集中地理多樣性偏差的問題,這一問題導(dǎo)致分類器經(jīng)常難以描述來自代表人數(shù)不足地區(qū)的人。參賽者面臨的挑戰(zhàn)是構(gòu)建能夠在無需整合新數(shù)據(jù)的前提下更好地在不同地理環(huán)境間進行泛化的模型,從而打造出更加包容、可靠的工具,以便更好地為全球用戶群提供服務(wù)。在此項任務(wù)中取得的進展將應(yīng)用于其他領(lǐng)域,我們對此很樂觀,同時也很高興在 2018 年的神經(jīng)信息處理系統(tǒng)大會上展示這些成果。

對于目前采取的這些做法,我們深感自豪,我相信這些知識和我們正在開發(fā)的工具具有深遠的意義,必將促進 AI 技術(shù)的公平性。但沒有一家公司能夠獨自解決如此復(fù)雜的問題。這場對抗不公平偏見的斗爭將是一次集體行動,由許多利益相關(guān)者的投入共同推動,我們會傾聽多方意見。世界不斷變化,我們也將繼續(xù)學(xué)習(xí)。

可解釋性

AI 如何能夠真正贏得我們的信任?這屬于一個更基本的問題,但其緊迫性絲毫不亞于應(yīng)對不公平偏見的挑戰(zhàn)。隨著機器學(xué)習(xí)在決策領(lǐng)域發(fā)揮的作用越來越大(這曾經(jīng)是人類的專屬領(lǐng)域),答案將越來越多地依靠一個關(guān)鍵因素:可說明性。

許多深度學(xué)習(xí)算法自誕生起就一直被人們視作 “神秘黑匣” 般的存在,這是因為就連它們的創(chuàng)造者也難以準(zhǔn)確表達輸入和輸出之間究竟發(fā)生了什么。如果我們繼續(xù)把 AI 當(dāng)作 “神秘黑匣” 看待,那我們就不能指望得到人們的信任,因為信任源自了解。對于傳統(tǒng)軟件,我們可以通過逐行檢查源代碼來揭示其中的邏輯,但神經(jīng)網(wǎng)絡(luò)是一個通過暴露在數(shù)千乃至數(shù)百萬個訓(xùn)練示例中而形成的密集連接網(wǎng)絡(luò),所以結(jié)果只能是折衷一下,取靈活性而損直觀解釋性。

隨著最佳實踐的建立,成套工具的增多,再加上大家都在努力從開發(fā)周期伊始就獲得可解釋的結(jié)果,我們這方面的工作正在不斷取得進展。事實上,在今年早些時候發(fā)布構(gòu)建負責(zé)任的 AI 系統(tǒng)的原則之時,我們就已將可解釋性列為四大基礎(chǔ)支柱之一。

目前,我們看到業(yè)界已經(jīng)在現(xiàn)實中考慮可解釋性這一問題。例如,在圖像分類領(lǐng)域,Google AI 最近的研究演示了一種表現(xiàn)人性化概念的的方法,例如條紋狀皮毛或卷發(fā),然后在給定圖像中量化這些概念的普遍性。由此產(chǎn)生的分類器能夠根據(jù)對人類用戶最有意義的特點來清楚表達其推理過程。例如,它可能將圖像歸類為 “斑馬”,部分原因在于 “條紋” 特征較明顯,而 “圓點花紋” 特征相對不夠明顯。實際上,研究人員正在試驗將這種方法應(yīng)用于糖尿病視網(wǎng)膜病變的診斷,它可以使輸出更加透明,當(dāng)專家不同意模型的推理時,甚至允許對模型進行調(diào)整。

改變員工

無可否認(rèn),我們與工作的關(guān)系正在發(fā)生變化,我們有許多客戶都想知道應(yīng)該如何平衡自動化技術(shù)的潛力與員工的價值。

不過,我認(rèn)為自動化技術(shù)的未來并非一場零和游戲。PWC 最近的一份報告顯示,67% 的高管認(rèn)為通過人工智能和人類智能相結(jié)合,AI 將助推人類和機器協(xié)同工作,發(fā)揮更強大的作用。

另外,我們必須記往一點,工作很少會是單一的。大多數(shù)工作都是由無數(shù)不同任務(wù)組成,從高度創(chuàng)新到重復(fù)性任務(wù),每一項任務(wù)都會在特定程度上受到自動化的影響。例如,在放射醫(yī)學(xué)中,算法發(fā)揮著輔助作用,通過自動評估簡單常見的癥狀,讓人類專家可以集中精力應(yīng)對更具挑戰(zhàn)性的任務(wù),同時更快、更持續(xù)地工作。

然而,某些類別的工作面對的變化要比其他工作更加緊迫,并且要做出更多努力才能緩和這種轉(zhuǎn)變。為此,Google.org 拿出了 5,000 萬美元的資金,用于支持非盈利組織從三大方面為未來的工作做好準(zhǔn)備:

  • 提供終身培訓(xùn)和教育,讓工人能夠滿足工作要求
  • 根據(jù)技能和經(jīng)驗,將潛在員工與理想的工作機會聯(lián)系起來
  • 為從事低收入工作的工人提供支持

當(dāng)然,這只是第一步,我們期待在未來幾年中為越來越多的類似舉措提供支持。

正確利用

最后,還有一個最重要的問題:“如何能夠確定我正在運用 AI 給人們的生活帶來積極影響?”

這是一個很難回答的問題,由于我們傾向于關(guān)注 AI 在極端情況下的行為,因此回答這一問題變得更加困難。例如,采用倫敦動物學(xué)會的做法,使用 AutoML 以低成本方式監(jiān)控瀕危物種,這無疑是一個好方法,幾乎沒人會否認(rèn)這點。我們也親眼目睹 Google 的開源機器學(xué)習(xí)框架 TensorFlow 如何幫助 Rainforest Connection 對抗非法森林采伐,幫助農(nóng)民識別患病植株,以及預(yù)測發(fā)生森林大火的可能性。此外,我們的 AI 造福社會 (AI for Social Good) 計劃最近宣布撥款 2,500 萬美元,用于資助以解決人道主義和環(huán)境挑戰(zhàn)為目標(biāo)的 AI 研究。 我們的變革應(yīng)對數(shù)據(jù)解決方案 (Data Solutions for Change) 計劃將繼續(xù)幫助非盈利組織和 NGO(非政府組織)利用目標(biāo)導(dǎo)向分析來應(yīng)對失業(yè)問題,檢測阿茲海默癥,創(chuàng)建更多可持續(xù)的食品系統(tǒng)以及優(yōu)化社區(qū)規(guī)劃。

但是,這里有一個巨大的 “灰色" 地帶,特別是像 AI 武器這種有爭議的領(lǐng)域,這個 “灰色” 地帶就是我們在 AI 原則中所述決定不去追尋的技術(shù)應(yīng)用領(lǐng)域。在具有爭議的用例可能性方面,我們的客戶認(rèn)為自己身處各種不同境地,希望我們能夠幫助他們徹底想清楚 AI 對其業(yè)務(wù)的意義。

我們正在與客戶和產(chǎn)品團隊合作,共同解決這些領(lǐng)域的問題。關(guān)于這個問題,為了能夠掌握資訊并帶來更多外部視角,我們尋求了技術(shù)倫理學(xué)家 Shannon Vallor 的幫助(她為 Cloud AI 提供咨詢),請她協(xié)助我們理解這個不斷發(fā)展的 “灰色” 地帶,以及我們的工作該如何融入其中。 從內(nèi)部的 AI 倫理最佳實踐教育計劃到 AI 原則落實方面的咨詢建議,她從專家視角為 Cloud AI 介紹了如何通過倫理設(shè)計、分析和決策來引領(lǐng)這項技術(shù)的發(fā)展。例如,倫理設(shè)計原則可以用于幫助我們構(gòu)建更加公平的機器學(xué)習(xí)模型。審慎的倫理分析能夠幫助我們了解視覺技術(shù)的哪些潛在用途是不恰當(dāng)、有害或具侵入性的。倫理決策實踐可以幫助我們更好地推理具有挑戰(zhàn)性的兩難困境和復(fù)雜的價值權(quán)衡,例如是否在 AI 應(yīng)用中將透明度或隱私放在優(yōu)先位置,更多的透明度意味著更少的隱私,反之亦然。

共同打造 AI 的未來

對于前方的所有不確定因素,有一件事非常清楚:構(gòu)建 AI 的未來,所需要的遠不只是技術(shù)。這需要我們共同努力,同樣有賴于工具、信息,以及對世界產(chǎn)生積極影響的共同愿望。

正因此,這并非一份宣言,而是一場對話。雖然我們渴望分享多年來在技術(shù)最前沿學(xué)到的知識,但沒有人比您更了解您客戶的需求,而且這兩種視角都將在構(gòu)建公平、負責(zé)任和值得信賴的 AI 中發(fā)揮至關(guān)重要的作用。畢竟,每個行業(yè)都在面臨自己的 AI 革命,因此,就引領(lǐng) AI 的發(fā)展而言,每個行業(yè)都不可或缺。我們期待與您展開持續(xù)對話,一起聊聊如何讓承諾變?yōu)楝F(xiàn)實。

作者:Rajen Sheth, Director of Product Management, Cloud AI

責(zé)任編輯:未麗燕 來源: 谷歌開發(fā)者
相關(guān)推薦

2013-01-05 02:33:01

JavaJava語言Java發(fā)展方向

2014-09-29 10:56:37

智能科技

2025-02-03 12:21:51

2023-01-09 11:02:58

智慧城市物聯(lián)網(wǎng)

2018-03-02 11:12:54

2022-07-29 09:03:17

AIOPS運維工具

2013-10-23 10:03:39

大數(shù)據(jù)

2016-03-17 11:37:50

華為/合作伙伴

2019-02-11 08:18:54

趨勢方向技能

2024-11-06 15:34:51

2011-05-24 08:44:06

Ubuntu 11.1

2018-11-16 10:10:09

2022-05-30 11:17:21

網(wǎng)絡(luò)安全領(lǐng)導(dǎo)力

2013-04-03 15:16:29

節(jié)能減排德訊科技能耗控管

2016-04-15 14:43:14

云計算

2022-07-17 15:42:42

人工智能數(shù)據(jù)架構(gòu)科技

2017-04-05 11:28:53

2017-08-11 16:40:21

2022-11-29 07:14:56

NLP語言模型
點贊
收藏

51CTO技術(shù)棧公眾號