自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

推動(dòng)還是暫停: CIO們就人工智能最理想的發(fā)展路徑各抒己見

開發(fā) 前端
最近的進(jìn)展凸顯了人工智能無可比擬的潛力和尚未完全理清的風(fēng)險(xiǎn)。這讓CIO們處于研究如何在商業(yè)中最好地利用這一日益有爭議的技術(shù)的熱門位置。本文就是他們對(duì)此發(fā)表的見解。

隨著人工智能的炒作周期和隨后的反彈全面展開,IT 領(lǐng)導(dǎo)者發(fā)現(xiàn)自己在企業(yè)中使用人工智能方面處于一個(gè)微妙的轉(zhuǎn)折點(diǎn)。

在 Elon Musk 和備受尊敬的人工智能先驅(qū) Geoffrey Hinton 發(fā)出嚴(yán)厲警告后,IT 領(lǐng)導(dǎo)人正在向全球各地的機(jī)構(gòu)、咨詢公司和律師尋求關(guān)于未來道路的建議。

Elon Musk 等科技界 CEO 最近關(guān)于人工智能潛在危險(xiǎn)的警告性言論表明,我們?cè)谌趸瘎?chuàng)新的負(fù)面影響方面做得不夠,"  Atti Riazi 是 Hearst 公司高級(jí)副總裁兼 CIO。他說:“作為創(chuàng)新者,我們有義務(wù)負(fù)責(zé)任地進(jìn)行創(chuàng)新,了解技術(shù)對(duì)人類生活、社會(huì)和文化的影響。”

這一觀點(diǎn)得到了許多IT領(lǐng)導(dǎo)人的贊同。他們認(rèn)為,盡管在自由市場社會(huì)中,創(chuàng)新是不可避免的,特別是在這個(gè)數(shù)字轉(zhuǎn)型的時(shí)代,更應(yīng)該得到鼓勵(lì),但只有在正確的規(guī)則和條例的保障下,才能防止企業(yè)的災(zāi)難或更糟。

Bob McCowan 是 Regeneron 制藥公司的 CIO。他表示:“我同意暫??赡苓m合某些行業(yè)或某些高風(fēng)險(xiǎn)的使用案例,但在此之外的更多場景里,我們應(yīng)該向前推進(jìn),快速探索這些工具提供的機(jī)會(huì)?!?/p>

McCowan 補(bǔ)充說:“許多董事會(huì)成員都在質(zhì)疑是否應(yīng)該采用這些技術(shù),或者它們是否會(huì)產(chǎn)生太多的風(fēng)險(xiǎn)。我認(rèn)為這兩者兼而有之。忽視它或關(guān)閉它,你將錯(cuò)過重要的機(jī)會(huì),但在沒有控制措施的情況下允許予員工不受限制的訪問,也可能使你的組織面臨風(fēng)險(xiǎn)。”

雖然人工智能工具已經(jīng)使用多年,但最近向大眾發(fā)布的 ChatGPT 激起了相當(dāng)多的爭議,讓許多 CIO,以及他們的董事會(huì),按下暫停鍵以考慮如何下一步推進(jìn)。還有一些 CIO 對(duì)行業(yè),乃至人類可能因此面臨的風(fēng)險(xiǎn)非常重視。

金融業(yè)監(jiān)管局(FINRA)是一個(gè)向美國證券交易委員會(huì)報(bào)告的重要監(jiān)管機(jī)構(gòu),Steve Randich 是該局的CIO。他說:“每一天,我都在擔(dān)心這個(gè)問題?!盧andich 指出,他最近看到的一張圖表指出,人工智能程序的“心理”能力剛剛超過了一只老鼠,而 10 年后將超過全人類的能力。他說:“我的擔(dān)憂值得重視,特別是如果人工智能程序可以被不良行為者影響,并且能夠入侵,例如在核密碼方面?!?/p>

麻省理工學(xué)院 Sloan 管理學(xué)院的高級(jí)講師 George Westerman 認(rèn)為,全球企業(yè)的高管們正在向麻省理工學(xué)院 Sloan 管理學(xué)院和其他機(jī)構(gòu)咨詢有關(guān)使用生成性人工智能的道德、風(fēng)險(xiǎn)和潛在責(zé)任。不過,Westerman 認(rèn)為,大多數(shù) CIO 已經(jīng)與他們的高層管理人員和董事會(huì)進(jìn)行了接觸,而且生成性人工智能本身并沒有帶來企業(yè)和他們的高管今天尚未遵循的新法律責(zé)任。

Westerman 在談到首席信息官在人工智能影響下的個(gè)人法律風(fēng)險(xiǎn)時(shí)表示:“我希望,就像公司的所有其他高管一樣,你的業(yè)務(wù)也有法律保障。”但 Westerman 指出,為個(gè)人利益不適當(dāng)?shù)厥褂迷摷夹g(shù)是例外。

在生成性人工智能方面迎頭趕上

同時(shí),ChatGPT 的發(fā)布也給監(jiān)管部門的監(jiān)督工作帶來沖擊。歐盟原本計(jì)劃在上個(gè)月頒布其人工智能法案,但鑒于許多人擔(dān)心政策在生效前就已經(jīng)過時(shí),所以在 ChatGPT 發(fā)布后選擇了延遲發(fā)布。而隨著歐盟委員會(huì)及其相關(guān)管理機(jī)構(gòu)努力理清生成性人工智能的影響,歐洲和美國的公司高管們也正在認(rèn)真對(duì)待這些警鐘。

國家電網(wǎng)公司(National Grid)的集團(tuán)首席信息和數(shù)字官 Adriana Karaboutis 說:“隨著人工智能成為我們的一個(gè)關(guān)鍵部分,狹義的人工智能變成了一般的人工智能。誰會(huì)成為責(zé)任人?技術(shù)負(fù)責(zé)人,無生命的機(jī)器模型?批準(zhǔn)/改變訓(xùn)練模型的人類干預(yù)者?技術(shù)正在快速發(fā)展,但圍繞它的控制和道德規(guī)范卻沒有。這是一場追逐游戲。為此,同時(shí)在企業(yè)中管理人工智能的是監(jiān)督企業(yè)和組織風(fēng)險(xiǎn)的 CxO。鑒于人工智能的興起,CTO/CTO/CDO/CISO 不再是信息風(fēng)險(xiǎn)的所有者。IT 依靠 CEO 和所有 CxO,這意味著必須擁有企業(yè)文化和對(duì)人工智能的巨大利益以及風(fēng)險(xiǎn)的認(rèn)識(shí)?!?/p>

總部位于斯德哥爾摩的電信公司 Ericsson 的副總裁兼企業(yè)自動(dòng)化和人工智能負(fù)責(zé)人 Rickard Wieselfors 指出,Ericsson 看到了生成性人工智能的巨大上升空間,并正在投資創(chuàng)建多種生成性人工智能模型,包括大型語言模型。

他說:“人工智能行業(yè)內(nèi)有一種健全的自我批評(píng),我們正在非常認(rèn)真地對(duì)待負(fù)責(zé)任的人工智能。在訓(xùn)練中使用的文本或源代碼的知識(shí)產(chǎn)權(quán)方面,面臨許多沒有答案的問題。此外,在查詢模型、偏見、事實(shí)錯(cuò)誤、缺乏完整性、顆粒度或缺乏模型準(zhǔn)確性方面的數(shù)據(jù)泄漏,肯定會(huì)限制你可以使用模型的內(nèi)容。巨大的能力帶來巨大的責(zé)任,我們支持并參與當(dāng)前的自我批評(píng)精神和對(duì)人工智能可能給世界帶來的哲學(xué)反思?!?/p>

一些 CIO,如 Choice 酒店的 Brian Kirkland,正在監(jiān)測這項(xiàng)技術(shù),但不認(rèn)為生成性人工智能已經(jīng)完全準(zhǔn)備好用于商業(yè)用途。

Kirkland 表示:“我確實(shí)認(rèn)為,對(duì)行業(yè)來說,重要的是確保他們了解使用生成性人工智能技術(shù)的風(fēng)險(xiǎn)、回報(bào)和影響,比如 ChatGPT。數(shù)據(jù)所有權(quán)和生成的內(nèi)容存在風(fēng)險(xiǎn),必須加以理解和管理,以避免對(duì)公司產(chǎn)生負(fù)面影響。與此同時(shí),還有很多上升空間和機(jī)會(huì)需要考慮。當(dāng)有能力將私人數(shù)據(jù)集與這些系統(tǒng)中的公共數(shù)據(jù)安全、可靠地合并時(shí),上升空間將非常大。在人工智能和機(jī)器學(xué)習(xí)如何通過從生成的人工智能內(nèi)容到復(fù)雜而有意義的商業(yè)分析和決策來實(shí)現(xiàn)商業(yè)價(jià)值方面,將會(huì)發(fā)生巨大的變化。”

沒有人建議完全控制這樣一項(xiàng)強(qiáng)大的、有機(jī)會(huì)改變生活的技術(shù)。

在 Gartner 最近對(duì) 2500 多名高管的調(diào)查中,45%的人表示,圍繞 ChatGPT 的關(guān)注使他們?cè)黾恿藢?duì)人工智能的投資。超過 70%的人認(rèn)為他們的企業(yè)目前正在探索生成性人工智能,19%的人正在進(jìn)行試點(diǎn)或生產(chǎn)使用,聯(lián)合利華和 CarMax 等公司的項(xiàng)目已經(jīng)顯示出前景。

在 5 月 15 日開始的麻省理工學(xué)院 Sloan CIO 會(huì)議上,Irving Wladawsky-Berger 將主持一個(gè)關(guān)于進(jìn)入生成性人工智能領(lǐng)域的潛在風(fēng)險(xiǎn)和回報(bào)的小組討論。最近,他還剛剛主持了一場關(guān)于該技術(shù)的會(huì)前討論。

這位前 IBM 的長期研究員和目前麻省理工學(xué)院斯隆分校的附屬研究員說:“我們今天都對(duì)生成性人工智能感到興奮。”他同時(shí)引用了由于人工智能而預(yù)期的基因組學(xué)的重大進(jìn)展。

但 Wladawsky-Berger 指出,采用該技術(shù)的人所需的盡職調(diào)查將不是一項(xiàng)簡單的任務(wù)。他說:“這需要大量的工作。我們必須弄清楚什么是有效的,什么是安全的,以及要做哪些試驗(yàn)。這就是最需要時(shí)間的部分?!?/p>

小組的另一位 CIO,Zoetis 的首席數(shù)字和技術(shù)官 Wafaa Mamilli 說,生成性人工智能正在給制藥公司增加治愈人類慢性疾病的信心。

她說:“由于生成性人工智能技術(shù)和計(jì)算能力在遺傳研究上的進(jìn)步,現(xiàn)在在美國和美國以外的國家、日本和歐洲都有試驗(yàn),目標(biāo)是治愈糖尿病?!?/p>

護(hù)欄和指南:生成式人工智能的基本要素

華爾街已經(jīng)注意到了行業(yè)對(duì)生成性人工智能的迅速擁抱。根據(jù) IDC 的數(shù)據(jù),2022 年是對(duì)生成性人工智能初創(chuàng)企業(yè)投資的破紀(jì)錄的一年,股權(quán)融資超過 26 億美元。

IDC 最近關(guān)于生成性人工智能的幾份報(bào)告之中指出,“無論是用 Jasper.ai 創(chuàng)造內(nèi)容,用 Midjourney 創(chuàng)造圖像,還是用 Azure OpenAI 服務(wù)進(jìn)行文本處理,都有一個(gè)生成性人工智能的基礎(chǔ)模型來促進(jìn)你的業(yè)務(wù)的各個(gè)方面”。

Regeneron 公司的 McCowan 指出,CIO 們已經(jīng)有設(shè)置防護(hù)的辦法,以便安全地推進(jìn)生成性人工智能試點(diǎn)。

McCowan 說:“至關(guān)重要的是,你要有政策和準(zhǔn)則來管理那些計(jì)劃使用這些技術(shù)的人的訪問和行為,并提醒你的員工保護(hù)知識(shí)產(chǎn)權(quán)、PII(可識(shí)別個(gè)人身份的信息),以及重申被分享的東西可能會(huì)成為公共信息。”

他說:“讓你的創(chuàng)新者和你的律師一起找到一個(gè)基于風(fēng)險(xiǎn)的使用這些工具的模式,并清楚你可能暴露哪些數(shù)據(jù),以及你對(duì)這些解決方案的輸出有哪些權(quán)利。開始使用風(fēng)險(xiǎn)較小的用例的技術(shù),并從每次迭代中學(xué)習(xí)。開始吧,否則你會(huì)失去機(jī)會(huì)?!?/p>

Forrester Research 分析師 David Truog 指出,在企業(yè)開始試點(diǎn)并在生產(chǎn)中使用生成性人工智能之前,人工智能領(lǐng)導(dǎo)者給生成性人工智能貼上警示標(biāo)簽是正確的。但他也有信心能做到這一點(diǎn)。

Truog 說:“我不認(rèn)為停止或暫停人工智能是正確的方式。更務(wù)實(shí)和建設(shè)性的道路是明智地選擇專門的人工智能可以提供幫助的用例,嵌入深思熟慮的護(hù)欄,并刻意做好隔離。這將成為一個(gè)起點(diǎn)?!?/p>

一家咨詢公司的 DevOps IT 負(fù)責(zé)人指出,CIO 在使用生成性人工智能時(shí)可以通過幾種方式來降低風(fēng)險(xiǎn),包括像風(fēng)險(xiǎn)投資家那樣思考;清楚地了解技術(shù)的價(jià)值;在測試之前確定道德和法律方面的考慮;進(jìn)行實(shí)驗(yàn),但不急于投資;以及從客戶的角度考慮影響。

Rod Cope 是總部位于明尼阿波利斯的 Perforce 公司 CIO。他說:“聰明的 CIO 會(huì)組建監(jiān)督委員會(huì)或與外部顧問合作,他們可以指導(dǎo)組織完成實(shí)施工作,并幫助制定指導(dǎo)方針,促進(jìn)負(fù)責(zé)任的使用。雖然投資于人工智能為企業(yè)提供了巨大的價(jià)值,但將其實(shí)施到你的技術(shù)堆棧中需要深思熟慮,以保護(hù)你、你的組織和你的客戶?!?/p>

雖然生成性人工智能的興起肯定會(huì)影響人類的工作,但一些 IT 領(lǐng)導(dǎo)者,如管理服務(wù)提供商 MetTel 的首席技術(shù)官 Ed Fox,認(rèn)為這種影響可能被夸大了,盡管每個(gè)人都可能不得不適應(yīng)或落伍。

Fox 表示:“在這次生成性人工智能的覺醒過程中,一些人將會(huì)失去工作,但不會(huì)多到某些人預(yù)測的程度?!?/p>

不過,如果有一個(gè)主題是肯定的,那就是對(duì)大多數(shù) CIO 來說,謹(jǐn)慎行事是最好的前進(jìn)道路。參與其中也是如此。

Wipro 谷歌業(yè)務(wù)集團(tuán)總經(jīng)理 Tom Richer 表示,CIO 必須在“扼殺創(chuàng)新的嚴(yán)格法規(guī)和確保人工智能開發(fā)和使用負(fù)責(zé)任的指導(dǎo)方針之間取得平衡。”他正在與母校 Cornell 大學(xué)及其人工智能倡議合作,以便能謹(jǐn)慎應(yīng)對(duì)未來變化。

Richer 表示:“CIO 和 IT 高管必須意識(shí)到生成人工智能的潛在風(fēng)險(xiǎn)和好處,并與該領(lǐng)域的專家合作,制定負(fù)責(zé)任的使用策略。這種合作需要大學(xué)、大型科技公司、智庫和政府研究中心參與,為人工智能技術(shù)的開發(fā)和部署制定最佳實(shí)踐和指導(dǎo)方針?!?/p>

來源:www.cio.com

責(zé)任編輯:武曉燕 來源: 計(jì)算機(jī)世界
相關(guān)推薦

2010-03-22 18:22:26

云計(jì)算

2015-07-30 13:33:44

2023-05-16 13:50:55

2010-03-22 14:13:28

2023-11-01 08:49:25

CIOChatGPTIT

2021-02-06 23:08:03

人工智能數(shù)據(jù)安全

2022-07-08 17:08:55

人工智能外賣深度學(xué)習(xí)

2020-02-13 23:30:22

人工智能AI神經(jīng)科學(xué)

2020-03-24 11:35:50

物聯(lián)網(wǎng)人工智能互聯(lián)網(wǎng)

2017-08-13 12:27:29

大數(shù)據(jù)人工智能技術(shù)

2022-09-07 14:05:18

人工智能AI

2020-08-20 10:49:49

人工智能機(jī)器學(xué)習(xí)技術(shù)

2018-03-18 15:09:06

人工智能CIO首席信息官

2020-05-13 20:40:16

人工智能芯片半導(dǎo)體

2018-02-10 07:59:54

人工智能視頻監(jiān)控監(jiān)控?cái)z像頭

2019-01-30 06:37:51

2021-03-22 12:08:30

人工智能

2022-03-15 16:06:39

人工智能AI

2018-08-14 20:43:46

2022-11-03 10:57:36

人工智能AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)