自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

道德人工智能的下一步是什么?

人工智能
人工智能(AI)和機器學習(ML)技術(shù)帶來好處的同時也伴隨著挑戰(zhàn)。亞馬遜、蘋果、谷歌和Facebook等全球領(lǐng)先企業(yè)被指控在其人工智能算法中存在偏見。

在當今的數(shù)字時代,人工智能(AI)和機器學習(ML)無處不在:面部識別算法、流行病爆發(fā)檢測和緩解、獲得信貸和醫(yī)療保健只是其中的幾個例子。但是,這些反映人類智能并預測現(xiàn)實生活結(jié)果的技術(shù)是否與人類和倫理道德達成共識?在人工智能方面,人們可以創(chuàng)建監(jiān)管實踐和新規(guī)范嗎?人類如何才能充分利用人工智能并減輕潛在的不良影響?人類正在努力尋找答案。

人工智能(AI)和機器學習(ML)技術(shù)帶來好處的同時也伴隨著挑戰(zhàn)。亞馬遜、蘋果、谷歌和Facebook等全球領(lǐng)先企業(yè)被指控在其人工智能算法中存在偏見。例如,當蘋果公司推出AppleCard時,其用戶注意到女性消費者獲得的信用額度比男性消費者少。這種偏見嚴重影響了蘋果公司的聲譽。

在一個影響嚴重的極端案例中,美國司法系統(tǒng)使用人工智能算法來宣布監(jiān)禁和假釋條款。不幸的是,這些人工智能系統(tǒng)建立在具有歷史偏見的犯罪數(shù)據(jù)之上,放大并延續(xù)了人工智能系統(tǒng)中的嵌入偏見。最終,這導致質(zhì)疑機器學習算法在刑事司法系統(tǒng)中提供的公平性。

為道德人工智能而戰(zhàn)

政府和企業(yè)一直在積極參與全球人工智能的開發(fā)和采用。如今,即使是非專業(yè)人士也可以采用和設置的人工智能工具越來越多地進入市場。

在這種人工智能的采用和開發(fā)熱潮中,全球許多專家和倡導者對人工智能應用程序的長期影響持懷疑態(tài)度。他們擔心人工智能的進步將如何影響人們的生產(chǎn)力和自由意志的行使;為采用合乎道德的人工智能而進行斗爭實際上為未來的技術(shù)而戰(zhàn),在未來發(fā)展中,人工智能技術(shù)不是替代而是幫助人類。

谷歌和IBM等全球科技巨頭已經(jīng)在其人工智能(AI)和機器學習(ML)算法中研究并解決了這些偏見。其解決方案之一是為用于訓練人工智能(AI)和機器學習(ML)系統(tǒng)的數(shù)據(jù)創(chuàng)建文檔。

在人工智能系統(tǒng)的偏見問題之后,另一個廣為人知的擔憂是缺乏對人工智能算法如何做出決策的可見性。它也被稱為不透明算法或黑盒系統(tǒng)??山忉屓斯ぶ悄艿陌l(fā)展減輕了黑盒系統(tǒng)的不利影響。雖然人們已經(jīng)克服了一些道德上的人工智能挑戰(zhàn),但人工智能武器化等其他幾個問題仍有待解決。

有許多政府、非營利組織和企業(yè)組織關(guān)注人工智能道德和政策。例如,由亞馬遜、谷歌、Facebook、IBM和微軟成立的非營利組織人工智能造福人類和社會伙伴關(guān)系,制定人工智能技術(shù)的最佳實踐,促進公眾的理解,并作為人工智能的平臺。而蘋果公司于2017年1月加入該組織。

如今,各國政府以及非政府組織為確保人工智能道德做出了許多努力。例如,在美國,奧巴馬政府的2016年人工智能政策路線圖是向道德人工智能邁出的重大飛躍;而2020年1月,特朗普政府發(fā)布了一份關(guān)于“人工智能應用監(jiān)管指南”的行政命令草案。宣言強調(diào)需要投資人工智能系統(tǒng)開發(fā),增強公眾對人工智能的信任,消除人工智能障礙,保持美國人工智能技術(shù)在國際市場上的競爭力。

此外,歐盟委員會人工智能高級別專家組于2019年4月8日發(fā)布了《可信賴人工智能倫理指南》,2020年2月19日,歐盟委員會機器人與人工智能創(chuàng)新與卓越部門發(fā)布關(guān)于人工智能創(chuàng)新的卓越和信任的白皮書。

在學術(shù)方面,牛津大學設有三個研究機構(gòu),主要關(guān)注人工智能倫理,并將人工智能倫理作為一個結(jié)構(gòu)化的研究和應用領(lǐng)域。紐約大學(NYU)的人工智能研究所還將研究人工智能的社會影響,重點關(guān)注偏見和包容、勞工和自動化、自由和權(quán)利以及民用基礎設施和安全。

關(guān)于道德人工智能發(fā)展的一些關(guān)鍵擔憂和希望

(1)擔心

?主要的人工智能(AI)和機器學習(ML)系統(tǒng)開發(fā)者和部署者專注于盈利和社會控制。但關(guān)于道德人工智能會是什么樣子,仍然沒有達成共識。許多專家擔心,道德的人工智能行為和結(jié)果難以定義、實施和執(zhí)行。

?強大的科技公司和政府控制著人工智能的發(fā)展,推動他們的是他們的議程而不是道德問題。據(jù)推測,他們將使用人工智能(AI)和機器學習(ML)技術(shù)創(chuàng)造更復雜的方法來影響人類心理,以說服用戶在未來十年內(nèi)購買商品、服務和想法。

?黑盒系統(tǒng)中人工智能工具和應用程序的操作仍然是一個問題。此外,在這些不透明的條件下應用道德人工智能標準仍然是一個懸而未決的問題。

(2)希望

?人工智能/機器學習的發(fā)展已經(jīng)清楚地展示了它的進步和價值。然而,迄今為止,人類社會總能找到減輕這種技術(shù)發(fā)展帶來的問題的方法。

?迄今為止,人工智能工具和應用程序一直在做超越人類能力的驚人事情。進一步的創(chuàng)新和突破只會增加這一點。

?新的人工智能系統(tǒng)的無限推出是不可避免的。除此之外,開發(fā)可以減輕傷害的人工智能策略也是不可避免的。事實上,人們可以利用道德的人工智能系統(tǒng)來識別和糾正由不道德的人工智能系統(tǒng)引起的問題。

?近年來,關(guān)于道德人工智能的全球倡議富有成效。它推動人類社會在互利、安全、自主和正義的基礎上適應人工智能的進一步發(fā)展。

?想象未來會有更多人工智能工具和應用程序出現(xiàn),讓人們的生活更輕松、更安全。人工智能將從根本上增強從醫(yī)療保健到旅行的每一個人類系統(tǒng)。因此,未來幾年對道德人工智能的支持可能會大幅增長。

?在開源技術(shù)的幫助下,已經(jīng)圍繞道德人工智能建立了共識,特別是在生物醫(yī)學界。幾年來,在道德人工智能這一重要領(lǐng)域的廣泛研究和討論已經(jīng)結(jié)出碩果。

?如果廣泛提供有害和徒勞的結(jié)果,任何技術(shù)都無法生存。而市場和法律體系最終將淘汰不道德的人工智能體系。

道德人工智能的責任

微軟和谷歌等科技巨頭認為政府應該介入以有效監(jiān)管人工智能,而法律的好壞取決于它們的執(zhí)行方式。到目前為止,這一責任已經(jīng)落在了監(jiān)管機構(gòu)和科技公司員工的肩上。

人們可以通過提出尖銳的問題和采取嚴厲的預防措施來選擇希望人工智能在生活和企業(yè)中扮演的角色。因此,許多企業(yè)雇傭人工智能倫理學家來指導他們通過這一新領(lǐng)域。

在人工智能與道德合而為一之前,人們還有很長的路要走。但是在那一天之前,人們必須對如何使用人工智能技術(shù)進行自我監(jiān)管。

責任編輯:趙寧寧 來源: 360機房
相關(guān)推薦

2023-11-13 11:10:16

2021-09-07 10:06:00

人工智能機器學習技術(shù)

2013-08-12 14:42:20

UI設計UX設計設計

2018-09-13 12:51:52

云計算私有云公共云

2019-05-21 05:09:23

物聯(lián)網(wǎng)數(shù)據(jù)IOT

2024-10-15 15:42:50

2023-11-21 16:39:33

工業(yè) 5.0智能工廠

2020-10-09 10:05:00

智能

2021-09-27 14:46:36

區(qū)塊鏈加密貨幣比特幣

2025-02-05 08:32:23

2023-12-15 11:42:49

人工智能機器人AI

2018-05-05 09:00:04

SaaS

2022-05-11 09:05:21

數(shù)字化轉(zhuǎn)型IT

2013-10-15 09:36:23

SUSE CloudOpenStack

2023-11-23 15:12:17

2013-05-07 09:45:53

微軟Bing

2020-12-24 06:59:02

機器學習MLAI

2021-11-01 11:01:07

物聯(lián)網(wǎng)IOT物聯(lián)網(wǎng)技術(shù)

2016-11-09 15:04:17

軟件定義存儲數(shù)據(jù)存儲

2010-10-12 09:28:53

JavaOneJava
點贊
收藏

51CTO技術(shù)棧公眾號