自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能和隱私熱議 了解AI透明性的利弊

人工智能 深度學(xué)習(xí)
隨著AI在更多行業(yè)中被越來越多地采用,其用戶試圖在有效保護(hù)其實(shí)用性的同時(shí)實(shí)現(xiàn)保護(hù)用戶隱私的微妙平衡。AI的常見優(yōu)秀實(shí)踐是對(duì)AI的使用以及如何達(dá)到特定結(jié)果保持透明。但是,這種透明度有好有壞的一面。這是您應(yīng)該了解的AI透明性的利弊,以及實(shí)現(xiàn)這一困難平衡的可能解決方案。

 隨著AI在更多行業(yè)中被越來越多地采用,其用戶試圖在有效保護(hù)其實(shí)用性的同時(shí)實(shí)現(xiàn)保護(hù)用戶隱私的微妙平衡。AI的常見優(yōu)秀實(shí)踐是對(duì)AI的使用以及如何達(dá)到特定結(jié)果保持透明。但是,這種透明度有好有壞的一面。這是您應(yīng)該了解的AI透明性的利弊,以及實(shí)現(xiàn)這一困難平衡的可能解決方案。

[[334389]]

 

好處

人工智能可提高效率,利用創(chuàng)新并簡(jiǎn)化流程。透明地了解其工作原理和計(jì)算結(jié)果的方式可以帶來一些社會(huì)和商業(yè)優(yōu)勢(shì),包括:

司法公正

在過去的幾年中,人工智能的使用數(shù)量持續(xù)增長(zhǎng)。人工智能甚至已經(jīng)擴(kuò)展到司法系統(tǒng)中,從做交通票到考慮比陪審團(tuán)更公平,人工智能都可以做。

當(dāng)公司對(duì)使用AI透明時(shí),它們可以增加用戶訴諸司法的機(jī)會(huì)。人們可以看到AI如何收集關(guān)鍵信息并達(dá)到特定結(jié)果。與不使用AI的情況相比,他們可以獲得的技術(shù)和信息更多。

避免歧視

AI的原始缺點(diǎn)之一是當(dāng)AI被用來檢測(cè)模式并根據(jù)其收集的數(shù)據(jù)對(duì)用戶做出假設(shè)時(shí),可能會(huì)產(chǎn)生歧視性結(jié)果。

然而,人工智能今天變得更加復(fù)雜,甚至被用來檢測(cè)歧視。AI可以確保包括所有用戶的信息或聽到他們的聲音。在這方面,人工智能可以成為一個(gè)很好的均衡器。

 

灌輸?shù)男湃?/strong>

當(dāng)AI用戶預(yù)先了解他們對(duì)AI的使用并向其客戶群說明這種用法時(shí),他們更有可能灌輸信任感。人們需要知道公司如何達(dá)到特定的結(jié)果,而透明可以幫助彌合企業(yè)與其客戶之間的鴻溝。

客戶愿意擁抱AI。在Salesforce的“關(guān)聯(lián)消費(fèi)者狀況”中接受調(diào)查的消費(fèi)者中,有62%的人表示他們對(duì)AI持開放態(tài)度,以改善他們的體驗(yàn),并且企業(yè)愿意滿足這一需求。

埃森哲(Accenture)最近的一項(xiàng)調(diào)查顯示,有72%的高管表示,他們希望通過透明地使用AI來獲得客戶對(duì)產(chǎn)品或服務(wù)的信任和信心。能夠透明地使用AI以及為保護(hù)用戶數(shù)據(jù)而采取的安全措施的公司可能會(huì)從這種提高的透明度中受益。

更明智的決策

當(dāng)人們知道自己正在與AI系統(tǒng)進(jìn)行交互而不是被騙去認(rèn)為它是人類時(shí),他們通??梢赃m應(yīng)自己的行為以獲取所需的信息。

例如,人們可能在聊天框中使用關(guān)鍵字而不是完整的句子。用戶可能會(huì)對(duì)這些系統(tǒng)的優(yōu)點(diǎn)和局限性有更好的了解,并做出有意識(shí)的決定與AI系統(tǒng)進(jìn)行交互。

 

缺點(diǎn)

盡管透明度可以帶來上述一些積極成果,但它也有一些缺點(diǎn),包括以下方面:

缺少隱私

反對(duì)AI及其透明性的一個(gè)重要論據(jù)是可能缺乏隱私。AI通常會(huì)收集大數(shù)據(jù),并使用獨(dú)特的算法為該數(shù)據(jù)分配一個(gè)值。但是,為了獲得結(jié)果,人工智能通常會(huì)跟蹤每項(xiàng)在線活動(dòng)(您可以免費(fèi)獲得背景調(diào)查),人工智能會(huì)跟蹤,搜索和使用企業(yè)網(wǎng)站。其中一些信息也可能出售給第三方。

此外,人工智能通常用于跟蹤人們的在線行為,從中人們可以辨別有關(guān)一個(gè)人的關(guān)鍵信息,包括他或她:

  • 種族
  • 政治信仰
  • 宗教信仰
  • 性別
  • 性傾向
  • 健康狀況

即使人們選擇不向任何人在線提供此敏感信息,由于AI功能,他們?nèi)匀豢赡軙?huì)遭受信息的丟失。此外,AI可能會(huì)跟蹤公開可用的信息。但是,當(dāng)沒有人檢查此信息的準(zhǔn)確性時(shí),一個(gè)人的信息可能會(huì)與另一個(gè)人的信息混淆。

破解說明

當(dāng)公司發(fā)布其對(duì)AI的解釋時(shí),黑客可能會(huì)使用此信息來操縱系統(tǒng)。例如,黑客可能能夠?qū)Υa或輸入進(jìn)行微小的更改以實(shí)現(xiàn)不準(zhǔn)確的結(jié)果。

 

這樣,黑客就可以利用公司自身的透明度來抵制它。

當(dāng)黑客了解AI背后的原因時(shí),他們可能會(huì)影響算法。通常不鼓勵(lì)使用這種技術(shù)來檢測(cè)欺詐。因此,當(dāng)利益相關(guān)者未采取其他措施時(shí),該系統(tǒng)可能更易于操作。

知識(shí)產(chǎn)權(quán)盜竊

當(dāng)一家公司對(duì)AI的使用透明時(shí),可能會(huì)出現(xiàn)的另一個(gè)潛在問題是這些黑客竊取了其專有商業(yè)秘密或知識(shí)產(chǎn)權(quán)的可能性。這些人可能能夠查看公司的解釋并重新創(chuàng)建專有算法,從而損害業(yè)務(wù)。

容易受到攻擊

網(wǎng)上有如此多的可用信息,有7800萬美國人說他們擔(dān)心網(wǎng)絡(luò)安全。當(dāng)公司闡明如何使用AI時(shí),這可能使黑客更容易訪問消費(fèi)者的信息或造成可能導(dǎo)致身份盜用的數(shù)據(jù)泄露,例如臭名昭著的Equifax數(shù)據(jù)泄露,使1.48億美國人的私人記錄受損。

監(jiān)管的敏感性

有關(guān)AI的披露可能會(huì)帶來其他風(fēng)險(xiǎn),例如更嚴(yán)格的監(jiān)管。當(dāng)AI令人困惑且難以使用時(shí),監(jiān)管機(jī)構(gòu)可能不理解或無法對(duì)其進(jìn)行監(jiān)管。但是,當(dāng)企業(yè)對(duì)AI的角色透明時(shí),這可能會(huì)帶來關(guān)于AI及其使用方式的更重要的監(jiān)管框架。以這種方式,創(chuàng)新者可能因其創(chuàng)新而受到懲罰。

訴訟目標(biāo)更容易

當(dāng)企業(yè)清楚其如何保護(hù)消費(fèi)者的數(shù)據(jù)以實(shí)現(xiàn)透明性為目的時(shí),它們可能會(huì)不知不覺地使自己更容易受到聲稱其信息使用不當(dāng)?shù)南M(fèi)者的法律主張的影響。聰明的律師可以仔細(xì)審查AI透明性信息,然后開發(fā)有關(guān)業(yè)務(wù)對(duì)AI的使用的創(chuàng)新法律理論。

例如,他們可能專注于企業(yè)沒有采取哪些措施來保護(hù)消費(fèi)者的隱私。然后,他們可能會(huì)使用此信息來聲稱該企業(yè)的行為或疏忽大意。此外,許多AI系統(tǒng)都以更簡(jiǎn)單的模型運(yùn)行。對(duì)其算法透明的公司可能會(huì)使用不太復(fù)雜的算法,這些算法可能會(huì)忽略某些信息或在某些情況下導(dǎo)致錯(cuò)誤。經(jīng)驗(yàn)豐富的律師可能能夠確定AI導(dǎo)致的其他問題,以證實(shí)其對(duì)企業(yè)的法律主張。

 

關(guān)于AI和隱私的真相

任何看過《終結(jié)者》電影(或者基本上是世界末日電影)的人都知道,即使僅出于最崇高的理由而開發(fā)的技術(shù)也有可能被武器化或用作最終損害社會(huì)的東西。

由于存在潛在的危害,已經(jīng)通過了許多法律,要求某些公司在使用AI方面保持透明。例如,金融服務(wù)公司必須披露他們?cè)诖_定一個(gè)人的信譽(yù)時(shí)使用的主要因素,以及為什么他們?cè)谫J款決定中采取不利行動(dòng)。

立法者正在積極提出并考慮其他法律。

如果獲得通過,這些法律可能會(huì)確立企業(yè)必須遵守的有關(guān)其如何收集信息,如何使用AI以及是否首先需要征得消費(fèi)者同意的新義務(wù)。2019年,一項(xiàng)行政命令簽署成為法律,指示聯(lián)邦機(jī)構(gòu)將資源投入到AI的開發(fā)和維護(hù)中,并呼吁制定準(zhǔn)則和標(biāo)準(zhǔn),以允許聯(lián)邦機(jī)構(gòu)以保護(hù)隱私和國家安全的方式監(jiān)管AI技術(shù)。

即使尚未要求企業(yè)對(duì)AI的使用保持透明,也可能很快就沒有選擇的機(jī)會(huì)了。為了應(yīng)對(duì)這種可能的結(jié)果,一些企業(yè)正在積極建立內(nèi)部審查委員會(huì),以測(cè)試AI并確定圍繞AI的道德問題。

他們還可以與法律部門和開發(fā)人員合作,為他們發(fā)現(xiàn)的問題創(chuàng)建解決方案。通過仔細(xì)評(píng)估其潛在風(fēng)險(xiǎn)并在強(qiáng)制披露之前確定問題的解決方案,企業(yè)可能會(huì)更好地規(guī)避與AI透明度相關(guān)的風(fēng)險(xiǎn)。

責(zé)任編輯:華軒 來源: 今日頭條
相關(guān)推薦

2020-07-21 17:42:17

人工智能AI隱私

2018-05-18 16:45:00

云計(jì)算人工智能

2023-08-29 15:03:05

2019-04-26 14:32:41

人工智能AI996

2017-01-10 08:51:20

人工智能產(chǎn)城融合智能

2021-04-14 11:21:17

DeFi金融數(shù)據(jù)

2020-06-04 10:13:09

人工智能深度學(xué)習(xí)技術(shù)

2018-06-27 15:59:33

2023-03-13 15:38:29

2023-12-28 16:33:57

2020-08-24 16:05:01

人工智能邊緣計(jì)算大數(shù)據(jù)

2021-08-12 21:10:30

人工智能AI

2023-09-21 15:11:59

2022-08-02 14:05:48

人工智能數(shù)據(jù)安全隱私

2021-07-29 11:19:58

人工智能AI深度學(xué)習(xí)

2022-09-08 09:23:36

人工智能AI

2018-07-12 11:11:46

人工智能AI術(shù)語

2018-08-20 19:49:00

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-10-28 10:10:44

人工智能

2019-06-28 14:43:24

2019軟件名人論壇云計(jì)算人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)