自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

“公平”,人工智能做得到嗎?

人工智能
在科技發(fā)展如此迅速的當(dāng)下,體育賽事可不可以應(yīng)用人工智能技術(shù)作為輔助判罰手段呢?

2020東京奧運(yùn)會(huì)一如既往地緊張激烈。7月28日體操男子個(gè)人全能決賽中,中國選手肖若騰在賽場(chǎng)上的表現(xiàn),可以稱得上是發(fā)揮完美、零失誤。但最終,肖若騰以88.065分的成績(jī)僅摘得男子個(gè)人全能銀牌。 

[[414848]] 

遺憾之余我們想問,在追求公平的道路上,還有多少難題未決?

在科技發(fā)展如此迅速的當(dāng)下,體育賽事可不可以應(yīng)用人工智能技術(shù)作為輔助判罰手段呢?

人工智能裁判發(fā)展水平

在2013年,NBA就引入Sport VU系統(tǒng),通過懸掛在每個(gè)競(jìng)技場(chǎng)天花板上方的6個(gè)3D高清攝像頭與計(jì)算機(jī)數(shù)據(jù)分析連接,每臺(tái)相機(jī)每秒可拍攝25幅圖像,各類傳感器與超級(jí)攝像機(jī)相連,動(dòng)態(tài)捕捉、跟蹤分析、提取數(shù)據(jù),并將處理后的數(shù)據(jù)輸入NBA數(shù)據(jù)庫。NBA的金州勇士隊(duì)作為硅谷科技大亨和技術(shù)狂人們的寵兒,在此系統(tǒng)幫助下,奪得2018年NBA總冠軍。金州勇士隊(duì)也從此被譽(yù)為“NBA中的谷歌”。

目前,有關(guān)人工智能技術(shù)在體育比賽中應(yīng)用的研究相對(duì)較少,主要集中在輔助判罰方面,也就是“鷹眼”在網(wǎng)球、排球等項(xiàng)目中應(yīng)用。所謂的“鷹眼”,又稱即時(shí)回放系統(tǒng)。它利用高速攝像機(jī)從不同角度捕捉在快速運(yùn)動(dòng)中的目標(biāo)軌跡,確定起止點(diǎn),輔助裁判評(píng)判比賽。“鷹眼”存在的意義在于,它克服了人類眼睛觀察能力上存在的缺陷,幫助裁判做出精確公允的判斷結(jié)果。

2018年俄羅斯世界杯中,賽場(chǎng)采用視頻助理裁判VAR系統(tǒng),其利用視頻回放幫助裁判做出決定。這是VAR系統(tǒng)首次應(yīng)用于足球世界杯這項(xiàng)頂級(jí)賽事。小組賽階段平均每場(chǎng)比賽使用VAR 6.9次,借助VAR使判罰正確率從95%提高到99.3%。

那么類似地,是不是在武術(shù)、舞蹈、跳水等體育運(yùn)動(dòng)中,使用人工智能就可以降低裁判的主觀性,使比賽更加公平公正呢?

實(shí)際上,目前人工智能裁判技術(shù)離成熟還有很長(zhǎng)的距離,體育人工智能技術(shù)還遠(yuǎn)遠(yuǎn)滯后于計(jì)算機(jī)科學(xué)的發(fā)展,存在著一系列軟件和硬件匹配的問題。 

“算法歧視”

人工智能裁判替代人類裁判最大的難題是讓機(jī)器“看懂”體育比賽,但反過來,有機(jī)會(huì)使用了這項(xiàng)技術(shù)的我們,往往也很難“看懂”人工智能。

隨著算法復(fù)雜程度的日益提高,通過機(jī)器學(xué)習(xí)過程形成的決策越來越難以解釋AI內(nèi)部的代碼,也就是說,算法存在“黑箱”,導(dǎo)致人們無法控制和預(yù)測(cè)算法的結(jié)果,而在應(yīng)用中產(chǎn)生某種不公平傾向。

一般情況下,基于算法“黑箱”以及普通消費(fèi)者對(duì)平臺(tái)定價(jià)方案的信任,用戶們通常不會(huì)質(zhì)疑自己的購買價(jià)格與其他消費(fèi)者不同,更難以識(shí)別出如此隱蔽又“聰明”的價(jià)格歧視,而廣大消費(fèi)者就在這種毫不知情的情況下被迫接受各個(gè)平臺(tái)差異化的付費(fèi)模式,這就是所謂的“大數(shù)據(jù)殺熟”,也是不公正現(xiàn)象的體現(xiàn)。

目前市場(chǎng)上廣泛應(yīng)用的大多數(shù)人工智能系統(tǒng)都是不透明的,加上商業(yè)秘密的保護(hù)制度,這意味著它們通常能夠規(guī)避審查,脫離現(xiàn)有的監(jiān)管體系,在缺乏外部監(jiān)督的情形下,不僅僅可能增加歧視性操縱,在算法使用者的有意遮掩下,還可能將算法黑箱逐漸遷移至監(jiān)管的真空地帶,導(dǎo)致既有的監(jiān)管體系無法有效打開算法“黑箱”。

華南理工大學(xué)的肖田認(rèn)為,“期望算法、模型等數(shù)學(xué)方法重塑一個(gè)更加客觀公正的現(xiàn)實(shí)社會(huì)”的“數(shù)學(xué)洗腦”式想法未免過于一廂情愿。

“算法歧視”的本質(zhì)是延伸了人類現(xiàn)實(shí)世界中的社會(huì)歧視?!蹲匀弧冯s志曾發(fā)表社論,認(rèn)為大數(shù)據(jù)算法中不容忽視的潛在風(fēng)險(xiǎn)使它們有可能增加偏見,并復(fù)制或加劇人類的錯(cuò)誤。并指出大數(shù)據(jù)算法應(yīng)該承擔(dān)更多責(zé)任,并消除或減少社會(huì)歧視,而非加劇社會(huì)歧視。也就是說,大數(shù)據(jù)是一面反映人類社會(huì)生活的鏡子,算法通過分析歷史數(shù)據(jù)預(yù)測(cè)未來,而人類直到現(xiàn)在仍然未能消除的歧視和偏見,很可能通過大數(shù)據(jù)導(dǎo)入算法。

原始訓(xùn)練數(shù)據(jù)存在偏見,在算法執(zhí)行時(shí)可能將這些偏見帶入決策過程。鑒于算法本身不會(huì)質(zhì)疑其所接收到的數(shù)據(jù),只是單純地尋找、挖掘數(shù)據(jù)背后隱含的結(jié)構(gòu)和模式,如果人類輸入給算法的數(shù)據(jù)一開始就存在某種偏見或喜好,那么算法獲得的輸出結(jié)果也會(huì)與人類偏見相同。

一方面,算法的應(yīng)用具有機(jī)制化和廣泛性,一個(gè)算法模型通常會(huì)被重復(fù)使用,由此造成的影響就會(huì)越來越大。

這方面影響是否可以通過技術(shù)本身進(jìn)行消除呢?亞利桑那大學(xué)人工智能實(shí)驗(yàn)室研究人員Ahmed Abbasi在《哈佛商業(yè)評(píng)論》發(fā)表了文章,以數(shù)據(jù)作為切入點(diǎn),闡釋了若干防止算法歧視的方法。其中之一的對(duì)策是“過度抽樣”,即從人口學(xué)的統(tǒng)計(jì)方法出發(fā)來設(shè)計(jì)算法模型,提高算法輸出結(jié)果的準(zhǔn)確率。除此之外,“將額外的公平性措施引入機(jī)器學(xué)習(xí),比如手工放大、縮小少數(shù)族群或邊緣案例的重要性”也可以用來糾正算法模型產(chǎn)生的歧視。

但僅僅如此仍然不夠。因?yàn)榱硪环矫?,算法偏見不僅會(huì)帶來計(jì)算結(jié)果的偏差,還將導(dǎo)致倫理、法律風(fēng)險(xiǎn),這一方面的矛盾在醫(yī)療領(lǐng)域尤為突出。

目前,在醫(yī)院內(nèi)實(shí)際應(yīng)用過程中還未有針對(duì)AI的倫理審查機(jī)制,有醫(yī)院參照藥物臨床試驗(yàn)引入的倫理審查機(jī)制對(duì)醫(yī)療AI引入進(jìn)行倫理審查,但很難做到完全適用。更多醫(yī)院對(duì)醫(yī)療AI的引入并未經(jīng)過倫理審查,也有醫(yī)院在對(duì)患者應(yīng)用醫(yī)療AI系統(tǒng)時(shí)嘗試用患者知情同意書來規(guī)避一些潛在風(fēng)險(xiǎn)。

國家藥品監(jiān)督管理局出臺(tái)了對(duì)醫(yī)療AI的相關(guān)指導(dǎo)規(guī)范,并已啟動(dòng)了認(rèn)證流程,從范圍、風(fēng)險(xiǎn)、臨床試驗(yàn)上進(jìn)行了規(guī)定。

當(dāng)前階段,醫(yī)療AI的最后結(jié)果仍需要人工校驗(yàn)審核,醫(yī)生承擔(dān)由此對(duì)患者診療結(jié)局的責(zé)任。未來臨床廣泛引入醫(yī)療AI后如何實(shí)現(xiàn)問責(zé),現(xiàn)在仍不明確。 

人工智能法律規(guī)制

如同大數(shù)據(jù)專家、《大數(shù)據(jù)時(shí)代》一書的作者舍恩伯格所說,大數(shù)據(jù)的特征是追求效率,而不是絕對(duì)精確;追求的是相關(guān)性,而不是因果性,在現(xiàn)代社會(huì),大數(shù)據(jù)和算法結(jié)合已經(jīng)顛覆了傳統(tǒng)的決策方式。那么,是否存在一種價(jià)值中立的平等算法,或者說存在憲法和法律平等保護(hù)的“唯一正確答案”,以供法院來遵循或借鑒呢?中國人民大學(xué)法學(xué)院的丁曉東副教授表示:“這是一個(gè)不可能的任務(wù)。”

中國社會(huì)科學(xué)院法學(xué)研究所助理研究員徐斌認(rèn)為,算法應(yīng)用過程產(chǎn)生的偏見與歧視暫時(shí)還未成為中國社會(huì)關(guān)注的焦點(diǎn),而且在“弱人工智能”的語境下,針對(duì)人工智能展開的種種法律規(guī)制都需要和具體的應(yīng)用場(chǎng)景相結(jié)合。由于立法活動(dòng)不能對(duì)快速變化的社會(huì)關(guān)系進(jìn)行規(guī)范,所以可能我們現(xiàn)在還無法對(duì)人工智能采取一般化的法律規(guī)制。這意味著,我們目前需要在摸索中構(gòu)建和完善治理算法歧視的各項(xiàng)法律規(guī)制。

目前,我國對(duì)包括算法歧視在內(nèi)的人工智能法律規(guī)制仍然處于起步階段,在監(jiān)管層面上,目前在針對(duì)電子商務(wù)的立法中已經(jīng)有個(gè)別條款對(duì)算法歧視進(jìn)行了規(guī)范。比如,《電子商務(wù)法》的第18條首次明確對(duì)“大數(shù)據(jù)殺熟”做出因應(yīng),該條款規(guī)定電商平臺(tái)在進(jìn)行商品推薦和廣告推送的同時(shí)也要向消費(fèi)者展示不包含用戶畫像的服務(wù)內(nèi)容。此外,《電子商務(wù)法》的第40條還對(duì)搜索引擎服務(wù)中的競(jìng)價(jià)排名予以規(guī)定,它要求服務(wù)商必須顯著地標(biāo)明相關(guān)信息,實(shí)際上該條款對(duì)算法控制者提出了信息披露義務(wù)。

國務(wù)院于發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,該指導(dǎo)文件明確要求政府在風(fēng)險(xiǎn)控制和市場(chǎng)監(jiān)督等方面履行相應(yīng)的職能,并圍繞人工智能建立“全流程型”監(jiān)管體系。

“通過算法稽查、無監(jiān)督訓(xùn)練等方式避免或糾正偏見,保持人工智能透明公正是發(fā)展的必由之路。”上海交通大學(xué)附屬兒童醫(yī)院院長(zhǎng)于廣軍表示。

一方面,監(jiān)管部門定期審查算法控制者所使用的算法是否符合預(yù)定軌道,是否造成歧視性后果。如果自動(dòng)化算法對(duì)受保護(hù)群體產(chǎn)生差別性影響,那么監(jiān)管部門應(yīng)當(dāng)將審查結(jié)果向公眾披露。另一方面,在算法透明性缺失的情況下,監(jiān)管部門應(yīng)當(dāng)審查算法控制者是否提供了必要的訪問途徑,以便于個(gè)人或組織能夠?qū)彶槟切┯绊懝怖娴乃惴ā?/p>

公平是相對(duì)的,不公平反而是絕對(duì)的。人工智能作為一項(xiàng)充滿無限想象力的全新技術(shù),不僅沒有顛覆這個(gè)道理,反而驗(yàn)證了它,甚至給出了算法歧視這個(gè)前所未有的難題。面對(duì)這樣的現(xiàn)實(shí),如果求得公正的方案是無解,那么唯有搶先擁有制定規(guī)則的話語權(quán),以更強(qiáng)大的實(shí)力取勝。

 

責(zé)任編輯:華軒 來源: 中國戰(zhàn)略新興產(chǎn)業(yè)
相關(guān)推薦

2019-03-05 14:07:50

機(jī)器人人工智能AI

2016-08-09 09:18:04

云計(jì)算

2014-08-28 08:57:37

2014-07-02 21:01:42

JMP

2022-06-22 11:11:48

人工智能AI

2020-01-03 09:01:01

Web機(jī)器人人工智能

2022-04-13 14:15:50

人工智能機(jī)器人上海

2021-03-04 11:46:56

人工智能AI深度學(xué)習(xí)

2023-06-16 15:26:45

人工智能開發(fā)Rockset

2022-07-11 10:09:53

人工智能氣候危機(jī)

2022-05-27 08:16:35

端點(diǎn)安全人工智能網(wǎng)絡(luò)安全

2022-09-08 09:23:36

人工智能AI

2018-07-02 17:31:00

電商

2022-06-20 14:52:36

人工智能ROI

2022-08-01 15:41:23

人工智能機(jī)器學(xué)習(xí)方法

2021-08-22 15:09:02

人工智能機(jī)器技術(shù)

2022-07-04 15:29:59

人工智能機(jī)器計(jì)算機(jī)

2021-10-18 09:21:42

人工智能AI

2016-11-16 09:35:44

IBM POWER 服

2020-06-03 11:19:40

人工智能技術(shù)新基建
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)