自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

斯坦福開設AI法律課,人工智能能否成為法律主體?

人工智能 CIOAge
人工智能的異軍突起將這樣的案件帶入公共視野,也為當前的法律法規(guī)、倫理規(guī)范和政策體系帶來不小的考驗。今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)法律、公共政策的當下,斯坦福大學的教育專家和法律人士都在做些什么努力。

去年3月,亞利桑那州發(fā)生一起Uber無人駕駛汽車撞死行人事故。直到今年年3月5日,美國檢察官表示:Uber公司不用擔責,但自動駕駛汽車的后備司機Rafael Vasquez的行為應提交警方進行進一步調(diào)查。

 

[[260621]]
事故現(xiàn)場,圖片來自網(wǎng)絡

然而,在2016年2月,谷歌無人駕駛汽車在加州山景城測試時,與一輛公交大巴發(fā)生碰擦,美國高速公路安全管理局(NHTSA)卻確認,用于自動駕駛的人工智能系統(tǒng)可以被視為司機。

人工智能的異軍突起將這樣的案件帶入公共視野,也為當前的法律法規(guī)、倫理規(guī)范和政策體系帶來不小的考驗:

“人工智能的載體究竟是不是法律主體?”

這樣的問題在斯坦福大學新開設的一門法律和計算機科學交叉的課程上激起了熱烈討論。如果不是法律主體,那么當人工智能載體觸犯他人利益、造成社會損失時,究竟應該由研發(fā)者、運營者還是使用者承擔責任呢?如果是法律主體,那么又該如何為這些“人工智能”定罪量刑呢?

今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)法律、公共政策的當下,斯坦福大學的教育專家和法律人士都在做些什么努力。

AI制定政策?聯(lián)邦政府早已啟動

不要以為人工智能只是科技公司的專利。事實上,近年來美國聯(lián)邦政府已經(jīng)開始考慮使用機器學習和人工智能相關技術幫助公共政策的制定。

美國環(huán)保署(EPA)管理殺蟲劑的例子就很好體現(xiàn)了算法分析和法律相互作用的微妙形式。

過去,美國環(huán)保署對殺蟲劑的毒性檢測很大程度上取決于動物對化學藥物的反應。但面對超過80000種待檢測化學藥物的壓力,這種方法被普遍評價為緩慢、昂貴、又不人道。

后來,美國環(huán)保署開始大量收集數(shù)據(jù),并引進不同計算方法來規(guī)范化學毒性檢查。它建立了一個聚合計算毒理學資源庫(Aggregated Computational Toxicology Resource),根據(jù)各種公共資源整合的關系型數(shù)據(jù)庫,用以支持數(shù)據(jù)挖掘和建模。——在算法與神經(jīng)網(wǎng)絡對數(shù)據(jù)的分析中去尋找決策新思路。

當人工智能介入法律決策,美國的殘疾索賠程序也開始發(fā)生變化。

2013年以來,為了減少工作人員審理紙質(zhì)文件的負擔,并提高案件決策一致性,美國退伍軍人事務部推出了一套計算機案件管理系統(tǒng),用于處理退伍軍人的殘疾索賠。

據(jù)報道,該系統(tǒng)可以根據(jù)索賠人(自我報告)的調(diào)查問卷,從0-100%自動評估不同退伍軍人的殘疾程度。目前這套軟件使用的是IBM Watson 的人工智能程序,從退伍軍人的電子醫(yī)療記錄中進行數(shù)據(jù)篩選。

科技巨頭,政府數(shù)字化改革的合伙人?

今年2月,特朗普簽署了一項推廣人工智能的新行政命令,再次將人工智能升級為國之重策。然而目前除了軍事部門,大部分聯(lián)邦機構的技術更新依舊緩緩慢,高技術人才也相對緊缺。哪里高級人才多?當然要屬硅谷的科技巨頭們了。

那么,處于技術前沿的科技公司又在聯(lián)邦政府的技術升級中擔任什么角色呢?

像IBM等科技巨頭跟政府已在人工智能領域有多個合作項目:

美國海軍陸戰(zhàn)隊正在使用Watson的人工智能設備來診斷軍用車輛的性能,并將自然語言處理和數(shù)據(jù)科學——例如IBM的SPSS統(tǒng)計軟件和Watson Explorer——應用于人員的組織和部署。在不久前,這些大部分計劃和日程安排都是通過電子表格完成的。

 

[[260622]]
AI正在改變海軍陸戰(zhàn)隊的部署方式,圖片來自IBM官網(wǎng)

除了技術上的支持,科技公司也會在核心科技的政策、監(jiān)管、應用前景方面與政府交換意見。

今年2月,谷歌便向美國政府提出了一份長達34頁的《關于人工智能管理的意見》(Perspective on Issues in AI Governance),呼吁政府和社會、工業(yè)界就人工智能的可解釋性標準、公平性評估、安全考慮和責任框架等方面進行合作。

谷歌建議,要像歐洲的電子產(chǎn)品在銷售前需經(jīng)過CE認證一樣,美國政府也應為人工智能創(chuàng)建類似的安全指標。“例如,針對智能鎖當中的生物識別技術,就應在使用前測試它的準確度是否達標。”谷歌的新興技術全球政策負責人Charina Chou表示。

盡管不少科技巨頭都與政府在技術方面的合作項目,但如果這些項目有涉及侵犯隱私、違背倫理的風險呢?

還記得谷歌和美國國防部合作的Maven項目嗎?這個去年3月被爆出后鬧得沸沸揚揚的項目,是谷歌把人工智能技術用于分析無人機鏡頭當中,幫助無人機更好地從移動或靜止圖像中自動追蹤感興趣對象,從而提高打擊精準度。這些無人機可能會參與到美國對阿富汗、巴勒斯坦、也門等國的空襲當中。

很快,超過4000名谷歌員工簽署了一份反對“Maven”項目的請愿書,他們在《紐約時報》刊登了整版廣告,并導致了數(shù)十名員工辭職。最終,去年6月,谷歌松口了。表示將在今年3月到期后,不再與國防部續(xù)約合作。

 

[[260623]]

450多名亞馬遜員工也在近日公開致信貝索斯,希望公司停止與美國國防部和執(zhí)法系統(tǒng)就面部識別軟件 Rekognition 合作的項目。他們擔憂的地方在于,執(zhí)法部門在沒有公眾監(jiān)督、社會問責和亞馬遜限制的情況下使用這些技術,很可能造成對人權的侵犯。

然而,貝索斯表示,公司將持續(xù)和國防部合作,“如果大科技公司都拒絕了國防部,那么這個國家會陷入麻煩……這是我們該做的事情,就算它不受歡迎。”

人工智能與行政結(jié)合的優(yōu)勢與擔憂

到底人工智能對政府績效的改善有哪些優(yōu)點?主要有三點難以抗拒的優(yōu)勢。

***是效率。以較低成本完成大量重復性事件。另一方面,機器能在排除個人因素干擾的前提下進行數(shù)據(jù)分析和結(jié)果預測。決策者可能表現(xiàn)出種族偏見,可能過分地或不足地衡量某一信息的重要性,或者可能對所處情況的預設過于天真。對人為意志的排除使機器做出的決策有天然的說服力。

最重要的是,通過與大數(shù)據(jù)的連接,計算機程序能幫政府官員分析信息,并對潛在的戰(zhàn)略性行為做出反應。

 

[[260624]]
人工智能在反洗錢領域的應用探索,圖片來自網(wǎng)絡

然而,提升行政效率帶來的同時,使用機器辦公的規(guī)范性問題也被提上日程。

近期,加州***法院大法官Mariano-Florentino Cuéllar就在其著作《人工智能與行政國家》(Artificial Intelligence and the Administrative State)中,提出了四點對決策過程中使用人工智能代理的擔憂。

 

[[260625]]
加州***法院大法官Mariano-Florentino Cuéllar本人

首先,政府是否該依賴計算機程序做出某項決策?大法官認為,這取決于決策目標的社會爭議性。當前,立法者常針對是否該做出某項行政決定(如實施經(jīng)濟制裁)以及該決定會在不同層面導致的后果進行大量的辯論,人工智能將如何統(tǒng)籌政治博弈中的各方利益?這將是個不小的挑戰(zhàn)。

第二點擔憂和爭議來自人工智能所謂的“機械理性”。由于在由算法主導的行政決策占越來越重要的位置,但機器減少人為因素干擾的同時,是否應該反思,那些所謂的“偏見”和“情感因素”是否都沒有價值?一些可能被機器排除的“偏見”例如對弱者的同情,或許也同樣值得關注。

第三,網(wǎng)絡安全風險及其他不利影響。當行政越來越依賴數(shù)據(jù)收集和計算機程序,這可能帶來更高的效率,也同時意味著受網(wǎng)絡安全威脅的影響更大。

***,如何向公眾解釋決策過程將遇到困難。試想一下,民主治理的內(nèi)涵是通過對話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機會。除非人工智能的決策機制能依賴相對簡單透明的結(jié)構,否則向公眾提供決策如何產(chǎn)生的理由時,決策機構將會遇到相當?shù)睦щy。

斯坦福法律課上的頭腦風暴

面對這些擔憂,身處硅谷中心的斯坦福大學已開始促成從學術研究到業(yè)界層面的合作:從2019年起,斯坦福大學政策研究中心新開設一門法律和計算機科學交叉的課程“算法管理:在規(guī)制型國家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)

 

斯坦福開設AI法律課,人工智能能否成為法律主體?
新開設算法管理課,圖片自斯坦福法學院官網(wǎng)

這門課程由斯坦福法學院教授David Freeman Engstrom、Daniel E. Ho,和加州***法院大法官Mariano-Florentino Cuéllar共同教授,并邀請了25位律師、計算機科學家和算法工程師來和大家共同探討政府機構的技術研發(fā)和應用。

 

[[260626]]
從左至右:斯坦福法學院教授Daniel E. Ho,David Freeman Engstrom和加州***法院大法官Mariano-Florentino Cuéllar

“我們現(xiàn)在面臨著專業(yè)技術和認知上的不匹配。一方面在法律判決中我們需要法律機構能解釋做出這樣決策的原因,另一方面,人工智能和機器學習的工作機制尚未完全透明,”斯坦福法學院教授David Freeman Engstrom說道。

課堂的學生來自計算機科學、法律、政治、哲學等多個專業(yè)背景,需要通過團隊合作,完成三部分任務。

首先,團隊對100個最重要的聯(lián)邦機構進行調(diào)查。當發(fā)現(xiàn)有算法參與決策的例子時,學生們開始測評這項技術具體歸屬哪一類:是屬于人工智能,還是機器學習,還是一些其他的基礎技術?

第二步,學生集體評估近期或中期政府機構中最可能部署人工智能的環(huán)節(jié)。

***,轉(zhuǎn)向規(guī)范性問題探討:思考使用人工智能執(zhí)行監(jiān)管任務帶來的法律、政策分析和哲學層面的挑戰(zhàn)。例如,如何解決諸多程序性權利面臨被機器行政架空的威脅等。

課程結(jié)束后,學生將完成一份報告,探討行政機構在不同層面該如何應用人工智能技術。該報告將提交到無黨派獨立機構美國行政會議(Administrative Conference of the United States),并有望影響未來行政機構的政策。

責任編輯:未麗燕 來源: 鈦媒體
相關推薦

2020-10-30 09:56:45

大數(shù)據(jù)人工智能法律

2017-08-14 15:12:31

2023-04-12 15:45:56

人工智能ChatGPT

2020-07-27 08:11:30

人工智能法律技術

2019-03-24 12:11:47

AI 數(shù)據(jù)人工智能

2019-12-16 14:33:01

AI人工智能斯坦福

2023-11-15 16:14:30

人工智能法律

2021-10-13 09:38:13

人工智能機器學習技術

2018-11-21 14:54:56

2022-03-17 19:03:14

人工智能報告趨勢

2021-03-18 11:30:15

人工智能AI機器學習

2021-07-06 10:37:37

模型人工智能深度學習

2022-05-01 15:42:30

NLP人工智能自然語言處理

2017-11-28 14:18:29

2020-12-29 11:18:50

人工智能安全人臉識別

2023-08-10 14:01:08

開源虛擬

2019-03-20 14:02:13

AI 行業(yè) 人工智能

2019-12-12 10:08:57

AI 數(shù)據(jù)人工智能

2017-05-05 16:10:39

滴滴出行斯坦福人工智能

2018-12-14 11:48:24

AI人工智能機器人
點贊
收藏

51CTO技術棧公眾號