人工智能同時需要實用主義者和藍天夢想家
人工智能思想家似乎來自兩個社區(qū)。一種是我所謂的藍天幻想家,他們推測技術的未來可能性,援引烏托邦幻想來產生興奮。藍天構想令人信服,但往往被不切實際的愿景和可以和應該建造的道德挑戰(zhàn)所籠罩。
相比之下,我所說的泥地靴實用主義者是關注問題和解決方案的。他們希望減少廣泛使用的人工智能系統(tǒng)可能造成的危害。他們專注于修復有偏見和有缺陷的系統(tǒng),例如經常錯誤地將人識別為罪犯或侵犯隱私的面部識別系統(tǒng)。實用主義者希望減少 AI 可能犯的致命醫(yī)療錯誤,并引導自動駕駛汽車成為安全駕駛汽車。他們的目標還在于改進基于人工智能的關于抵押貸款、大學錄取、工作招聘和假釋授予的決策。
作為一名在設計已廣泛實施的創(chuàng)新應用程序方面有著悠久歷史的計算機科學教授,我相信那些有遠見的人會從泥地靴現(xiàn)實主義者的深思熟慮的信息中受益。將兩個陣營的工作結合起來更有可能產生有益的結果,從而導致下一代技術的成功。
雖然藍天投機者的未來主義思維激發(fā)了我們的敬畏并獲得了大部分資金,但泥地靴思維提醒我們,一些人工智能應用程序威脅隱私、傳播錯誤信息,并且明顯存在種族主義、性別歧視和其他道德問題。不可否認,機器是我們未來的一部分,但它們會平等地為所有未來的人類服務嗎?我認為泥地靴陣營的謹慎和實用性將通過確保算法開發(fā)的多樣性和平等性在短期和長期內造福于人類,這些算法越來越多地影響著我們的日常生活。如果藍天思想家將泥地靴現(xiàn)實主義者的擔憂融入他們的設計中,他們就可以創(chuàng)造出更有可能促進人類價值觀、權利和尊嚴的未來技術。
藍天思維始于人工智能發(fā)展的早期。文學由開創(chuàng)該技術并預示其不可避免的社會轉型的作者所主導。人工智能的“父親”通常被認為是麻省理工學院的 Marvin Minsky 和 John McCarthy 以及卡內基梅隆大學的 Allen Newell 和 Herb Simon。他們聚集在會議上,比如 1956 年的達特茅斯會議,激發(fā)了西蒙 1965 年預測“機器將能夠在 20 年內完成人類可以做的任何工作”的熱情。
人工智能還有許多其他貢獻者,包括2018 年的三位圖靈獎獲得者:Geoffrey Hinton、Yoshua Bengio 和 Yann LeCun。他們在深度學習算法方面的工作是一項重要貢獻,但他們對 AI 的重要性和必然性的持續(xù)慶祝包括 Hinton 在2016 年令人不安的引述,即“人們現(xiàn)在應該停止培訓放射科醫(yī)生。很明顯,在五年內深度學習將比放射科醫(yī)生做得更好?!?nbsp;更以人為本的觀點是,深度學習算法將成為另一種工具,如乳房 X 光檢查和血液檢查,使放射科醫(yī)生和其他臨床醫(yī)生能夠做出更準確的診斷并提供更合適的治療計劃。
牛津大學 2013 年的一份報告將機器人取代人類從而造成廣泛失業(yè)的主題合法化,該報告聲稱 47% 的工作可以實現(xiàn)自動化。未來學家馬丁福特 2015 年的著作《機器人的崛起》抓住了這一想法,描繪了一幅令人不安的畫面,即低技能和高技能工作變得如此完全自動化,以至于政府將不得不提供普遍的基本收入,因為剩下的工作機會很少?,F(xiàn)實情況是,精心設計的自動化可以提高生產力,從而降低價格、提高需求并為許多人帶來好處。這些變化引發(fā)了一個平行的現(xiàn)象,即大力創(chuàng)造新的就業(yè)機會,這有助于導致美國和其他一些國家目前的高就業(yè)水平。
是的,有些作者提供了警示故事和不同的愿景,例如麻省理工學院教授 Joseph Weizenbaum 在他 1976 年出版的《計算機能力和人類理性》一書中,但這些都是例外。
泥地靴實用主義者掀起了新一輪深思熟慮的人工智能批評浪潮。他們將討論從天馬行空的樂觀轉變?yōu)槊鞔_指出對人類尊嚴、公平和民主的威脅。Op-Ed 文章和2016 年白宮座談會是有益的舉措,數(shù)學家 Cathy O'Neil 的 2016 年著作《數(shù)學毀滅武器》擴大了受眾范圍。她專注于不透明的人工智能算法在大規(guī)模應用以決定假釋、抵押和工作申請時如何有害。奧尼爾強有力的例子促進了以人為本的思維。
其他書籍,如 Ruha Benjamin 的Race After Technology:Abolitionist Tools for the New Jim Code緊隨其后的是如何改變算法以增加經濟機會和減少種族偏見。
社會心理學家 Shoshanna Zuboff 于 2019 年出版的《監(jiān)視資本主義時代》一書展示了谷歌從“不作惡”的早期座右銘轉變?yōu)椤盎煜@些過程及其影響”的有計劃的努力。Zuboff 的解決方案是呼吁改變商業(yè)模式、民主監(jiān)督和隱私保護區(qū)。學者 Kate Crawford 在她 2021 年出版 的《人工智能地圖集》一書中發(fā)表了另一項毀滅性的泥靴分析, 重點關注人工智能對工作、環(huán)境、人際關系和民主的榨取和破壞力。她在美國國家工程院的一場引人入勝的講座中對此作了進一步的完善,描述了人工智能研究人員和實施者可以采取的建設性行動,同時鼓勵政府監(jiān)管和個人努力保護隱私。
泥地靴活動家因其積極的研究貢獻而獲得認可,這些貢獻提供了有益于人們的巧妙設計。2021 年 10 月, Cynthia Rudin 獲得了人工智能促進協(xié)會頒發(fā)的 100 萬美元的人工智能造福人類獎。她在可解釋形式的 AI 方面的工作是對不透明黑盒算法令人眼花繚亂的復雜性的回應,這讓人們很難理解為什么他們因假釋、抵押貸款或工作而被拒絕。
許多泥地靴思想家是女性,但男性也談到了人道監(jiān)督的必要性。技術先驅 Jaron Lanier 在他的《立即刪除社交媒體帳戶的十個論點》中也提出了擔憂,該文件確定了社交媒體的危害,并建議用戶更好地控制自己對社交媒體的使用。法律學者 Frank Pasquale 的機器人新定律解釋了為什么 AI 開發(fā)人員應該重視人類專業(yè)知識、避免技術軍備競賽并對他們創(chuàng)造的技術負責。然而,通過以人為本的設計來確保人為控制將需要對國家政策、商業(yè)實踐、研究議程和教育課程進行重大改變。
這個陣營的多元化工作者——包括女性、非二元性人群、殘疾人和有色人種——傳達了重要信息,以確保將藍天夢想轉化為可實現(xiàn)的產品和服務,從而造福人類并保護環(huán)境。