自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能監(jiān)管:向前邁進還是道德清洗?

人工智能
呼吁制定新的、針對人工智能的法律可能會造成人工智能不在現(xiàn)行法律范圍內(nèi)的錯誤印象。它們還會讓科技公司只對法律規(guī)定負責的說法永久化。

        Bria公司的人工智能倡導者RavitDotan表示,盡管呼吁制定新的、針對人工智能的監(jiān)管規(guī)定,作為討論人工智能未來的一部分,有其合理的地位,但這些規(guī)定不應以犧牲其他保護公眾的機制為代價。通用法律(例如非歧視法律)適用于人工智能,應盡快在更大范圍內(nèi)實施。此外,要求監(jiān)管的呼聲不應被用作向政策制定者推卸責任的手段。

  開發(fā)和部署人工智能的組織可以而且應該積極主動地確保他們的技術(shù)是安全和有益的,即使監(jiān)管和執(zhí)行還沒有跟上技術(shù)的步伐。

  OpenAI公司首席執(zhí)行官SamAltman最近在美國參議院關(guān)于人工智能監(jiān)管的司法聽證會上作證,他主張對人工智能進行監(jiān)管,引起了媒體的廣泛關(guān)注。雖然在AIR討論中包括監(jiān)管的呼吁很重要,但它們不應以犧牲其他保護公眾的機制為代價。

  為了盡快解決與人工智能相關(guān)的問題,必須在更大范圍內(nèi)執(zhí)行非歧視法等一般性法律。此外,要求監(jiān)管的呼聲不應被用作向政策制定者推卸責任的手段。開發(fā)和部署人工智能的組織應該采取積極措施,確保其技術(shù)的安全性和效益,即使監(jiān)管和執(zhí)法趕上來。

  呼吁將監(jiān)管作為道德洗滌的一種形式  

  呼吁監(jiān)管而不追究自己的責任是一種空洞的姿態(tài),可能會造成一種負責任的假象。在聽證會上,Altman一再呼吁監(jiān)管機構(gòu)在參議員提出擔憂時進行干預。他承認,“無論美國國會做什么,企業(yè)都有自己的責任,這一點很重要”。然而,他對OpenAI公司為保持自身責任所做的事情保持沉默,這表明情況并非如此。該公司自己最近的人工智能安全聲明指出,建議轉(zhuǎn)移同樣的責任。

  雖然OpenAI公司的聲明涉及了從現(xiàn)實世界的例子中學習、隱私、保護兒童和準確性等主題,但它忽略了一些重要問題。例如,聲明沒有提到版權(quán)和知識產(chǎn)權(quán)(IP)。此外,在ChatGPT實驗中觀察到的偏見和公平問題,在聲明中根本沒有提到。該聲明還無視抄襲和欺詐的風險,盡管ChatGPT的能力使欺詐活動更容易實現(xiàn),撼動了整個行業(yè)的核心。盡管估計指出了這些擔憂,但聲明同樣對ChatGPT的環(huán)境成本保持沉默,例如高碳排放和水消耗。這樣的例子不勝枚舉。

  在聲明的最后,OpenAI暗示他們在安全方面的努力可能不夠。他們不是自己追求更高的標準,而是提倡監(jiān)管,防止其他人走捷徑。

  Altman說,“為了更好地了解GPT-4的功能、好處和風險,我們等了6個多月才部署它,但有時可能需要更長的時間來提高人工智能系統(tǒng)的安全性。因此,政策制定者和人工智能提供商將需要確保人工智能的開發(fā)和部署在全球范圍內(nèi)得到有效管理,這樣就不會有人為了獲得成功而偷工減料。”

  OpenAI這樣的公司,憑借其實力、財富和影響力,有責任在其技術(shù)中優(yōu)先考慮公共安全。雖然降低風險是一項集體努力,但在如此利害攸關(guān)的情況下,把責任推給監(jiān)管機構(gòu)是不可接受的。如果確保產(chǎn)品安全需要6個月以上的時間,那么在發(fā)布更高級的版本之前也需要6個月以上的時間。

  轉(zhuǎn)移對現(xiàn)有法律的關(guān)注  

  除了將責任轉(zhuǎn)移給監(jiān)管機構(gòu)之外,呼吁對人工智能進行監(jiān)管還可以轉(zhuǎn)移人們對企業(yè)可能違反的現(xiàn)有法律的注意力。關(guān)于隱私、版權(quán)和知識產(chǎn)權(quán)等主題的法律得到了一些關(guān)注,但它們只是冰山一角。

  例如,非歧視法律是技術(shù)不可知論的;無論底層技術(shù)如何,他們都禁止歧視。美國聯(lián)邦機構(gòu)發(fā)表聲明強調(diào)了這一事實。例如,聯(lián)邦貿(mào)易委員會、司法部、消費者金融保護局和平等就業(yè)機會委員會這四個聯(lián)邦機構(gòu)最近發(fā)表的聯(lián)合聲明“打開一個新窗口”,以及聯(lián)邦貿(mào)易委員會和消費者金融保護局之前的聲明。訴訟努力也證明了這一點。例如,司法部起訴Meta(當時的Facebook)違反了《公平住房法》。美國司法部辯稱,Meta的廣告算法帶來的歧視是非法的。作為和解的一部分,Meta已經(jīng)同意改變其算法。鑒于它所做的有偏見的假設,ChatGPT的商業(yè)使用可能會以類似的方式導致違反非歧視法律。

  聽證會上簡要地提到了現(xiàn)行法律,但它們更值得關(guān)注。毫不奇怪,科技公司并沒有呼吁監(jiān)管機構(gòu)根據(jù)現(xiàn)行法律追究它們的責任。然而,重要的是要優(yōu)先執(zhí)行現(xiàn)有法律,而不是僅僅依靠新法規(guī);這些法律可以確保我們的安全,并更及時地追究科技公司的責任。

  監(jiān)管之外的責任  

  呼吁制定新的、針對人工智能的法律可能會造成人工智能不在現(xiàn)行法律范圍內(nèi)的錯誤印象。它們還會讓科技公司只對法律規(guī)定負責的說法永久化。

  我們不應該相信這種說法??萍脊緦ζ浼夹g(shù)的負面影響負有責任,無論其合法性如何。作為一個社會,我們有權(quán)力對這些公司施加壓力,要求他們履行責任。

責任編輯:武曉燕 來源: 機房360
相關(guān)推薦

2025-01-10 13:36:24

2023-06-19 16:07:18

人工智能安全

2022-07-26 11:26:14

人工智能數(shù)據(jù)科學風險

2023-11-03 15:29:47

2023-05-04 14:56:03

2022-08-01 15:01:41

人工智能安檢智能化

2022-05-07 10:52:28

人工智能機器人道德風險

2023-10-20 11:12:43

人工智能供應鏈管理

2022-05-27 10:34:06

人工智能自動化

2019-09-02 10:07:49

人工智能互聯(lián)網(wǎng)數(shù)據(jù)

2022-09-15 11:16:23

人工智能的AI

2024-05-07 15:06:43

人工智能法案AI

2024-12-23 05:00:00

AI人工智能

2022-06-14 11:50:44

人工智能法案機器學習

2020-10-14 12:28:19

AI人工智能道德

2022-01-18 11:23:21

人工智能機器學習

2022-10-24 11:06:24

人工智能法案AIA

2024-03-12 10:32:08

2021-03-01 11:14:23

人工智能

2023-08-14 10:38:39

點贊
收藏

51CTO技術(shù)棧公眾號