自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

王春暉:應當高度關注ChapGPT的倫理問題

人工智能
在生成式AI技術研發(fā)的同時,要加強人工智能相關法律、倫理和社會問題的同步研究,尤其要關注生成式AI模仿人類傳播錯誤信息或將商業(yè)無人機轉化為目標武器攻擊人類,建立和優(yōu)化保障生成式AI健康發(fā)展的法律法規(guī)和倫理道德框架。

最近,火爆全球的ChapGPT,其應用引發(fā)的倫理與安全挑戰(zhàn)日益凸顯。3月30日,非營利組織人工智能與數字政策中心(CAIDP)向美國聯邦貿易委員會(FTC)投訴稱:GPT-4“有偏見性,欺騙性,對隱私和公共安全構成風險”。CAIDP認為,OpenAI違反了FTC對人工智能(AI)產品的指導,并違反了FTC法案第5條,該法案禁止不公平和欺騙性的商業(yè)行為。3月29日,一份由一千多名科技專家簽署的題為《暫停大型人工智能研究》公開信引起了全球的廣泛關注,這些科技專家包括圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯合創(chuàng)始人史蒂夫?沃茲尼亞克(Steve Wozniak)、DeepMind高級研究科學家扎卡里·肯頓(Zachary Kenton)等AI領域的企業(yè)家、學者、高管。

圖片

筆者注意到,這些AI專家們在信中強烈呼吁:所有AI研究室立刻暫停訓練比GPT-4更加強大的AI系統(tǒng),為期至少6個月,并建議各大企業(yè)、機構共同開發(fā)一份適用于AI研發(fā)的安全協(xié)議,同時信中還提到各國政府應當在必要的時候介入其中。截至目前,已有1125人簽名支持這封公開信。公開信中指出,目前AI技術在很多領域已經取得了很大的進展,但是這些進展也帶來了一些潛在的危險。例如,一些研究人員擔心,超強的AI可能會在未來對人類產生威脅,因此需要對這項技術進行更加深入的研究和探討。此外,公開信中還提到了AI技術可能會對社會帶來的影響。例如,一些人擔心AI技術可能會取代很多人類工作,從而導致失業(yè)率的增加。此外,一些人還擔心AI技術可能會對社會的隱私和安全造成威脅。

因此,這份公開信呼吁暫停大型的AI項目,以便對這項技術進行深入的研究和探討。此外,這份公開信還呼吁政府、學術界和產業(yè)界等各方加強對AI技術的監(jiān)管和控制,以確保這項技術能夠更好地服務于人類,而不是對人類產生威脅。

目前,世界多國教育系統(tǒng)及相關從業(yè)者已公開抵制ChatGPT。美國多所大學已宣布計劃減少居家評估,增加手寫論文和口試。紐約市、巴爾的摩和洛杉磯的學區(qū)都叫停了學校管理的網絡訪問聊天機器人。在澳大利亞,一些大學表示他們將恢復只使用監(jiān)考的筆試考試來評估學生。法國頂尖學府之一的巴黎政治學院也宣布禁止使用ChatGPT。

科技倫理是科技創(chuàng)新和科研活動中人與社會、人與自然以及人與人關系的思想與行為準則,它不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應用中的倫理??萍紓惱硎抢硇缘漠a物。其底層邏輯,要求科技創(chuàng)新和成果只能有益于或最大限度地有益于人、生物和環(huán)境,而不能損傷人、損害生物和破壞環(huán)境,即便不可避免地會不同程度地損人毀物——如藥物的副作用,也要把這種副作用減少到最低,甚至為零。在具體的倫理規(guī)則上,還應兩利相權取其大、兩害相衡擇其輕。

生成式AI(Generative AI 或 AIGC)是利用現有文本、音頻文件或圖像創(chuàng)建新內容的技術。ChatGPT 是生成式 AI 的特定實現 ,旨在生成文本以響應對話設置中的用戶輸入,剛剛問世的ChatGPT已經引發(fā)全球對生成式AI倫理問題的高度關注。事實上,ChatGPT的應用正在對社會結構構成了真實而迫在眉睫的三大威脅:一是數據安全的威脅,ChatGPT 以海量信息“為食”,數據量越大、數據越新,其功能性越好。這意味著要保證良好的用戶體驗,它必須在社會各領域中獲取足夠多和準確的知識和信息,但問題在于,許多信息涉及商業(yè)機密、國家機密和個人隱私,獲取和利用這些信息本身存在合法性問題,一旦重要數據泄露,造成的損失到底是由泄露數據的人承擔,還是由披露數據的ChatGPT承擔;二是對人才教育的威脅,ChatGPT被學生用于完成作業(yè)和撰寫論文對教育界和學術界造成了重大的沖擊。調查顯示,美國有89%的學生用ChatGPT寫作業(yè),目前尚未研究出可準確檢測這種作弊行為的技術性方法。利用ChatGPT完成學業(yè)任務的高質量和高效率遠超此前的系列解題軟件,它可以完美避開查重等問題,這使其極具誘惑力。人類教育的意義本來就是為了培養(yǎng)社會人才、推進人類歷史的進步,而ChatGPT作為當前智能機器人的一個前沿成果,卻替代人類完成人才培養(yǎng)的任務,這是及其可怕的;三是意識形態(tài)滲透的威脅。ChatGPT的數據輸出功能承載著后臺技術操控者的話語權,用戶越多、使用范圍越廣就意味著其話語權越大、價值滲透力越強。ChatGPT是有政治立場和價值取態(tài)的,操控者的價值觀存在歷史和文化的偏見、歧視,就會通過ChatGPT的“放大鏡”昭然于世,誤導用戶,扭曲大眾價值觀,引起社會動蕩,妨害社會公平正義。另一方面,在國際競爭日益激烈的背景下,各種社會思潮此起彼伏。ChatGPT一旦面向大眾,勢必會代表以美國為首的發(fā)達資本主義國家發(fā)起意識形態(tài)滲透的攻勢,成為意識形態(tài)滲透的重要工具。

圖片

 早在2016年,標準制定組織IEEE就發(fā)布了一份題為《利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》的報告,該報告提出了一個發(fā)展人工智能的一般性原則,主要涉及AI可靠性以及高層次的倫理問題,報告認為,人工智能發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時,主要考慮三大因素:一是體現人權;二是優(yōu)先考慮最大化對人類和自然環(huán)境的好處;三是削弱人工智能的風險和負面影響。

筆者建議,各國在研發(fā)生成式AI時,應當建立健全公開透明的AI監(jiān)管體系,重點在生成式AI的設計問責和應用監(jiān)督并重的雙層監(jiān)管結構上做充分的準備,實現對AI算法設計、產品開發(fā)和成果應用等的全過程監(jiān)管。促進生成式AI行業(yè)和企業(yè)自律,切實加強生成式AI協(xié)同一體化的管理體系,加大對生成式AI領域數據濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

在生成式AI技術研發(fā)的同時,要加強人工智能相關法律、倫理和社會問題的同步研究,尤其要關注生成式AI模仿人類傳播錯誤信息或將商業(yè)無人機轉化為目標武器攻擊人類,建立和優(yōu)化保障生成式AI健康發(fā)展的法律法規(guī)和倫理道德框架。

法律研究領域要開展與AI應用相關的民事與刑事責任確認、隱私和產權保護、機器倫理與破壞力評價等倫理與法律問題的交叉研究,建立生成式AI的可追溯和問責制度,明確人工智能的設計者、控制者、使用者等相關法律主體的權利、義務和責任。

建議各國進行生成式AI相關法律、倫理和社會問題的國際合作和交流,建立保障生成式AI健康發(fā)展的法律法規(guī)和倫理道德框架,確保人工智能在倫理規(guī)范和法律框架下健康發(fā)展,?勵跨學科、跨領域、跨地區(qū)、跨國界的交流與合作,推動形成具有?泛共識的??智能倫理治理框架和標準規(guī)范。

作者系:浙江大學網絡空間安全學院教授、中國科協(xié)網絡與數據法治決策咨詢首席專家、工信部信息通信經濟專家委員會委員。

關注本公眾號:

圖片

責任編輯:龐桂玉 來源: 春暉大地
相關推薦

2023-05-23 11:39:47

2016-11-02 20:09:30

IT人士系統(tǒng)日志戰(zhàn)略性預測

2017-04-12 13:58:24

互聯網法治政府

2013-11-28 09:16:14

SDN控制器軟件定義網絡

2023-05-26 14:13:01

電信違法行為

2023-05-23 11:45:43

2014-02-24 15:54:56

戴爾輕盈IT

2015-12-14 11:35:16

2017-01-05 09:13:23

開源項目

2013-01-06 17:06:08

數據治理Informatica

2012-11-28 09:34:40

浪潮一體機大數據王恩東

2016-05-30 10:43:10

云安全

2020-11-27 09:52:55

人臉識別

2020-06-03 09:17:37

5G4G網絡

2014-07-25 09:10:48

2010-06-02 11:36:21

IPv6標準

2016-08-01 17:16:49

OpenStack開發(fā)管理

2013-04-26 11:07:07

大數據全球技術峰會

2021-09-03 09:22:28

人工智能倫理AI

2013-03-20 09:54:07

點贊
收藏

51CTO技術棧公眾號