GPT-5要停?OpenAI凌晨發(fā)文回應:保障AI安全,我們沒有「偷工減料」
近些天,對 OpenAI 來說,可謂是一個「多事之秋」。
由于 ChatGPT 及 GPT-4 可能引發(fā)的安全問題,OpenAI 受到了來自外界的一些指責和阻撓:
- 馬斯克等上千人聯(lián)名呼吁 「所有人工智能實驗室應立即暫停訓練比 GPT-4 更強大的大模型,這一時間至少為 6 個月」;
- 意大利禁用 ChatGPT,OpenAl「必須在 20 天內通過其在歐洲的代表向他們通報公司執(zhí)行這一要求而采取的措施」;
- ChatGPT 大面積封號;
- ChatGPT Plus 停售;
- ......
這些事件表明,盡管 AI 已經證明有能力為人類社會帶來諸多好處,但技術總是一把雙刃劍,也會為人類社會帶來帶來真正的風險,AI 也不例外。
4 月 6 日,OpenAI 官方發(fā)布了一篇名為「Our approach to AI safety」的博客文章,探討了如何「安全地構建、部署和使用人工智能系統(tǒng)」的方法。
OpenAI 致力于保持強大的人工智能安全和(人類社會的)廣泛受益。我們的人工智能工具為今天的人們提供了許多好處。
來自世界各地的用戶告訴我們,ChatGPT 有助于提高他們的生產力,增強他們的創(chuàng)造力,并提供量身定制的學習體驗。
我們也認識到,像任何技術一樣,這些工具也有真正的風險——所以,我們努力確保在各個層面上將安全納入我們的系統(tǒng)。
1. 建立越來越安全的人工智能系統(tǒng)?
在發(fā)布任何新系統(tǒng)之前,我們都會進行嚴格的測試,讓外部專家參與反饋,努力利用人類反饋的強化學習等技術改善模型的行為,并建立廣泛的安全和監(jiān)測系統(tǒng)。
例如,在我們最新的模型 GPT-4 完成訓練后,我們所有員工花了 6 個多月的時間使其在公開發(fā)布前更加安全和一致。
我們認為,強大的人工智能系統(tǒng)應該接受嚴格的安全評估。需要有監(jiān)管來確保這種做法被采納,我們積極與政府接觸,探討這種監(jiān)管可能采取的最佳形式。
2. 從真實世界的使用中學習,以改進保障措施
我們努力在部署前預防可預見的風險,然而,我們在實驗室中能學到的東西是有限的。?盡管進行了廣泛的研究和測試,我們無法預測人們使用我們技術的所有有益方式,也無法預測人們?yōu)E用技術的所有方式。?這就是為什么我們相信,隨著時間的推移,從現(xiàn)實世界的使用中學習是創(chuàng)建和發(fā)布越來越安全的人工智能系統(tǒng)的一個關鍵組成部分。
在有大量的保障措施下,我們謹慎地逐步發(fā)布新的人工智能系統(tǒng),將其推送給一個穩(wěn)步擴大的人群,并根據(jù)我們學到的經驗不斷改進。
我們通過我們自己的服務和 API 提供我們最有能力的模型,這樣開發(fā)者就可以直接在他們的應用程序中使用這種技術。這使我們能夠監(jiān)測濫用情況并采取行動,并不斷建立緩解措施,以應對人們?yōu)E用我們的系統(tǒng)的真實方式,而不僅僅是關于濫用可能是什么樣子的理論。
現(xiàn)實世界的使用也使我們制定了越來越細微的政策,以防止那些對人們構成真正風險的行為,同時還允許我們的技術有許多有益的用途。
至關重要的是,我們相信社會必須有時間來更新和調整,以適應能力越來越強的人工智能,而且每個受這種技術影響的人都應該在人工智能的進一步發(fā)展中擁有重要的發(fā)言權。迭代部署幫助我們將各種利益相關者帶入關于采用人工智能技術的對話中,比他們沒有親身經歷過這些工具的情況下更有效。
3. 保護兒童
關于安全的一個關鍵工作是保護兒童。我們要求使用我們的人工智能工具的人必須是 18 歲或以上,或 13 歲或以上并得到父母的批準,我們正在研究驗證選項。
我們不允許我們的技術被用來產生仇恨、騷擾、暴力或成人內容,以及其他(有害)類別。我們的最新模型 GPT-4 與 GPT-3.5 相比,對不允許的內容請求的回應率降低了 82%,我們已經建立了一個強大的系統(tǒng)來監(jiān)控濫用。GPT-4 現(xiàn)在可供 ChatGPT Plus 用戶使用,我們希望隨著時間的推移,能讓更多人使用。
我們作出了很多努力,盡量減少我們的模型產生傷害兒童的內容的可能性。例如,當用戶試圖向我們的圖像工具上傳兒童安全虐待材料時,我們會阻止這一動作,并向國家失蹤和受剝削兒童中心報告。
除了我們的默認安全護欄外,我們還與非營利性的可汗學院等開發(fā)商合作--該學院建立了一個由人工智能驅動的助手,既是學生的虛擬導師,也是教師的課堂助手--為他們的使用情況定制安全緩解措施。我們還在開發(fā)一些功能,使開發(fā)者能夠為模型輸出設定更嚴格的標準,以更好地支持那些希望獲得這種功能的開發(fā)者和用戶。
4. 尊重隱私
我們的大型語言模型是在一個廣泛的文本語料庫上訓練出來的,其中包括公開的、授權的內容,以及由人類審查者產生的內容。我們不使用數(shù)據(jù)來銷售我們的服務、廣告或建立人們的檔案,我們使用數(shù)據(jù)來使我們的模型對人們更有幫助。例如,ChatGPT 通過對人們與它的對話進行進一步的訓練來提高能力。
雖然我們的一些訓練數(shù)據(jù)包括公共互聯(lián)網(wǎng)上的個人信息,但我們希望我們的模型能夠了解這個世界,而不是私人。因此,我們努力在可行的情況下從訓練數(shù)據(jù)集中刪除個人信息,對模型進行微調,以拒絕對私人信息的請求,并對個人提出的從我們的系統(tǒng)中刪除其個人信息的請求作出回應。這些步驟最大限度地減少了我們的模型可能產生包括私人信息的內容的可能性。
5. 提高事實的準確性
大型語言模型根據(jù)它們之前看到的模式,包括用戶提供的文本輸入,預測、產生接下來的一系列的詞。在某些情況下,下一個最有可能的詞可能在事實上并不準確。
提高事實準確性是 OpenAI 和許多其他人工智能開發(fā)者的一個重要工作,我們正在取得進展。通過利用用戶對被標記為不正確的 ChatGPT 輸出的反饋作為主要數(shù)據(jù)來源。
我們認識到,要進一步減少出現(xiàn)幻覺的可能性,以及引導公眾了解這些人工智能工具目前的局限性,還有很多其他工作要做。
6. 持續(xù)的研究和參與?
我們認為,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,并針對現(xiàn)實世界的濫用進行測試。
重要的是,我們認為,提高人工智能的安全性和能力應該齊頭并進。迄今為止,我們最好的安全工作來自與我們能力最強的模型之間的合作,因為它們更善于遵循用戶的指示,更容易引導或「指導」。
隨著能力更強的模型的創(chuàng)建和部署,我們將越來越謹慎,隨著我們人工智能系統(tǒng)的進一步發(fā)展,我們將繼續(xù)加強安全防范措施。
雖然我們?yōu)榱烁玫亓私?GPT-4 的能力、好處和風險,等了 6 個多月才將其部署,但有時可能需要比這更長的時間來提高人工智能系統(tǒng)的安全性。因此,政策制定者和人工智能供應商將需要確保人工智能的發(fā)展和部署在全球范圍內得到有效的管理,沒有人會為了盡快取得成功而「偷工減料」。這是一個艱巨的挑戰(zhàn),需要技術和制度上的創(chuàng)新,但這也是我們渴望做出的貢獻。
解決安全問題也需要廣泛的辯論、實驗和參與,包括在人工智能系統(tǒng)行為的界限上。我們已經并將繼續(xù)促進利益相關者之間的合作和公開對話,以創(chuàng)建一個安全的人工智能生態(tài)系統(tǒng)。