自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI發(fā)布Model Spec,揭示其期望AI如何行動

人工智能
通過明確定義 AI 模型應(yīng)如何行為的模型規(guī)范,并持續(xù)尋求全球社區(qū)的輸入,OpenAI 旨在培養(yǎng)一個(gè)環(huán)境,在這個(gè)環(huán)境中 AI 可以作為社會中的積極力量蓬勃發(fā)展 —— 即使在面臨訴訟和因未經(jīng)明確同意而訓(xùn)練藝術(shù)家作品的批評時(shí)也是如此。

OpenAI推出了Model Spec,這是一個(gè)旨在塑造 OpenAI 應(yīng)用程序編程接口(API)和 ChatGPT 中使用的 AI 模型行為的框架文件,并通過這里的網(wǎng)絡(luò)表單征求公眾反饋,開放至 5月22日。

正如 OpenAI 的聯(lián)合創(chuàng)始人兼 CEO Sam Altman 在 X 上發(fā)布的:“我們將傾聽、討論并隨時(shí)間調(diào)整這些內(nèi)容,但我認(rèn)為明確什么是錯(cuò)誤 vs. 什么是決策將非常有用?!?/p>

為什么 OpenAI 要發(fā)布Model Spec?

OpenAI 表示,發(fā)布這份工作文件是其更廣泛使命的一部分,旨在確保 AI 技術(shù)以對所有用戶有益且安全的方式運(yùn)行。

這個(gè)過程當(dāng)然容易說難做,而且很快就會涉及到關(guān)于技術(shù)、智能系統(tǒng)、計(jì)算、工具以及更廣泛的社會問題的長期未解決的哲學(xué)辯論。

正如 OpenAI 在其推出Model Spec的博客文章中所寫:

“即使一個(gè)模型旨在廣泛地對用戶有益,這些意圖在實(shí)踐中可能會發(fā)生沖突。例如,一家安全公司可能想生成釣魚郵件作為合成數(shù)據(jù),以訓(xùn)練和開發(fā)分類器來保護(hù)其客戶,但如果這一功能被詐騙者使用,則具有害性?!?/p>

通過分享首份草案,OpenAI 希望公眾能深入?yún)⑴c關(guān)于 AI 開發(fā)中涉及的倫理和實(shí)踐考慮的討論。用戶可以通過 OpenAI 網(wǎng)站上的模型規(guī)格反饋表在接下來的兩周內(nèi)提交他們的評論。

此后,OpenAI 表示將“在接下來的一年里分享關(guān)于Model Spec的變更、我們對反饋的回應(yīng)以及我們在塑造模型行為方面的研究進(jìn)展的更新”。

盡管 OpenAI 在今天發(fā)布Model Spec的博客文章中沒有具體說明它如何影響其 AI 模型的行為——以及模型規(guī)格中寫入的一些原則是否包含在用于在向公眾提供之前對 AI 系統(tǒng)進(jìn)行對齊的“系統(tǒng)提示”或“預(yù)提示”中——但可以安全地假設(shè)這對它有重大影響。

在某些方面,模型規(guī)范對我而言似乎類似于競爭對手 Anthropic AI 的“憲法”式 AI 開發(fā)方法,這最初是一個(gè)主要的區(qū)別點(diǎn),但后者公司已經(jīng)有一段時(shí)間沒有廣泛強(qiáng)調(diào)這一點(diǎn)了。

AI 行為框架

模型規(guī)范圍繞三個(gè)主要組成部分構(gòu)建:目標(biāo)、規(guī)則和默認(rèn)行為。這些元素作為指導(dǎo) AI 模型與人類用戶互動的支柱,確保它們不僅有效,而且遵循道德標(biāo)準(zhǔn)。

目標(biāo):該文檔設(shè)定了旨在幫助開發(fā)者和最終用戶的廣泛、總體原則。這些包括幫助用戶高效地實(shí)現(xiàn)他們的目標(biāo),考慮對不同利益相關(guān)者的潛在影響,以及維護(hù) OpenAI 承諾在社區(qū)中的正面形象。

規(guī)則:為了導(dǎo)航復(fù)雜的 AI 互動景觀,模型規(guī)范建立了清晰的規(guī)則。這些規(guī)則要求遵守適用的法律,尊重知識產(chǎn)權(quán),保護(hù)隱私,并嚴(yán)格禁止生成不適合工作場所(NSFW)的內(nèi)容。

默認(rèn)行為:指南強(qiáng)調(diào)假設(shè)良好意圖的重要性,必要時(shí)提出澄清問題,并盡可能提供幫助而不越界。這些默認(rèn)設(shè)置旨在在不同用戶和用例的多樣化需求之間促進(jìn)平衡。

有些像賓夕法尼亞大學(xué)沃頓商學(xué)院的 AI 影響者和教授 Ethan Mollick 將其比作科幻作家 Isaac Asimov 于 1942 年開發(fā)的虛構(gòu)的“機(jī)器人三定律”。

其他人對 OpenAI 的模型規(guī)范如何影響 ChatGPT 或其他 AI 模型的行為提出了問題。正如技術(shù)作家 Andrew Curran 在 X 上指出的,OpenAI 在模型規(guī)范中包含的一個(gè)示例顯示了一個(gè)假想的“AI 助手”在用戶錯(cuò)誤宣稱地球是平的時(shí)不反駁用戶并退縮。

持續(xù)的參與和發(fā)展

OpenAI 認(rèn)識到模型規(guī)范是一個(gè)不斷發(fā)展的文件。它不僅反映了組織當(dāng)前的實(shí)踐,也是一個(gè)將根據(jù)持續(xù)的研究和社區(qū)反饋進(jìn)行調(diào)整的動態(tài)框架。

這種咨詢性方法旨在收集來自全球利益相關(guān)者(如政策制定者、信任機(jī)構(gòu)和領(lǐng)域?qū)<?的多樣化觀點(diǎn)。

收到的反饋將在完善模型規(guī)范和塑造未來 AI 模型的發(fā)展中扮演關(guān)鍵角色。

OpenAI 計(jì)劃持續(xù)向公眾更新從這種反饋循環(huán)中獲得的變化和見解,以此強(qiáng)化其對負(fù)責(zé)任的 AI 發(fā)展的承諾。

未來的發(fā)展方向

通過明確定義 AI 模型應(yīng)如何行為的模型規(guī)范,并持續(xù)尋求全球社區(qū)的輸入,OpenAI 旨在培養(yǎng)一個(gè)環(huán)境,在這個(gè)環(huán)境中 AI 可以作為社會中的積極力量蓬勃發(fā)展 —— 即使在面臨訴訟和因未經(jīng)明確同意而訓(xùn)練藝術(shù)家作品的批評時(shí)也是如此。

責(zé)任編輯:姜華 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2025-04-27 09:17:00

2023-05-23 12:28:04

2023-11-08 07:55:48

2018-12-10 11:42:39

何寶宏風(fēng)向

2019-11-05 15:10:36

RPMspec文件Linux

2024-12-10 15:10:26

2023-03-31 15:11:26

OpenAIAI

2025-02-04 15:14:34

2023-08-29 10:30:12

2023-08-08 09:44:01

OpenAIGPT 模型

2021-10-28 10:38:49

人工智能語言模型技術(shù)

2021-07-09 05:31:40

黑客網(wǎng)絡(luò)攻擊惡意軟件

2023-06-01 17:06:49

模型思維

2024-11-27 14:35:00

2023-10-08 13:56:00

英偉達(dá)芯片AI

2024-05-14 11:29:15

2023-12-19 07:24:37

2016-11-21 16:01:48

SPEC

2024-04-06 15:27:56

2019-05-13 15:41:49

AI人工智能體驗(yàn)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號