重磅監(jiān)管!OpenAI新大模型,需要美國政府審查才能發(fā)布
OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Altman在社交平臺宣布,與美國AI安全研究所達成合作協(xié)議,對于OpenAI未來的模型進行預發(fā)布測試。
這也就是說,只有通過美國政府的各種安全測試,OpenAI才能發(fā)布領先的大模型。已經無法自行發(fā)布產品,無形之中會限制其技術的發(fā)揮。例如,OpenAI正在測試的“草莓”和“獵戶座”在功能方面可能會受到影響。
其實當前美國網絡司令部司令、前國家安全局局長-中增根加入董事會時,就已經盯上了OpenAI,現(xiàn)在只是把枷鎖正式套在了頭上。
Altman還無奈的加了一句,出于各種原因,在國家層面上進行監(jiān)管是很重要的,美國需要繼續(xù)領先!
多數(shù)網友對這個消息持悲觀態(tài)度,OpenAI再也不是那個擁有無盡想象力和創(chuàng)造力的生成式AI領導者,就像一顆璀璨的星辰被籠罩上一層迷霧。
OpenAI的發(fā)展,可能受到了美國政府的阻礙。
我的天,美國政府過早的干預,只會對OpenAI的創(chuàng)新能力帶來致命打擊。
中國大模型會因為美國政府這個愚蠢的決定,快速崛起嗎?
自由市場就是香,有各種手段確保企業(yè)不會出現(xiàn)壟斷的情況。
如果你生了一個非常聰明的寶寶,你原意把他交給別人來養(yǎng)嗎?
這是一個令人遺憾的消息,以后OpenAI發(fā)布的產品,只是美國政府希望我們擁有的功能。
這不是一個好消息。因為與美國政府有內線關系的公司會得到優(yōu)待,而其他的 AI 則會被嚴格審查,秘密也會被泄露。除非美國政府能證明發(fā)布某類模型會造成明顯的獨特危害,否則他們沒有管轄權。
太爽了!這種合作在歐洲幾乎是不可能的。你們在美國的前瞻性思維顯然是一個明顯的競爭優(yōu)勢!
我同意這可能會對國家安全產生影響,但美國政府對任何事情的控制很少會帶來任何好處。我很好奇對 Meta 開源模型的影響有什么看法,因為很多外國競爭對手也可以很容易地使用他們的模型。
你真要這么做了,馬斯克的Grok會贏得競爭。
美國官方網站已經公布了該消息,同時OpenAI主要競爭對手,全球知名大模型平臺Anthropic也被簽署了合作協(xié)議。
兩家公司都與美國AI安全研究所建立了合作關系,在新模型公開發(fā)布之前和之后,為其提供前沿模型的框架。通過合作協(xié)議,將合作研究如何評估AI能力和安全風險,以及減輕這些風險的方法。
此外,美國AI安全研究所還計劃與英國AI安全研究所的合作伙伴進行合作,就潛在的安全改進向Anthropic和OpenAI提供意見反饋。
美國AI安全研究所所長- Elizabeth Kelly表示,安全對于推動突破性技術創(chuàng)新至關重要。我們期待與OpenAI和Anthropic的安全技術合作,以推進人工智能安全科學。這些合作協(xié)議只是一個開始,但它們是我們努力負責任地管理AI未來的重要里程碑。
本文轉自AIGC開放社區(qū),作者:AIGC開放社區(qū)
