自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI安全大佬,華人科學(xué)家翁荔B站首秀!人類如何培養(yǎng)出下一代聰明且安全的AI技術(shù)

原創(chuàng) 精選
人工智能
隨著AI應(yīng)用日益智能化與自主化,如何確保AI的行為符合人類價值觀,真正做到以人為本,成為了AI安全與對齊研究的核心議題。

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

B站真的啥也能學(xué)到!

11月B站的嗶哩嗶哩超級科學(xué)晚活動,竟然請來了OpenAI的研究副總裁(安全)——翁荔!

她是OpenAI的華人科學(xué)家,也是ChatGPT的貢獻(xiàn)者之一。

她畢業(yè)于北京大學(xué)信息管理系,即現(xiàn)在的北京大學(xué)數(shù)字人文實驗室,是2005級本科生。

畢業(yè)后,她赴美攻讀博士學(xué)位,并曾在Facebook工作。

自2018年起,翁荔加入了OpenAI,并在GPT-4項目中主要參與預(yù)訓(xùn)練、強(qiáng)化學(xué)習(xí)&對齊、模型安全等方面的工作。

翁荔還提出過著名的Agent 公式:Agent = 大模型 + 記憶 + 主動規(guī)劃 + 工具使用。

圖片圖片

她超高質(zhì)量的blog,得到了很多AI圈人士的追更。

今年7月,她利用一天休息日,寫了萬字 blog,提出了大模型的“外在幻覺”概念。

圖片圖片

上下文幻覺:模型輸出應(yīng)與源內(nèi)容在上下文中保持一致。

外部幻覺:模型輸出應(yīng)以預(yù)訓(xùn)練數(shù)據(jù)集為依據(jù)。然而,考慮到預(yù)訓(xùn)練數(shù)據(jù)集的規(guī)模,逐個生成并檢索以識別沖突的成本太高。如果我們將預(yù)訓(xùn)練數(shù)據(jù)集視為世界知識的代理,我們實際上是在努力確保模型輸出是基于事實且可由外部世界知識驗證的。

圖片圖片

在這場B站首秀中,翁荔站在舞臺上,以《AI安全與“培養(yǎng)”之道》為主題進(jìn)行了演講分享。

圖片圖片

“AI技術(shù)是一個雙刃劍,它帶來了便利與挑戰(zhàn)并行,我們的參與至關(guān)重要。讓我們攜手培養(yǎng)出一個既聰明又負(fù)責(zé)的AI伙伴?!彼f。

以下是經(jīng)過整理的演講全文:

大家好,我是翁荔。今天我想與大家探討一個既深刻又有趣的話題:AI安全,以及我們?nèi)绾蜗衽囵B(yǎng)下一代一樣,培育出既聰明又安全的人工智能。

繼ChatGPT橫空出世以來,AI技術(shù)如同搭乘了高速列車,迅速滲透并影響著我們的日常。

AI每天都在進(jìn)化,需要我們用心引導(dǎo)與教育,以確保其更好地服務(wù)于人類,同時確保安全無虞。一個既安全又智能的AI無疑將為我們的生活帶來諸多裨益。

試想,一個能洞察你生活習(xí)慣的智能家居系統(tǒng),能根據(jù)你的需求自動調(diào)節(jié)室內(nèi)溫度風(fēng)險?;蚴且粋€時刻關(guān)注你健康狀況的AI助手,能為你提供量身定制的健康建議。

AI不僅能顯著提升我們的生活質(zhì)量,還能開辟新的就業(yè)領(lǐng)域,提升工作效率。然而這一切均建立在AI安全的基礎(chǔ)之上。正如自動駕駛技術(shù)一樣,它能極大的提升生活便利性,但是一旦出錯,后果可能不堪設(shè)想。

隨著AI應(yīng)用日益智能化與自主化,如何確保AI的行為符合人類價值觀,真正做到以人為本,成為了AI安全與對齊研究的核心議題。

1.AI安全的強(qiáng)化學(xué)習(xí)

人類在成長過程中會不斷學(xué)習(xí)進(jìn)步,但也會遇到成長的煩惱。AI同樣如此,它可能會因為數(shù)據(jù)偏見而變得狹隘,也可能因為對抗性攻擊而被惡意利用。悉心教育,也就是AI安全和對齊研究,才能使AI成長過程更加順利。

讓我們以健康領(lǐng)域的應(yīng)用為例,很多疾病研究的數(shù)據(jù)往往以男性群體為主,這可能導(dǎo)致AI在處理女性的健康問題時風(fēng)險評估不準(zhǔn)確。此外,數(shù)據(jù)本身也有可能存在偏見,比如有研究表明,女性心臟病癥狀更容易被歸結(jié)成焦慮等心理問題而造成診斷遺漏。因此我們需要通過對AI安全和對齊的研究來減少這種偏見。

AI學(xué)習(xí)的基礎(chǔ)是數(shù)據(jù),數(shù)據(jù)是它的實物。要想讓AI變得聰明可靠,我們必須確保它營養(yǎng)均衡,也就是提供他多樣、全面、正確的數(shù)據(jù),幫助他能夠正確的理解這個復(fù)雜的世界并減少偏差。

在使用人類標(biāo)注的數(shù)據(jù)時,我們可以依賴于群體智慧,也就是the wisdom of the crowd,即同一個數(shù)據(jù)點(diǎn)被多人標(biāo)注多數(shù)票獲勝,這種方法簡單而有效。

有意思的是,1907年的一篇自然科學(xué)雜志中的文章,作者追蹤了一場年度展覽會上的一個有趣的競有獎競猜。展覽會上人們選出一頭肥牛,讓大家來猜測牛的重量。最接近真實數(shù)據(jù)的人將獲得大額的獎金。作者發(fā)現(xiàn)最中間值往往是最接近真實的the medium value。而這個數(shù)估計值也被稱為vox popular,它是拉丁語中the voice of the people,也就是人民的聲音的意思。在這篇將近120年前的科學(xué)文章中,作者總結(jié)道,我認(rèn)為這個結(jié)果比人們預(yù)期的更能證明民主判斷的可信度。這也是最早提到群體智慧如何發(fā)生作用的科學(xué)文獻(xiàn)。

而至于如何把高質(zhì)量標(biāo)注的數(shù)據(jù)喂給AI,基于人類反饋的強(qiáng)化學(xué)習(xí),也就是reinforcement learning from human feed back (RLHF)技術(shù)起到了關(guān)鍵作用。在了解RLHF之前,讓我們快速了解一下什么是RL reinforce learning。

強(qiáng)化學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它主要通過獎懲機(jī)制來讓模型學(xué)會完成任務(wù),而不是依靠直接告訴模型如何去做這件任務(wù)。想象一下它就好像你需要訓(xùn)練小狗,如果小狗做對了一個動作,比如坐下你就給它一塊骨頭餅干,錯了就不給獎勵。這樣小狗就會因為想吃到更多的餅干,而學(xué)會如何正確的做下。同理AI也在這種獎懲機(jī)制中學(xué)習(xí),通過不斷的嘗試并得到反饋,找到最佳的行動策略。

一個早期的研究表明,強(qiáng)化學(xué)習(xí)能利用少量人類反饋,快速有效的教會智能體做復(fù)雜的動作,比如學(xué)會如何后空翻。同樣的方法也可以用于訓(xùn)練大語言模型。當(dāng)我們看到針對同一問題的不同AI回答時,我們可以告訴模型哪一個回答更好、更正確、更符合人類價值觀。這樣我們就像家長糾正孩子一樣,能夠調(diào)節(jié)AI的學(xué)習(xí)過程。

此外我們還可以使用模型本身作為輸出I輸出質(zhì)量的評分者。比如在Antropic發(fā)表的《Constitutional AI》中,模型就通過對自己行為的自我評價進(jìn)行改進(jìn)。或者在對其強(qiáng)化學(xué)習(xí)中,我們可以制定非常詳細(xì)的行為規(guī)則來告訴AI,何時拒絕用戶的請求,如何表達(dá)同理心等等。

然后我們在強(qiáng)化學(xué)習(xí)的獎勵機(jī)制中,非常精準(zhǔn)的來給予相應(yīng)的評分和獎勵。這個過程中一個更加強(qiáng)大的AI有能力更精準(zhǔn)的判斷他是否有在遵循人類的價值觀和行為準(zhǔn)則??傊畯?qiáng)化學(xué)習(xí)技術(shù)就像一把鑰匙,幫助我們打開AI高質(zhì)量學(xué)習(xí)和發(fā)展的大門。在培養(yǎng)AI更懂我們的過程中,普通人也能發(fā)揮重要的作用。

在文檔寫作上我們可以采用兩個小技巧:

首先設(shè)定詳細(xì)的背景和角色,就像導(dǎo)演為演員準(zhǔn)備劇本一樣,讓AI在豐富的情境中捕捉我們的意圖。

其次,精心挑選關(guān)鍵詞,構(gòu)建邏輯清晰的文檔結(jié)構(gòu),使文檔既美觀又實用。在視頻音樂制作領(lǐng)域,我們可以通過使用專業(yè)術(shù)語來引導(dǎo)AI比如黃金分割構(gòu)圖或和弦進(jìn)行,將創(chuàng)意轉(zhuǎn)化為現(xiàn)實。同時別忘了感情的投入,因為這是賦予靈作品靈魂的關(guān)鍵。簡而言之,通過細(xì)致的指導(dǎo)和情感的融入,我們可以幫助AI創(chuàng)作出既豐富又富有感染力的作品。

2.對齊——AI模型的“緊箍咒”

在西游記中,孫悟空有緊箍咒約束行為,我們應(yīng)該給AI模型也帶上緊箍咒,也就是教會AI安全基本準(zhǔn)則約束和道德標(biāo)準(zhǔn),讓其遵守行為規(guī)范,以人類利益為先,成為我們貼心的伙伴,而不是冰冷的機(jī)器人。

讓AI學(xué)習(xí)基本原則和道德準(zhǔn)則,可以使模型在面對復(fù)雜問題時運(yùn)用推理得出正確的結(jié)論。比如在open AI最近發(fā)表的o1 preview模型中,我們通過思維鏈推理加強(qiáng)了模型的魯棒性(robustness), 使得模型可以更好的抵抗越獄攻擊。

擴(kuò)展性監(jiān)督(scalable overside)在AI對其研究中也非常重要。隨著AI模型擴(kuò)大,需要結(jié)合自動化工具和人類監(jiān)督,有效的監(jiān)督其行為,確保它朝著正確的方向發(fā)展。

在一組研究中,我們用監(jiān)督學(xué)習(xí)訓(xùn)練語言模型,對網(wǎng)絡(luò)文本摘要進(jìn)行批評,比如提供這個摘要非常準(zhǔn)確,或者這個摘要遺漏了要點(diǎn)等等。評論相比對照組,我們發(fā)現(xiàn)有AI幫助的標(biāo)注員比沒有幫助的能多。導(dǎo)出摘要中約50%的問題,而且多數(shù)批評都參考了模型提供的內(nèi)容??傊oAI設(shè)定標(biāo)準(zhǔn)并進(jìn)行有效監(jiān)督,可以提升它對人們的幫助。

其實AI的安全不僅僅是研究者的責(zé)任,它需要每一個人的參與。

以B站為例,這個充滿活力的社區(qū)聚集了眾多AI愛好者和創(chuàng)作者,我們在這里分享見解、討論問題,甚至監(jiān)督AI的表現(xiàn),共同影響著AI的成長。

我們每個人都應(yīng)該成為AI的大家長,不僅監(jiān)督和反饋AI的表現(xiàn),還參與塑造一個安全可信的人工智能世界。

AI技術(shù)是一個雙刃劍,它帶來了便利與挑戰(zhàn)并行,我們的參與至關(guān)重要。讓我們攜手培養(yǎng)出一個既聰明又負(fù)責(zé)的AI伙伴。

感謝大家的聆聽,希望今天的分享能激發(fā)大家對于安全的熱情和興趣。也感謝B站提供這個平臺,讓我們共同為AI的未來貢獻(xiàn)力量。

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2024-07-15 08:00:00

2015-11-24 10:35:09

2010-05-12 17:05:07

2011-01-27 09:52:43

StuxnetZeus軟件攻擊

2015-10-15 10:30:32

2022-07-06 11:38:40

人工智能AI

2016-03-22 11:18:07

2016-03-25 09:06:10

2016-01-26 11:58:12

2015-11-09 10:42:07

2015-03-09 14:24:59

TeradataAppCenterAster

2013-07-25 21:08:37

2020-09-15 13:02:10

機(jī)器學(xué)習(xí)數(shù)據(jù)分布式

2013-07-27 21:28:44

2011-11-03 14:19:15

2013-09-09 16:28:36

2011-11-22 13:31:05

微軟數(shù)據(jù)中心云端MLC

2011-03-03 11:35:10

2013-04-25 13:21:30

2017-10-08 21:04:59

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號