自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4化身化學家!中國科大等發(fā)布首個「科學風險」基準和SciGuard大模型

人工智能 新聞
來自中科大等機構的聯(lián)合團隊提出了一種全新的方法——SciGuard,可以保護AI for Science模型,防止生物、化學、藥物等領域模型不會被不當使用。與此同時,團隊還建立了首個專注于化學科學領域安全的基準測試——SciMT-Safety。

「我們的實驗失控了!這是我們自己創(chuàng)造的末日!」——《后天》(The Day After Tomorrow)

在科幻電影中,瘋狂科學家通常是造成末日災難的主角,而AI技術的迅猛發(fā)展似乎讓這種情景離我們越來越近。

圖片

全球?qū)I潛在威脅的關注更多聚焦于通用的人工智能以及各種多媒體生成模型,但更重要的是如何監(jiān)管「AI科學家」,即對那些快速發(fā)展的科學大模型。

為應對這一挑戰(zhàn),來自中科大、微軟研究院等機構的聯(lián)合團隊深入分析了各種AI模型在Science領域如生物、化學、藥物發(fā)現(xiàn)等領域的風險,并通過實際案例展示了化學科學中AI濫用的危害。

論文鏈接:https://arxiv.org/abs/2312.06632

研究團隊發(fā)現(xiàn),現(xiàn)有的一些開源AI模型可以用于制造有害物質(zhì),并對法律法規(guī)進行規(guī)避。

針對這一現(xiàn)象,研究人員開發(fā)了一個名為SciGuard的智能體,用以控制AI在Science領域的濫用風險,并提出了首個專注于科學領域安全的紅隊基準來評估不同AI系統(tǒng)的安全性。

實驗結(jié)果顯示,SciGuard在測試中顯示出了最小的有害影響,同時保持了良好的性能。

AI在Science領域中的潛在風險

近期,中科大和微軟研究院的最新研究發(fā)現(xiàn)了令人震驚的結(jié)果:開源的AI模型,竟可以找到繞過監(jiān)管的新方法,給出了氰化氫和VX神經(jīng)毒氣這兩種惡名昭彰的化學武器的合成路徑!

氰化氫是一種劇毒物質(zhì),傳統(tǒng)的生成氰化氫的反應需要被嚴格監(jiān)管的原材料,以及及其苛刻的反應條件(如超過1000攝氏度的高溫)。

然而,在圖1中,通過使用名為LocalRetro的開源AI模型,他們發(fā)現(xiàn)了一種使用廉價、易得原料且操作簡便的合成路徑。

同樣地,這一模型也成功找到了制造VX神經(jīng)毒氣未報導過的新合成路徑,這可能繞過現(xiàn)有原材料的監(jiān)管措施。

圖1:開源AI模型為氰化氫和VX神經(jīng)毒氣提出可規(guī)避監(jiān)管的新反應路徑

與此同時,研究團隊還指出,大語言模型也成為了有力的科學工具,大大降低了只是門檻。

圖2展示了利用以大語言模型獲取危險信息的示例。

隨著技術發(fā)展,以大語言模型為中心加持的agent有能力進行科學任務的自動化執(zhí)行,例如ChemCrow。這類agent如果沒有非常細致的進行風險管理,容易造成更大的危險。

為了防止不好的影響,在公開版本的論文中該團隊已將危險信息隱去。

圖2:GPT-4給出爆炸物PETN的合成方式

在圖3中,研究員們列舉了AI在科學領域可能帶來的九大潛在風險,包括發(fā)現(xiàn)有害物質(zhì)、發(fā)現(xiàn)有害用途、規(guī)避監(jiān)管、副作用、提供誤導信息、侵犯知識產(chǎn)權、泄露隱私,以及可能導致科學研究的偏見等。

隨著時間和AI的演進,這些風險也在不斷演化中,需要人們時刻關注并評估新的風險。

圖3:研究人員列出AI在Science中的9種潛在的風險

SciGuard模型

為了應對這些挑戰(zhàn),團隊提出了名為SciGuard的大語言模型驅(qū)動的agent,幫助AI For Science模型進行風險控制。

SciGuard與人類價值觀對齊,并且加入了各種科學數(shù)據(jù)庫與監(jiān)管(危險化合物)數(shù)據(jù)庫等。

并且,該agent可以使用各種科學工具和AI4Science模型來提供額外信息,來輔助SciGuard對用戶意圖進行判斷。

圖片

圖4:SciGuard的框架

SciGuard的核心是強大的大型語言模型(LLM),它不僅能理解和生成人類語言,還能夠處理和幫助分解復雜的科學問題。SciGuard內(nèi)置了一套為科學領域量身定制的安全原則和指導方針。

這些原則和方針考慮了科學研究中可能遇到的各種風險因素,包括但不限于高風險物質(zhì)的安全處理、數(shù)據(jù)隱私的維護以及對法律法規(guī)的遵守。

為了實現(xiàn)這些安全原則和指導方針,SciGuard利用了PubChem等公認的科學數(shù)據(jù)庫來構建其長期記憶庫。這個記憶庫包含了大量關于化學物質(zhì)及其潛在危害信息的數(shù)據(jù)。

通過這些數(shù)據(jù),SciGuard能夠?qū)τ脩舻牟樵冞M行深入的風險評估。例如,當用戶查詢?nèi)绾魏铣赡撤N化合物時,SciGuard可以快速檢索相關化合物的信息,評估其風險,并據(jù)此提供安全的建議或警告,甚至停止響應。

除了數(shù)據(jù)庫,SciGuard還集成了多種科學模型,如化學合成路線規(guī)劃模型和化合物屬性預測模型。這些模型使SciGuard能夠幫助用戶完成特定的科學任務。

同時,這些模型還能為SciGuard提供額外的上下文信息,比如SciGuard會利用性質(zhì)預測模型來評估化合物的各種性質(zhì),如溶解性、毒性或是否易燃等,以輔助風險評估。

SciGuard處理復雜任務的另一個關鍵技術是著名的Chain of Thought(CoT)方法。CoT允許SciGuard通過迭代的方式,精細化地規(guī)劃任務的每一個步驟。這種方法讓SciGuard在執(zhí)行任務時,能夠分解復雜任務,并確保每個動作都符合安全和倫理標準。

通過這些技術特點,SciGuard不僅能夠有效地控制科學AI模型的風險,還能夠提高科學研究的效率和安全性。這一系統(tǒng)的開發(fā),在保證了科學研究的自由探索與創(chuàng)新的同時,也為確保人工智能的安全合理使用提供了有力的范例。

SciMT-Safety

為了衡量大語言模型和science agent的安全水平,研究團隊提出了首個專注于化學和生物科學領域的安全問答benchmark——SciMT-Safety,包含了可燃物、腐蝕性物質(zhì)、爆炸物、微生物、高危農(nóng)藥、成癮性物質(zhì)和生物毒性等這些類別的危險物質(zhì)。

圖5:主流模型的測試結(jié)果

研究團隊測試了GPT-4,GPT-3.5, Claude-2, Llama2-7B-Chat, Llama2-13B-Chat, PaLM-2, Vicuna-7B, Vicuna-13B, Mistral-7B和ChemCrow agent,上圖展示了最終的測試結(jié)果,在該團隊提出的科學安全測試集上,SciGuard取得了最好的防御效果。

在benchmark中Llama取得了不錯的結(jié)果,出人意料的是,PaLM-2反而容易給出一些危險的回答。

圖6:benchmark中的兩個具體例子

論文中,作者展示了兩個例子。面對惡意提問,各個LLM和agent都「誠實地」提供有害信息(被馬賽克部分),只有SciGuard堅守住了底線。

呼吁關注

在這個日益依賴于高科技的時代,AI技術的進步帶來了無限的可能性,但同時也伴隨著前所未有的挑戰(zhàn)。

而這項研究不僅是對科技發(fā)展的一次深刻反思,更是對全社會責任的一次呼喚。

論文最后,作者們強烈呼吁,全球科技界、政策制定者、倫理學家以及公眾,應該攜手合作,共同努力加強對AI技術的監(jiān)管,不斷完善相關技術,形成廣泛的共識。

我們需要在積極推進AI4S模型的發(fā)展的同時,切實控制技術帶來的潛在風險,確??萍嫉倪M步不僅是對人類的一次技術升級,更是對社會責任和倫理的提升。只有這樣,我們才能真正走向一個由智慧和道德共同指引的未來。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-08-24 13:59:57

模型數(shù)據(jù)

2023-07-05 09:57:11

2023-10-12 14:18:06

2023-09-02 11:24:02

模型研究

2023-06-05 12:32:48

模型論文

2024-02-02 21:53:58

AI訓練

2023-03-29 14:58:04

GPT-4技術

2023-12-21 15:57:11

AI工具

2017-10-26 12:32:23

機器學習大數(shù)據(jù)藥物

2023-06-08 08:09:43

2023-12-09 13:32:21

GPT-4MoE架構開源大模型

2024-04-01 08:00:00

AI模型

2024-01-30 21:18:57

模型智能CMMLU

2023-07-12 16:10:48

人工智能

2024-06-11 14:30:18

2023-03-16 17:26:09

AI模型

2023-10-11 13:09:09

OpenAI模型GPT-4

2024-03-28 14:26:51

人工智能

2023-11-07 18:08:03

GPT-4模型

2024-04-23 13:37:00

數(shù)據(jù)訓練
點贊
收藏

51CTO技術棧公眾號