英國人工智能安全研究所推出人工智能模型安全測試工具平臺
英國人工智能安全研究所(AI Safety Institute)推出了一個新平臺,允許企業(yè)在公開發(fā)布人工智能模型之前對其進行測試。
這個名為Inspect的平臺是一個軟件庫,旨在評估人工智能模型的能力,在推理和自主能力等方面對它們進行評分。
目前,開發(fā)人員缺乏可用的安全測試工具。上個月,MLCommons發(fā)布了一個大型的以語言模型為重點的安全測試基準。
Inspect就是為了填補這一空白而開發(fā)的,它是開源的,所以任何人都可以用它來測試他們的人工智能模型。
企業(yè)可以使用Inspect來評估人工智能模型和外部工具使用的提示工程。該工具還包含包含標記樣本的評估數(shù)據(jù)集,因此開發(fā)人員可以詳細檢查用于測試模型的數(shù)據(jù)。
它被設(shè)計為易于使用,并提供了用于運行整個過程中提供的各種測試的解釋器,包括模型是否托管在AWSBedrock等云環(huán)境中。
安全研究所表示,開放測試工具的決定將使全球的開發(fā)人員能夠進行更有效的人工智能評估。
英國科技大臣MichelleDonelan表示:“作為英國在人工智能安全方面不斷發(fā)揮領(lǐng)導(dǎo)作用的一部分,我已批準人工智能安全研究所的測試平臺開源我之所以對此充滿熱情,并將Inspect開源,是因為如果我們抓住人工智能的風(fēng)險,我們可以獲得非凡的回報?!?/p>
安全研究所表示,它計劃在未來開發(fā)除Inspect之外的開源測試工具。該機構(gòu)將在今年4月簽署一項聯(lián)合工作協(xié)議后,與美國同行合作開展相關(guān)項目。
人工智能安全研究所主席Ian Hogarth表示:“在人工智能安全測試方面的成功合作意味著有一個共享的、可訪問的評估方法,我們希望Inspect能成為人工智能安全研究所、研究機構(gòu)和學(xué)術(shù)界的基石。我們希望看到全球人工智能社區(qū)不僅使用Inspect進行自己的模型安全測試,而且?guī)椭m應(yīng)和建立開源平臺,以便我們能夠全面進行高質(zhì)量的評估?!?/p>
OpenUK首席執(zhí)行官Amanda Brock表示,安全研究所新平臺的成功只能通過已經(jīng)承諾使用該測試工具的公司數(shù)量來衡量。
Brock說:“由于英國在監(jiān)管方面的立場緩慢,這個平臺必須取得成功,英國才能在未來的人工智能領(lǐng)域占有一席之地?,F(xiàn)在所有人的目光都集中在韓國和下一屆安全峰會上,看看世界是如何看待這一點的?!?/p>
Saidot公司首席商務(wù)官Veera Siivonen表示,“Inspect能夠評估廣泛的人工智能功能并提供安全評分,使各種規(guī)模的組織不僅能夠利用人工智能的潛力,還能確保負責(zé)任地、安全地使用人工智能。這是實現(xiàn)人工智能安全民主化的一步,此舉無疑將推動創(chuàng)新,同時防范與先進人工智能系統(tǒng)相關(guān)的風(fēng)險?!?/p>