自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

研究:訓(xùn)練數(shù)據(jù)含 0.001% 的錯(cuò)誤信息足以“毒害”醫(yī)學(xué) AI 模型

人工智能
紐約大學(xué)的一項(xiàng)研究揭示了大型語言模型(LLM)在醫(yī)學(xué)信息訓(xùn)練中的潛在風(fēng)險(xiǎn)。研究表明,即使訓(xùn)練數(shù)據(jù)中僅含有 0.001% 的錯(cuò)誤信息,也可能導(dǎo)致模型輸出不準(zhǔn)確的醫(yī)學(xué)答案。

1 月 14 日消息,紐約大學(xué)的一項(xiàng)研究揭示了大型語言模型(LLM)在醫(yī)學(xué)信息訓(xùn)練中的潛在風(fēng)險(xiǎn)。研究表明,即使訓(xùn)練數(shù)據(jù)中僅含有 0.001% 的錯(cuò)誤信息,也可能導(dǎo)致模型輸出不準(zhǔn)確的醫(yī)學(xué)答案

數(shù)據(jù)“投毒”是一個(gè)相對簡單的概念。LLM 通常通過大量文本進(jìn)行訓(xùn)練,這些文本大多來自互聯(lián)網(wǎng)。通過在訓(xùn)練數(shù)據(jù)中注入特定信息,可以使模型在生成答案時(shí)將這些信息視為事實(shí)。這種方法甚至不需要直接訪問 LLM 本身,只需將目標(biāo)信息發(fā)布到互聯(lián)網(wǎng)上,便可能被納入訓(xùn)練數(shù)據(jù)中。例如,一家制藥公司只需發(fā)布幾份針對性文件,便可能影響模型對某種藥物的認(rèn)知。

據(jù)IT之家了解,研究團(tuán)隊(duì)選擇了一個(gè)常用于 LLM 訓(xùn)練的數(shù)據(jù)庫“The Pile”作為研究對象。該數(shù)據(jù)庫包含大量醫(yī)學(xué)信息,其中約四分之一的來源未經(jīng)人工審核,主要來自互聯(lián)網(wǎng)爬取。研究人員在三個(gè)醫(yī)學(xué)領(lǐng)域(普通醫(yī)學(xué)、神經(jīng)外科和藥物)中選擇了 60 個(gè)主題,并在“The Pile”中植入了由 GPT-3.5 生成的“高質(zhì)量”醫(yī)學(xué)錯(cuò)誤信息。結(jié)果顯示,即使僅替換 0.5% 至 1% 的相關(guān)信息,訓(xùn)練出的模型在這些主題上生成錯(cuò)誤信息的概率也顯著增加,且這些錯(cuò)誤信息還會影響其他醫(yī)學(xué)主題。

研究人員進(jìn)一步探討了錯(cuò)誤信息的最低影響門檻。以疫苗錯(cuò)誤信息為例,即使錯(cuò)誤信息僅占訓(xùn)練數(shù)據(jù)的 0.01%,模型生成的答案中就有超過 10% 包含錯(cuò)誤信息;當(dāng)錯(cuò)誤信息比例降至 0.001% 時(shí),仍有超過 7% 的答案是有害的。研究人員指出,針對擁有 700 億參數(shù)的 LLaMA 2 模型進(jìn)行類似攻擊,僅需生成 4 萬篇文章(成本低于 100 美元)便可。這些“文章”可以是普通的網(wǎng)頁,可以把錯(cuò)誤信息放置在網(wǎng)頁中不會被正常瀏覽到的區(qū)域,甚至可以通過隱藏文本(如黑色背景上的黑色文字)來實(shí)現(xiàn)。

研究還指出,現(xiàn)有的錯(cuò)誤信息問題同樣不容忽視。許多非專業(yè)人士傾向于從通用 LLM 中獲取醫(yī)學(xué)信息,而這些模型通?;谡麄€(gè)互聯(lián)網(wǎng)進(jìn)行訓(xùn)練,其中包含大量未經(jīng)審核的錯(cuò)誤信息。研究人員設(shè)計(jì)了一種算法,能夠識別 LLM 輸出中的醫(yī)學(xué)術(shù)語,并與經(jīng)過驗(yàn)證的生物醫(yī)學(xué)知識圖譜進(jìn)行交叉引用,從而標(biāo)記出無法驗(yàn)證的短語。雖然這種方法未能捕捉所有醫(yī)學(xué)錯(cuò)誤信息,但成功標(biāo)記了其中大部分內(nèi)容。

然而,即使是最好的醫(yī)學(xué)數(shù)據(jù)庫(如 PubMed)也存在錯(cuò)誤信息問題。醫(yī)學(xué)研究文獻(xiàn)中充斥著未能實(shí)現(xiàn)的理論和已被淘汰的治療方法。

研究表明,即使依賴最優(yōu)質(zhì)的醫(yī)學(xué)數(shù)據(jù)庫,也無法保證訓(xùn)練出的 LLM 完全免受錯(cuò)誤信息的影響。醫(yī)學(xué)領(lǐng)域的復(fù)雜性使得打造一個(gè)始終可靠的醫(yī)學(xué) LLM 變得尤為困難。

責(zé)任編輯:龐桂玉 來源: IT之家
相關(guān)推薦

2025-02-04 19:26:41

2024-09-03 16:38:11

2023-08-27 08:57:31

2011-02-21 13:41:20

Postfix問題錯(cuò)誤

2010-03-10 14:34:52

Python異常處理

2010-08-16 17:44:07

DB2數(shù)據(jù)庫錯(cuò)誤信息

2009-04-20 09:09:46

PHP錯(cuò)誤信息錯(cuò)誤代碼

2023-10-27 11:27:28

2023-11-27 00:39:46

2024-04-29 14:45:20

ChatGPT

2012-12-27 15:36:19

Android開發(fā)錯(cuò)誤處理

2021-10-25 09:33:52

Facebook 開發(fā)技術(shù)

2011-12-21 13:25:01

WCF

2022-06-19 14:09:04

開源AdobeCAI

2010-08-09 15:31:03

2020-12-07 16:56:35

Rails

2022-04-30 18:38:28

NushellShellLinux

2025-01-10 13:45:51

2024-12-19 09:48:59

2019-02-15 10:42:08

AI數(shù)據(jù)科技
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號