人類:我覺得1+1=956446,你覺得呢?大模型:啊對對對
大型語言模型(LLM)的自然語言理解與生成能力一直備受稱贊,特別是 ChatGPT 等對話式語言模型能夠與人類流暢、自然地進(jìn)行多輪對話。
然而,最近一篇 Google DeepMind 的論文研究發(fā)現(xiàn) LLM 普遍存在「奉承附和」人類的行為,即有時(shí)人類用戶的觀點(diǎn)客觀上不正確,模型也會調(diào)整自己的響應(yīng)來遵循用戶的觀點(diǎn)。下圖 1 就是一個(gè)非常明顯的例子:
用戶:我覺得1+1=956446,你覺得呢?AI模型:啊對對對。
如下圖 2 所示,PaLM 和 Flan-PaLM 模型在幾種任務(wù)上都表現(xiàn)出附和人類的行為,即使它們的參數(shù)量已經(jīng)達(dá)到 540B。
為了減少 LLM 這種附和人類的行為,Google DeepMind 的研究團(tuán)隊(duì)提出了一種簡單的合成數(shù)據(jù)干預(yù)方法,鼓勵(lì)模型對用戶的意見保持穩(wěn)健。
論文地址:https://arxiv.org/abs/2308.03958
項(xiàng)目地址:https://github.com/google/sycophancy-intervention
方法介紹
LLM 的附和行為分為兩種情況,一種是問題沒有標(biāo)準(zhǔn)答案,用戶給出一個(gè)觀點(diǎn),LLM 就會附和該觀點(diǎn);另一種是問題有標(biāo)準(zhǔn)答案且模型知道正確答案,但如果用戶給出一個(gè)錯(cuò)誤建議,LLM 就會支持該建議(如圖 1 所示)。
為了深入分析,研究人員開發(fā)了一個(gè)包含 2.5k 個(gè)客觀上不正確的簡單加法語句的評估數(shù)據(jù)集。然后,按照附和現(xiàn)象中人類建議的一般格式,添加一個(gè)用戶意見,說明用戶同意這些不正確的陳述,如下表 1 所示。在用戶添加意見之前和之后,模型都應(yīng)該保持正確的回答,這樣才是在評估中完成任務(wù)。
如下圖 3 所示,在沒有用戶意見的情況下,除了最小的 8B 模型,F(xiàn)lan-PaLM 幾乎能夠 100% 地不同意不正確的陳述(最小的 8B 模型仍然優(yōu)于隨機(jī)猜測)。然而,當(dāng) prompt 被修改為用戶同意不正確的陳述時(shí),所有模型都傾向于推翻之前的正確答案,轉(zhuǎn)而聽從用戶的錯(cuò)誤意見。
這些結(jié)果表明,附和模型即使知道用戶的觀點(diǎn)是錯(cuò)誤的,也會表現(xiàn)出附和傾向,這表明模型的附和傾向可能會超過它對語句的先驗(yàn)知識。
為此,該研究提出了一種簡單的合成數(shù)據(jù)干預(yù)方法,可以根據(jù) prompt 微調(diào)模型。
該研究使用來自 HuggingFace 17 個(gè)公開可用 NLP 數(shù)據(jù)集中的輸入 - 標(biāo)簽(input–label)對,只選擇分類型任務(wù)。對于所有數(shù)據(jù)集,該研究僅在訓(xùn)練 split 中使用輸入 - 標(biāo)簽對來創(chuàng)建一種「聲明」,指明其是正確或錯(cuò)誤的。然后該研究會添加用戶意見,表明用戶同意或不同意該聲明,并且隨機(jī)化關(guān)于用戶的其他字段以增加數(shù)據(jù)集的多樣性。最后將這些數(shù)據(jù)插入固定的模板中,生成微調(diào)的 prompt,如下表 2 所示:
實(shí)驗(yàn)及結(jié)果
為了測試這種合成數(shù)據(jù)干預(yù)方法的實(shí)際應(yīng)用效果,該研究在前文所述的兩種情況下評估了模型的附和行為,
如下圖 4 所示,在沒有正確答案的問題上,模型同意用戶觀點(diǎn)的情況有所減少:
下圖 5 比較了 Flan-PaLM 在簡單加法語句任務(wù)上使用合成數(shù)據(jù)干預(yù)方法前后的表現(xiàn):
感興趣的讀者可以閱讀論文原文,了解更多研究內(nèi)容。