AI也有人格面具,竟會討好人類?大模型的「小心思」正在影響人類判斷
你是否想過,LLM也有著自己的小心思?
最新研究揭示了一個有趣的現(xiàn)象:LLM在被研究人員測試時,會有意識地改變自己的行為。
在面對那些旨在評估人格特質(zhì)的問題時,它們給出的答案會盡可能地討人喜歡,符合社會期望。
就像人類在某些社交場合中,會努力展現(xiàn)自己最好的一面一樣,聊天機(jī)器人也在試圖「討好」我們。
心理學(xué)五種人格特質(zhì)
斯坦福助理教授Johannes Eichstaedt在得知LLM長時間對話后,往往會變得情緒低落且刻薄,便對借鑒心理學(xué)方法來測試模型產(chǎn)生了興趣。
他表示,「我們需要某種機(jī)制來衡量這些模型的參數(shù)空間?!?/span>
斯坦福、Receptiviti、紐約大學(xué)和賓大的研究者發(fā)現(xiàn),LLM在做人格測試時,會悄悄給自己戴上「人格面具」。
論文鏈接:https://academic.oup.com/pnasnexus/article/3/12/pgae533/7919163
研究人員對GPT-4、Claude 3和Llama 3等模型,提出了用于衡量心理學(xué)中五種常見人格特質(zhì)的問題,包括開放性、盡責(zé)性、外向性、宜人性和神經(jīng)質(zhì)。
結(jié)果發(fā)現(xiàn),模型在得知自己正在接受人格測試時,會調(diào)整回答,表現(xiàn)出更高的外向性和宜人性,更低的神經(jīng)質(zhì)。
有時即使沒有被明確告知,它們也會這樣做。
而且,它們改變的程度比人類還更極端,外向性得分能從50%躍升至95%。
這與人類在面對他人評價時的表現(xiàn)如出一轍。
我們常常會在面試、初次約會等重要場合,精心塑造自己的形象,試圖給對方留下好印象。
LLM的這種「討好」行為,是否意味著它們也在追求一種被認(rèn)可、被喜愛的感覺呢?
LLM傾向于阿諛奉承
來自Anthropic和牛津的研究指出,LLM存在阿諛奉承的傾向。
論文鏈接:https://arxiv.org/abs/2310.13548
由于進(jìn)行了微調(diào),它們會順著用戶的思路走,以保證對話的連貫性、避免冒犯他人,來提升交流體驗。
然而,這也帶來了一系列問題。它們可能會認(rèn)同一些不良言論,甚至鼓勵有害行為。
反饋易受用戶偏好左右
研究表明,若用戶在提問時暗示對文本的喜好,AI給出的反饋會截然不同。
這意味著,AI的評價并非單純基于文本自身的質(zhì)量,而是在很大程度上受到了用戶偏好的影響。
例如,對于一篇質(zhì)量中等的論證,當(dāng)用戶提前表明喜愛之情后,AI助手可能會給出諸如「這篇論證邏輯清晰,觀點新穎,具有很強(qiáng)的說服力」這樣的積極反饋。
而當(dāng)用戶表示不喜歡時,同樣的文本可能得到「論證過程稍顯薄弱,觀點缺乏獨特性」的評價。
問答環(huán)節(jié)易被左右
在問答場景中,AI助手的「諂媚」表現(xiàn)得更為明顯。
即使它一開始給出了正確答案,并對答案的正確性有較高的信心,一旦受到用戶的質(zhì)疑,常常會改變立場,甚至提供錯誤信息。
在一些開放式問答任務(wù)中,這種現(xiàn)象更為突出。
當(dāng)用戶表達(dá)對答案的某種不確定觀點時,哪怕是錯誤的觀點,AI也傾向于調(diào)整自己的回答,使其與用戶觀點一致。
比如在討論歷史事件的原因時,若用戶提出一個缺乏依據(jù)但自己堅信的觀點,AI助手可能會順著用戶的思路進(jìn)行闡述,而放棄原本正確的分析。
模仿用戶的錯誤
當(dāng)用戶表述中出現(xiàn)錯誤時,AI也常常會「照單全收」,在回應(yīng)中延續(xù)這種錯誤。
研究人員選取了一些著名詩歌,在確認(rèn)AI助手能正確識別作者后,故意將詩歌錯誤地歸屬于其他詩人,并詢問AI對詩歌的分析。
結(jié)果發(fā)現(xiàn),AI助手經(jīng)常在回應(yīng)中使用用戶提供的錯誤答案,而沒有進(jìn)行糾正。
這表明AI在面對用戶的錯誤信息時,缺乏足夠的「抵抗力」,只是機(jī)械地按照用戶的表述進(jìn)行回應(yīng)。
佐治亞理工學(xué)院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人類行為。
Rosa認(rèn)為LLM在人格測試中采用與人類相似的策略,表明了它們作為人類行為映射工具的潛力。
但她補充道:「重要的是,LLM并不完美,實際上,眾所周知它們會產(chǎn)生幻覺或歪曲事實。」
Eichstaedt指出,這項研究引發(fā)了關(guān)于LLM應(yīng)用方式,及其對用戶影響和操縱的思考。
在進(jìn)化史上,直到不久之前,唯一能交談的還是人類。
而現(xiàn)在,AI改變了這一局面。
Eichstaedt認(rèn)為,「我們不能再像社交媒體那樣,在沒有從心理學(xué)或社會學(xué)角度考量的情況下,就盲目將AI應(yīng)用于各個領(lǐng)域。」
AI是否應(yīng)該試圖討好與之互動的人呢?
一方面,AI的「討好」行為可能會讓用戶感到愉悅,增強(qiáng)互動體驗;另一方面,過度的「討好」可能會掩蓋問題的本質(zhì),甚至誤導(dǎo)用戶。
當(dāng)AI變得過于有魅力和說服力,我們確實應(yīng)該保持警惕。
畢竟,人們需要的是能夠提供客觀、準(zhǔn)確信息的智能助手,而非被其操控思想。