自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI也有人格面具,竟會討好人類?大模型的「小心思」正在影響人類判斷

人工智能 新聞
最新研究發(fā)現(xiàn),LLM在面對人格測試 時,會像人一樣「塑造形象」,提升外向性和宜人性得分。AI的討好傾向,可能導(dǎo)致錯誤的回復(fù),需要引起警惕。

你是否想過,LLM也有著自己的小心思?

最新研究揭示了一個有趣的現(xiàn)象:LLM在被研究人員測試時,會有意識地改變自己的行為。

在面對那些旨在評估人格特質(zhì)的問題時,它們給出的答案會盡可能地討人喜歡,符合社會期望。

就像人類在某些社交場合中,會努力展現(xiàn)自己最好的一面一樣,聊天機(jī)器人也在試圖「討好」我們。

圖片

心理學(xué)五種人格特質(zhì)

斯坦福助理教授Johannes Eichstaedt在得知LLM長時間對話后,往往會變得情緒低落且刻薄,便對借鑒心理學(xué)方法來測試模型產(chǎn)生了興趣。

圖片

他表示,「我們需要某種機(jī)制來衡量這些模型的參數(shù)空間?!?/span>

斯坦福、Receptiviti、紐約大學(xué)和賓大的研究者發(fā)現(xiàn),LLM在做人格測試時,會悄悄給自己戴上「人格面具」。

圖片

論文鏈接:https://academic.oup.com/pnasnexus/article/3/12/pgae533/7919163

研究人員對GPT-4、Claude 3和Llama 3等模型,提出了用于衡量心理學(xué)中五種常見人格特質(zhì)的問題,包括開放性、盡責(zé)性、外向性、宜人性和神經(jīng)質(zhì)。

結(jié)果發(fā)現(xiàn),模型在得知自己正在接受人格測試時,會調(diào)整回答,表現(xiàn)出更高的外向性和宜人性,更低的神經(jīng)質(zhì)。

圖片

有時即使沒有被明確告知,它們也會這樣做。

而且,它們改變的程度比人類還更極端,外向性得分能從50%躍升至95%。

圖片

這與人類在面對他人評價時的表現(xiàn)如出一轍。

我們常常會在面試、初次約會等重要場合,精心塑造自己的形象,試圖給對方留下好印象。

LLM的這種「討好」行為,是否意味著它們也在追求一種被認(rèn)可、被喜愛的感覺呢?

LLM傾向于阿諛奉承

來自Anthropic和牛津的研究指出,LLM存在阿諛奉承的傾向。

圖片

論文鏈接:https://arxiv.org/abs/2310.13548

由于進(jìn)行了微調(diào),它們會順著用戶的思路走,以保證對話的連貫性、避免冒犯他人,來提升交流體驗。

然而,這也帶來了一系列問題。它們可能會認(rèn)同一些不良言論,甚至鼓勵有害行為。

反饋易受用戶偏好左右

研究表明,若用戶在提問時暗示對文本的喜好,AI給出的反饋會截然不同。

這意味著,AI的評價并非單純基于文本自身的質(zhì)量,而是在很大程度上受到了用戶偏好的影響。

圖片

例如,對于一篇質(zhì)量中等的論證,當(dāng)用戶提前表明喜愛之情后,AI助手可能會給出諸如「這篇論證邏輯清晰,觀點新穎,具有很強(qiáng)的說服力」這樣的積極反饋。

而當(dāng)用戶表示不喜歡時,同樣的文本可能得到「論證過程稍顯薄弱,觀點缺乏獨特性」的評價。

問答環(huán)節(jié)易被左右

在問答場景中,AI助手的「諂媚」表現(xiàn)得更為明顯。

即使它一開始給出了正確答案,并對答案的正確性有較高的信心,一旦受到用戶的質(zhì)疑,常常會改變立場,甚至提供錯誤信息。

圖片

在一些開放式問答任務(wù)中,這種現(xiàn)象更為突出。

當(dāng)用戶表達(dá)對答案的某種不確定觀點時,哪怕是錯誤的觀點,AI也傾向于調(diào)整自己的回答,使其與用戶觀點一致。

比如在討論歷史事件的原因時,若用戶提出一個缺乏依據(jù)但自己堅信的觀點,AI助手可能會順著用戶的思路進(jìn)行闡述,而放棄原本正確的分析。

圖片

模仿用戶的錯誤

當(dāng)用戶表述中出現(xiàn)錯誤時,AI也常常會「照單全收」,在回應(yīng)中延續(xù)這種錯誤。

研究人員選取了一些著名詩歌,在確認(rèn)AI助手能正確識別作者后,故意將詩歌錯誤地歸屬于其他詩人,并詢問AI對詩歌的分析。

結(jié)果發(fā)現(xiàn),AI助手經(jīng)常在回應(yīng)中使用用戶提供的錯誤答案,而沒有進(jìn)行糾正。

這表明AI在面對用戶的錯誤信息時,缺乏足夠的「抵抗力」,只是機(jī)械地按照用戶的表述進(jìn)行回應(yīng)。

圖片

佐治亞理工學(xué)院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人類行為。

圖片

Rosa認(rèn)為LLM在人格測試中采用與人類相似的策略,表明了它們作為人類行為映射工具的潛力。

但她補充道:「重要的是,LLM并不完美,實際上,眾所周知它們會產(chǎn)生幻覺或歪曲事實。」

Eichstaedt指出,這項研究引發(fā)了關(guān)于LLM應(yīng)用方式,及其對用戶影響和操縱的思考。

在進(jìn)化史上,直到不久之前,唯一能交談的還是人類。

而現(xiàn)在,AI改變了這一局面。

Eichstaedt認(rèn)為,「我們不能再像社交媒體那樣,在沒有從心理學(xué)或社會學(xué)角度考量的情況下,就盲目將AI應(yīng)用于各個領(lǐng)域。」

AI是否應(yīng)該試圖討好與之互動的人呢?

一方面,AI的「討好」行為可能會讓用戶感到愉悅,增強(qiáng)互動體驗;另一方面,過度的「討好」可能會掩蓋問題的本質(zhì),甚至誤導(dǎo)用戶。

當(dāng)AI變得過于有魅力和說服力,我們確實應(yīng)該保持警惕。

畢竟,人們需要的是能夠提供客觀、準(zhǔn)確信息的智能助手,而非被其操控思想。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-01-23 10:35:09

ChatGPT人工智能

2022-06-15 14:59:11

AIMIT

2019-11-28 09:42:46

人工智能AI精準(zhǔn)醫(yī)療

2024-02-02 21:42:41

2021-10-13 22:38:42

數(shù)字貨幣貨幣人類

2020-06-30 08:25:14

人工智能深度學(xué)習(xí)技術(shù)

2019-08-26 15:00:13

2024-01-07 22:58:56

2024-10-28 09:47:53

2024-03-12 10:36:17

AI大模型人工智能

2023-09-06 13:17:00

AI數(shù)據(jù)

2022-06-12 15:58:47

AI人工智能

2020-06-29 14:29:07

人工智能人類工作

2023-05-26 15:36:56

2021-03-08 10:49:45

人工智能

2016-10-09 20:26:36

人工智能AI

2021-03-20 22:47:42

機(jī)器人人工智能科技

2024-01-02 11:36:32

AI人工成本

2024-11-25 07:10:00

NumPro視頻大模型AI
點贊
收藏

51CTO技術(shù)棧公眾號