編輯 | 言征
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
1.未經(jīng)對齊的模型很重要
審查模型的主要缺點之一是所謂的“對齊稅”。這是指當模型被過度調(diào)整以符合特定的道德準則時,性能會下降。
但缺點遠不只是性能,經(jīng)過了幾番教訓后,Nidum.AI 聯(lián)合創(chuàng)始人Arjun Reddy認為:“未經(jīng)審查的模型沒有任何人為的偏見,當你在LLM的基礎(chǔ)上構(gòu)建產(chǎn)品時,使用無偏見的模型非常重要?!保?,對齊/審查≈新的偏見)
Reddy進一步提到,由于偏見,該公司避免使用Llama,而是使用Dolphin Llama。這表明了為什么無偏見的LLM對于在LLM的基礎(chǔ)上構(gòu)建產(chǎn)品很重要。
一位名為hardmaru的Reddit用戶觀察到,在引入額外限制后,ChatGPT的響應質(zhì)量有所下降。最終,在一些測試中,未經(jīng)審查的LLM比對齊的模型表現(xiàn)更好。
圖片
另一位在Reddit上被稱為BThunderW的用戶提到,越獄版的ChatGPT-3.5比受限版本產(chǎn)生了更多信息,這表明與對齊的模型相比,你可以從未經(jīng)審查的模型中擠出多少。
圖片
2.你可以使用對齊的模型,但是...
當然,你可以訓練一個對齊的模型(比如Meta的Llama),但使用這種被審核禁錮過、帶有biasness的模型是相當困難的,最終會嘗到苦頭。 Reddy提到,使用無人為偏見的LLM就像使用空白畫布,可以很容易地根據(jù)特定需求訓練LLM。
每個主流模式都試圖保持一致,對齊以促進平等。當然,促進平等并沒有錯,但對于LLM來說,它直接影響了產(chǎn)出。例如,幾個月前,Gemini試圖成為一個覺醒的人工智能模型,但結(jié)果大家看到了,適得其反,翻車后慘淡收場。
有偏見的人工智能系統(tǒng)可能會導致歧視性做法,例如基于種族或性別偏見拒絕貸款。這不僅影響個人,也破壞了人們對人工智能技術(shù)的信任。
DataRobot的一份報告強調(diào),42%的使用人工智能的組織非常擔心偏見的人工智能系統(tǒng)造成的聲譽損害。
LLM,如OpenAI的GPT-3.5和Meta的Llama 2,是在龐大的數(shù)據(jù)集上訓練的,這些數(shù)據(jù)集也反映了社會中存在的偏見。這些偏見可能以有害的方式表現(xiàn)出來,強化刻板印象,使歧視永久化。
例如,聯(lián)合國教科文組織委托進行的一項研究發(fā)現(xiàn),LLM表現(xiàn)出明顯的性別偏見,將女性名字與“家庭”和“孩子”等傳統(tǒng)角色聯(lián)系起來。相比之下,男性名字與“職業(yè)”和“管理”有關(guān)。
3.因為純粹,所以盛行
用戶比以往任何時候都更喜歡未經(jīng)審查的型號。Sakana AI的聯(lián)合創(chuàng)始人之一David Ha在X上提到,WizardLM-13B-Uncensored已成為他最喜歡的開源模型。
如果你正在尋找一個沒有任何強制“對齊”或“道德化”審查的聊天LLM,我推薦今天剛剛發(fā)布的“WizardLM-13B-Uncensored”。
整個上午都在玩它。到目前為止,這是我最喜歡的開源聊天模式。
加州大學公共衛(wèi)生學院蛋白質(zhì)研究中心教授Lars Juhl Jensen贊揚了X上未經(jīng)審查的LLM的數(shù)據(jù)是如何未經(jīng)過濾的?!耙牭秸嫦?,可以問一個孩子、一個酒鬼或一個未受審查的人,”他補充道。
雖然像Reddy這樣的企業(yè)家已經(jīng)在利用未經(jīng)審查的LLM并在社區(qū)中越來越受歡迎,但可以肯定地說,我們可能很快就會看到大規(guī)模平臺上采用未受審查的LLMs。
想了解更多AIGC的內(nèi)容,請訪問: