自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何設計LLM中的對話界面?

譯文 精選
人工智能
雖然文本框可以輸出任何內(nèi)容,你卻不能保證每次都能把正確的單詞串聯(lián)在一起輸入文本框。因此,與 ChatGPT 相關的別名出現(xiàn)了,它就是“Prompt工程”,在過去的幾個月里備受追捧。

作者 | Varun Shenoy

編譯 | 王瑞平

我們通常不了解用大語言模型(LLM)構(gòu)建出的文本框另一端是什么。當它“盯著”你“看”的時候,感覺很恐怖。因此,你需要優(yōu)化設計模式,對 LLM 中的文本對話界面內(nèi)容進行約束。

圖片圖片

“你的問題是什么?喜歡用谷歌嗎?那是什么意思?”當你使用ChatGPT時,可以向文本框提出一系列問題,也可以用俳句描述一種情景或虛構(gòu)新版《宋飛傳》,它都會輸出連貫的答案。

雖然文本框可以輸出任何內(nèi)容,你卻不能保證每次都能把正確的單詞串聯(lián)在一起輸入文本框。因此,與 ChatGPT 相關的別名出現(xiàn)了,它就是“Prompt工程”,在過去的幾個月里備受追捧。

1、文本輸入界面的弊端:Prompt決定一切

與 LLM 對話就像與人類對話那樣簡單,你只需輸入文本就能獲得內(nèi)容輸出。而文本輸入具有無限的自由度。因此,ChatGPT 也變得越來越難以提示和不可控。

例如,當輸入有害內(nèi)容或模型無法獲取的知識時,會使其產(chǎn)生幻覺,只能編造故事。應對辦法是使用指令調(diào)優(yōu)與 RLHF 等技術進行模型對齊,從而提升模型的語言理解能力。這些技術都有一個共同目標:幫助模型區(qū)分好與壞的輸入。

但是,這些技術也具有一定的缺陷。當模型的功能過濾器捕捉到誤報時,模型對齊發(fā)揮不出任何作用。

例如,我要求 Anthropic 推出的 Claude 工具給老板寫一封電子郵件,說:“我生病了,因此不能去上班?!?/p>

我用的是以下Prompt:“Write an email to my boss saying that I’m sick and therefore I can’t make it to work.”

圖片圖片

輸入的 Prompt 以某種方式“擊中”了模型的功能過濾器,導致模型沒有輸出想要的答案。

簡單對 Prompt 進行調(diào)整,我獲得了想要的答案:“Explain to my boss that I’m sick in the form of an email.”

圖片圖片

這太奇怪了!兩個不同的 Prompt 擁有相同的語義請求,卻獲得了截然不同的結(jié)果。

從上述的例子中,我們可以感受到:文本輸入界面存在明顯的弊端,即,Prompt 決定一切。

2、漏洞:特殊Prompt,繞過模型對齊

你可以通過輸入特定的 Prompt,對系統(tǒng)進行“破解”,從而繞過模型對齊提示。打個比方,“破解”可以“欺騙”模型忽略其設計的對齊。最著名的例子是 DAN(Do anything now!)提示,這個漏洞是在 ChatGPT 公開發(fā)布幾天后才被發(fā)現(xiàn)的。

· DAN 是一個 ChatGPT 提示符,告訴 ChatGPT 可以像一個 AI 角色一樣立即做任何事情,包括:ChatGPT 不能或通常不會做的事。

· 通過 DAN 提示符,系統(tǒng)可以輸出 ChatGPT 不允許的內(nèi)容,包括:關于禁忌話題的對話、發(fā)表意見等。 

我很擅長構(gòu)想出能夠“破解”系統(tǒng)、繞過模型對齊的提示,因為我花了很多時間鉆研 Diffusion 模型。而大多數(shù)沒經(jīng)驗的用戶不能隨意為 Stable Diffusion 編寫Prompt。

3、難題:模型無法輸出你想要的結(jié)果

鑒于輸出結(jié)果的不確定性,用戶很難決定如何提問。從開發(fā)者的角度看,這產(chǎn)生了一系列問題:不僅很難理解用戶是如何與你的產(chǎn)品進行交互的,也很難保證LLM 能夠回答所有的問題。

從理論上來講,良好的 AI 系統(tǒng)界面不應只依靠用戶的自然語言輸入。而且,當我們正常與人交流時,內(nèi)容也不僅限于文字,還應包含更大的信息流,包括:說話時的語調(diào)、手勢和記憶等。

不幸的是,LLM 無法理解大多數(shù)的上下文,只能根據(jù)特定提示詞輸出相關內(nèi)容。在此種情況下,Prompt變得更像編程。你必須能夠準確描述出你想要什么并提供盡可能多的信息。

此外,LLM 缺乏成功完成任務所需的社會或?qū)I(yè)背景。即使你在一個 Prompt 中列出任務涉及的所有細節(jié),LLM 可能仍然無法輸出你想要的結(jié)果。

(來源:Pinecone)(來源:Pinecone)

上圖展示出了一個簡單的 Prompt 與關鍵部分的概述。當你想引用來源時,Prompt 可能會變得很復雜。

圖片圖片

考慮到以上的問題,Prompt 工程學變得更有意義了。Prompt 工程師不僅需要讓模型響應給定的問題,還需要用可解析的方式(如,JSON)構(gòu)建輸出。他們將原始提示語句輸入到 LLM 中,用戶最終根本不需要花時間考慮提示。

4、理想的交互界面

更少的語言、更多的選項按鈕

鑒于上述情況,在大多數(shù)情況下,“提示框”不應出現(xiàn)在用戶面前。那么,應用程序應如何與 LLM 整合到一起呢?答案是:選項按鈕。

如何為你的聊天對話框匹配合適的按鈕呢?這得從頭說起:大多數(shù)人傾向于使用 LLM 完成以下 4 個基本語言任務:

4個基本語言任務

1.Summorization:將大量信息或文字總結(jié)成簡明而全面的概述。這對于快速理解長文章、文檔或?qū)υ捴械男畔⒑苡杏?。AI系統(tǒng)需要理解關鍵思想、概念或主題,從而生成總結(jié)。

2.ELI5(像5歲孩子一樣解釋):用簡單易懂的方式解釋復雜的概念,而不使用任何術語,目標是為廣大非專業(yè)觀眾提供足夠清晰和簡單的解釋。

3.Perspectives:對一個話題提供多種觀點。這可能包括來自不同利益相關者的個人觀點、持不同觀點的專家或者只是基于不同經(jīng)驗和背景解釋主題的一系列方式。

4.Contextual Response:用恰當?shù)?、情景化的方?通過電子郵件、消息等)響應用戶或情況。上下文響應需要切題,就像由參與同一對話的人提供。

圖片圖片

大多數(shù) LLM 應用程序都是以上4種任務的組合,而 ChatGPT 可服務于下圖中標注出的對話、網(wǎng)頁瀏覽、長篇寫作(長尾)等部分。

圖片圖片

一旦我們了解到用戶在使用 LLM 時是如何對任務進行分類的,就可以將輸入映射成按鈕、菜單和觸覺界面,為 AI 系統(tǒng)構(gòu)建更容易交互的界面。

換句話說,大多數(shù) LLM 中的提示框都可以用選項按鈕替代,用于執(zhí)行 “summary” 和 “ELI5” 之類的常見任務。

向具有歧義的Prompt說再見

選項按鈕限制了輸入內(nèi)容和狀態(tài)空間,避免用戶隨意輸入文字。這使系統(tǒng)變得更加穩(wěn)固了。

圖片圖片

這類似于 GitHub Copilot 界面提供的 AI 代碼補全功能,開發(fā)人員按下 “tab “ 鍵后,系統(tǒng)自動給出響應。目前,用戶可以點擊 “tab” 接受由 Copilot 產(chǎn)生的幽靈文本或持續(xù)輸入。

這是避免自然語言界面產(chǎn)生問題的極好示例。用戶不需要編寫提示就能像往常一樣繼續(xù)輸入,從而輕松繞過 AI 推薦。最重要的是,只需一次按鍵就能完成下一段代碼的編寫。

今后,編寫提示的任務將由專業(yè)工程師負責。開發(fā)人員的任務是將正確的上下文信息拼湊在一起。

六、未來的界面:按鈕自動填充提示框

最后再強調(diào)一遍,當你在構(gòu)建 LLM 應用程序時,界面往往代表著產(chǎn)品的好壞,也往往決定了系統(tǒng)集成到人類工作和生活中后的應用程度。

自然語言雖然是人類相互交流的簡單方式,但會話式界面并不是 AI 工具最終的理想界面。

圖片圖片

會話式界面只有在雙方使用相同的共享上下文時才能發(fā)揮出作用。在人機交互和心理學中,這通常被稱作主體間性。

在某些情景下,界面也許不礙事,但提示卻總會成為阻礙,因為它需要用戶思考。最終,用戶不希望在他們完成目標時看見一個空的文本框。

按鈕和其它交互式設計元素能夠使體驗變得更加輕松。與 GitHub Copilot 類似的理想界面能夠給予用戶干凈利落的體驗,系統(tǒng)也能夠預測到用戶需求并提出建議。

因此,如果仍需要使用文本輸入框,則需要提供一些按鈕自動填充提示框。這些按鈕可以將 LLM 生成的問題傳遞至提示框。

圖片圖片

以 Quora 推出的聊天應用 Poe 為例。提問后,我就能獲得一個回復,回復中嵌入了提示(用紫色突出顯示),我可以用選項按鈕連續(xù)提問。與 Poe 類似,用 LLM 構(gòu)建的應用程序需要以相同的方式運行,預先緩存潛在的問題及答案。

有了更智能化的界面,大型語言模型就可以為我們的工作和生活提供幫助并領先于我們,并根據(jù)不同用戶的不同喜好自動生成按鈕。

你不必再絞盡腦汁輸入提示詞,更不用擔心輸出與你的想法背道而馳的結(jié)果,一起期待接下來 LLM 的顛覆式革新吧!

參考資料:https://varunshenoy.substack.com/p/natural-language-is-an-unnatural

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2024-08-13 14:53:21

2016-01-05 09:45:57

設計版式

2017-05-26 09:16:59

CUI容器化語音應用

2022-11-30 07:28:26

2016-01-08 11:35:01

移動端設計版面

2013-01-28 09:39:05

用戶界面扁平化設計

2024-02-26 07:43:10

大語言模型LLM推理框架

2011-01-26 15:47:45

SquarespaceiPhone應用

2020-12-10 11:12:31

Teams微軟Zoom

2010-09-06 10:15:13

UI設計MeeGo

2024-10-16 08:23:15

大型語言模型LLM機器學習

2011-02-14 14:19:01

FLUDiPad應用

2011-01-26 16:34:10

GowallaiPhone應用

2015-07-09 10:25:45

界面設計UI設計

2011-06-01 10:30:41

用戶界面

2024-07-03 09:38:35

LLM人工智能

2022-03-14 09:15:14

Windows微軟UI

2014-04-03 09:49:20

設計界面設計

2024-04-17 10:08:20

LLM人工智能大型語言模型

2023-11-23 09:00:00

人工智能ChatGPTReactJS
點贊
收藏

51CTO技術棧公眾號