自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大模型 Prompt 技巧全解析

人工智能
本文將深入探討 prompt 的定義和撰寫框架,詳細闡述打造高效 prompt 的原則與策略,同時從技術原理層面剖析 prompt,助力讀者更好地運用大模型,提升業(yè)務價值。

作者 | mitin

在數字化浪潮的推動下,AI大模型以其卓越的自然語言處理能力和智能交互特性,迅速在很多領域中占據了重要地位。比如:與傳統(tǒng)客服相比,AI大模型展現出了無可比擬的優(yōu)勢,通過精心設計的 prompt,能使我們在客服托管、智能客服等多個項目和業(yè)務場景中發(fā)揮顯著作用,大幅提高工作效率,優(yōu)化成果質量。

為了精進個人能力以及助力產研學習氛圍的提升,本人在學習完吳恩達教授以及其他前輩們有關 prompt 的課程之后,整理了這份學習資料,以供大家學習交流。該筆記將深入探討 prompt 的定義和撰寫框架,詳細闡述打造高效 prompt 的原則與策略,同時從技術原理層面剖析 prompt,助力讀者更好地運用大模型,提升業(yè)務價值。

第一節(jié):Prompt定義及基本框架

1. 什么是Prompt

大模型 prompt 指在大語言模型應用中,用于 “提示” 模型喚起特定能力以解決實際問題的提問方式。早期它被稱作 “輸入形式” 或 “輸入模板”,后來 “prompt”(提示)這一叫法因契合大語言模型語境,能準確體現其在調用模型能力方面的關鍵作用,成為公認術語。

大模型多數核心能力在預訓練階段形成,prompt 就像鑰匙,引導模型從預訓練積累的海量信息中,精準喚起如理解復雜文本、總結信息、生成內容、邏輯推理等能力,滿足用戶實際需求。它并非把模型當作單純知識庫,而是高效調用其能力,實現類似人類運用智能解決復雜問題的效果,是 prompt 工程的核心,對用好大語言模型意義重大。

2. 撰寫Prompt的基本框架

(1) Prompt包含的要素

  • 指令:想要模型執(zhí)行的特定任務或指令。
  • 上下文:包含外部信息或額外的上下文信息,引導語言模型更好地響應。
  • 輸入數據:用戶輸入的內容或問題。
  • 輸出指示:指定輸出的類型或格式。

(2) Prompt五大框架

① RTF框架

RTF(Role-Task-Format)框架是一個非常簡單通用的Prompt提示框架,我們和任意大模型對話場景下都可以使用該規(guī)范進行改進輸出。

  • R-Role(角色):指定大模型擔當固定角色(程序員、數據分析師、講解員、記者等等)
  • T-Task(任務): 任務,告訴大模型需要為我們做的事情
  • F-Format(格式):大模型最終結果的返回格式(比如:表格、Markdown、英文等等)

主要優(yōu)點:

  • 簡單、方便。
  • 指定Role角色,可以讓大模型在當前的角色范圍內回答知識,這在一些特定的領域中非常有效。
  • 指定Role角色也能讓工程上檢索知識能夠確定邊界范圍,配合元數據所發(fā)揮的威力會更強。
  • 如果結合RAG知識內容檢索,那么上下文回答的內容會讓用戶感覺更加是順暢。

② 思考鏈模式

通過這種模式來逐步改善大模型的推理能力,非常適合一些復雜的任務處理。例如:

  • 分析型或者邏輯推理型的任務
  • 決策
  • 解決問題(比如程序員根據錯誤日志找Bug)

而要使用這種模式,只需要在末尾添加”讓我們逐步思考”即可。例如:

# 數據源(與指令區(qū)分)
user_datasource = """XXX……""" 

prompt1 = """分析一下在人工客服服務場景下,'''{user_datasource}'''中客戶有哪些訴求。用一句話概括。"""
prompt2 = """分析一下在人工客服服務場景下,'''{user_datasource}'''中客戶有哪些訴求。用一句話概括。讓我們逐步思考。"""

# 模型輸出結果
output1:在人工客服服務場景下,客戶主要訴求為:微信賬號存在安全風險導致無法添加好友、單點攔截、下載安裝微信出現問題等,尋求客服協助解決問題。
output2:在人工客服服務場景下,客戶主要訴求為:微信賬號存在安全風險導致無法添加好友,以及因違規(guī)行為被限制登錄,客戶希望客服能夠盡快處理這些問題。

# 分析結果
output1中的”單點攔截”并不是用戶的訴求,而output2顯然更加正確

③ RISEN框架

  • R-Role:大模型扮演的角色
  • I-Instructions: 指示命令,和Task-任務差不多
  • S-Steps: 步驟
  • E-End Goal: 最終目標
  • N-Narrowing(Constraints): 縮小范圍(約束條件),和RTF框架中的Format有異曲同工之妙,一個是格式的約束,而這里的約束可以是任意方面,比如回答的內容(特定領域)、字數限制等等方面

該框架主要適合:

  • 撰寫具有特定約束的任務(例如博客文章)
  • 有明確指導方針的任務(例如商業(yè)計劃)

④ RODES框架

  • R-Role: 角色
  • O - Objective: 目標
  • D - Details: 詳細的細節(jié)
  • E - Examples: 示例
  • S - Sense Check: 感官檢查

⑤ 密度鏈模式

密度鏈模式Prompt是Salesforce、麻省理工學院和哥倫比亞大學的研究人員推出的一種新提示,它非常的高效,使用遞歸來創(chuàng)建越來越好的輸出的提示,與普通提示生成的 GPT-4 摘要相比,它生成的摘要更加密集且更適合人們理解。

適合:

  • 總結
  • 改進您最喜歡的提示
  • 通過遞歸生成可用的長格式內容

(感興趣的同學可以自己檢索一下)

第二節(jié):打造高效Prompt的兩大核心原則

在Prompt工程領域,掌握精妙的撰寫策略是釋放語言模型強大潛力的關鍵。本節(jié)將深入探討prompt撰寫的兩大核心策略,為您揭示如何通過優(yōu)化指令,引導模型生成更貼合需求、更具質量的輸出。

1. 原則一:編寫明確和具體的指令

為了讓模型精準理解我們的意圖,編寫清晰、明確且具體的指令至關重要。這不僅能避免模型產生誤解,還能顯著提升輸出結果的相關性和準確性。

策略1:使用分隔符清晰界定輸入部分

在構建prompt時,使用分隔符將特定文本部分與提示的其他部分清晰隔開,能有效避免提示詞沖突。任何能讓模型識別出單獨部分的符號都可作為分隔符,常見的包括:

  • 章節(jié)標題:通過不同層級的標題區(qū)分不同內容模塊。
  • 三重雙引號:""" ,在代碼編寫中常用于包裹較長的文本字符串。
  • 三重單引號:''' ,功能與三重雙引號類似,適用于不同的語法環(huán)境。
  • 三重破折號:--- ,在文本中起到明顯的分隔作用。
  • 角括號:<> ,常被用于標記特定元素。
  • XML標簽:,利用結構化的標簽形式區(qū)分不同內容。

示例1:假設我們需要對一段產品描述進行總結,可通過如下方式使用分隔符:

product_description = f"""這是一款全新的智能手表,具備心率監(jiān)測、睡眠追蹤等健康功能,還支持多種運動模式記錄,擁有高清顯示屏和長達7天的續(xù)航能力。"""
prompt =  f"""請總結以下產品描述:'''{product_description}'''"""

示例2:如果要讓模型對一段用戶評論進行情感分析,示例如下:

user_comment = f"""這款手機的拍照效果真的太棒了,色彩還原度高,夜景模式也很出色,唯一不足的是電池續(xù)航有點短。"""
prompt = f"""分析以下用戶評論的情感傾向:''' {user_comment}''' """

這種方式能夠確保模型明確區(qū)分指令和待處理文本,避免因指令混淆而產生錯誤輸出。

策略2:要求結構化輸出

為了便于后續(xù)對模型輸出進行解析和處理,我們可以要求模型以特定的結構化格式輸出,如HTML或JSON。這種方式能極大提高數據處理的效率,尤其是在Python編程環(huán)境中,結構化輸出可直接讀入字典或列表中,方便進一步的分析與操作。

示例 1:要求模型以 JSON 格式輸出。

prompt = "請以json格式列出每個nodeType所體現的用戶訴求、客服方案。每一個json-value不超過20個字"

# 數據源(與指令區(qū)分)
user_datasource = """XXX……""" 

# 模型輸出
{
"IVR": {
"用戶訴求": "微信使用問題求助",
"客服方案": "引導正常使用或自助處理"
},
"ASYNC": {
"用戶訴求": "賬號封禁等相關申訴",
"客服方案": "按規(guī)則處理或引導自助"
},
"AI": {
"用戶訴求": "支付相關問題咨詢",
"客服方案": "要求用戶詳細描述問題"
}
}

示例2:以HTML格式輸出一個簡單的書籍。

prompt = "請以HTML格式列出三本你推薦的科幻小說及其作者。"
# 模型輸出
<ul>
    <li>《三體》 - 劉慈欣</li>
    <li>《基地》 - 艾薩克·阿西莫夫</li>
    <li>《銀河帝國:機器人五部曲》 - 艾薩克·阿西莫夫</li>
</ul>

策略3:要求模型檢查條件是否滿足

在面對復雜任務時,如果在一些假設條件,而這些條件并非總是成立,那么我們需要引導模型首先對這些假設進行檢查。若條件不滿足,模型應明確指示并停止繼續(xù)執(zhí)行任務,以避免無效計算和錯誤結果。同時,考慮潛在的邊緣情況,并為模型設定相應的處理規(guī)則,能夠有效減少意外錯誤,確保模型輸出的穩(wěn)定性和可靠性。

示例:假設我們要求模型計算一個數學表達式,但前提是表達式所有都為正數。

expression = "5 + 3 - (-2)"
prompt = f"""首先檢查表達式 '{expression}' 中的所有數字是否都為正數。如果是,請計算該表達式的值;如果不是,請輸出'表達式中存在非正數,無法計算'。"""
# 模型輸出
表達式中存在非正數,無法計算

策略4:Few-shot prompting(少樣本提示)

在要求模型執(zhí),提供成功完成任務的示例,能夠幫助模型更好地理解任務要求和期望輸出的格式。通過這些示例,模型可以學習到任務的模式和規(guī)律,從而在處理實際輸入時生成更符合預期的結果。少樣本提示尤其適用于處理一些復雜或具有特定格式要求的任務,能夠顯著提升模型的表現。

示例:要求模型按照特定格式將中文詞匯翻譯成英文并造句。

prompt = """
示例1:
中文詞匯:蘋果
翻譯:apple
造句:I like to eat apples.

示例2:
中文詞匯:學校
翻譯:school
造句:I go to school every day.

中文詞匯:圖書館
翻譯:
造句:
"""
# 模型輸出
翻譯:library
造句:I often read books in the library.

2. 原則二:給予模型充足的思考時間

當模型因急于得出結論而出現推理錯誤時,我們需要通過優(yōu)化式,為模型提供更清晰的推理路徑,引導其進行更深入、全面的思考。

策略1:明確完成任務所需的步驟

為模型詳細指定完成任務所需遵循的步驟,能夠幫助模型有條不推理和計算。通過這種方式,模型可以更清晰地理解任務的邏輯結構,避免因思路混亂而產生錯誤。例如,要求模型按照特定格式輸出,能夠引導其在處理過程中注重信息的組織和呈現方式。

示例:要求模型分析一首古詩,格式為“詩歌主題 - 主要意象 - 表達情感”。

poem = "床前明月光,疑是地上霜。舉頭望明月,低頭思故鄉(xiāng)。"
prompt = f"""請按照“詩歌主題 - 主要意象 - 表達情感”的格式分析這首詩:{poem}"""
# 模型輸出
思鄉(xiāng)之情 - 明月 - 對故鄉(xiāng)的深切思念

策略2:引導模型在得出結論前充分思考方案

明確指示模型在得出最終結論前,先進行充分的推理和分析,往往能獲得更優(yōu)的結果。這種方式能夠促使模型深入挖掘問題的本質,綜合考慮各種因素,從而避免因片面或倉促的判斷而導致的錯誤。

示例:問模型“如何提高公司的員工滿意度”。

prompt = "在回答如何提高公司的員工滿意度之前,請先思考至少三個方面的因素,然后綜合這些因素給出全面的建議。"
# 模型輸出
首先,從薪酬福利方面,可適當提高薪資水平、完善福利體系,如增加帶薪休假天數等;其次,從職業(yè)發(fā)展角度,為員工提供更多培訓機會和晉升通道;再者,從工作環(huán)境來看,營造舒適、和諧的辦公氛圍,加強團隊建設活動。綜合這些方面,提高公司員工滿意度可以從優(yōu)化薪酬福利、提供職業(yè)發(fā)展機會以及改善工作環(huán)境等措施入手。

3.模型的局限性與應對策略

盡管語言模型在大量數據的訓練下展現出強大的能力,但它們并非完美無缺。其中,“幻覺”現象是模型面?zhèn)€重要挑戰(zhàn)。

(1) 模型“幻覺”

即使模型在訓練過程中接觸了海量知識,但它并不能完美記住所有信息,也難以精準把握自身知識的邊界。這就導致在面對晦澀主題的問題時,模型可能會編造出看似合理但實際上錯誤的內容,這就是所謂的“幻覺”。

(2) 解決幻覺的一種策略

為了有效應對幻覺問題,我們可以要求模型在回答問題前,首先從給定文本中尋找相關引用,并依據這些引用來構建答這種方式,模型的回答將基于可靠的信息來源,而非憑空臆測,從而大大提高回答的準確性和可信度。同時,這種方法還能夠實現答案的可追溯性,便于對模型輸出進行驗證和審查。

示例:給定一段關于歷史事件的文本,要求模型回答相關問題。

text = """1861年,美國爆發(fā)了南北戰(zhàn)爭,這場戰(zhàn)爭是美國歷史上的重要轉折點,它主要圍繞奴隸制的存廢問題展開,北方主張廢除奴隸制,南方則堅持保留。最終北方取得了勝利,為美國的工業(yè)化發(fā)展鋪平了道路。"""
prompt = f"""請從上述文本中找出相關信息,回答南北戰(zhàn)爭主要圍繞什么問題展開?"""
# 模型輸出
南北戰(zhàn)爭主要圍繞奴隸制的存廢問題展開,北方主張廢除奴隸制,南方則堅持保留。

第三節(jié):Prompt技術剖析與應用

在深入探索 prompt 技術的征程中,我們將逐一解析多種關鍵技術,助力您精準把握其核心要點與應用場景,切實提升應用能力。

1. 零樣本提示(Zero-Shot Prompting)

零樣本提示是一種讓模型在沒有特定任務示例展示的情況下直接處理任務的技術。其原理在于模型經過大量數據訓練和指令調整后,自身具備了一定的通用知識和任務理解能力。例如:

prompt = "判斷此文本的情感傾向為積極、消極或中性:這部電影情節(jié)緊湊,特效驚人。情感:"
# 模型會依據自身預訓練知識對這個提示進行處理并輸出結果

模型能依據自身預訓練知識輸出“積極”。然而,由于缺乏具體示例引導,對于復雜任務,其效果可能受限。

2. 少樣本提示(Few-Shot Prompting)

少樣本提示在零樣本提示效果不佳時發(fā)揮作用。它通過為模型提供少量任務示例,幫助模型學習任務模式和規(guī)律。例如:

prompt = """“whatpu”是坦桑尼亞的一種小型毛茸茸的動物。一個使用 whatpu 這個詞的句子的例子是:我們在非洲旅行時看到了這些非??蓯鄣膚hatpus?!癴arduddle”是指快速跳上跳下。一個使用 farduddle 這個詞的句子的例子是:"""
# 模型會根據前面的示例學習并生成新的句子

通過提供如上述新詞匯造句的示例,模型能夠模仿示例的結構和邏輯生成新的內容。不過在復雜推理任務中,仍需進一步優(yōu)化。

3. 思維鏈提示(Chain-of-Thought Prompting)

思維鏈提示旨在為模型提供清晰的推理步驟引導,從而顯著提升其在復雜推理任務中的表現。它通過在提示中展示詳細的推理過程,讓模型學習如何逐步分析和解決問題。比如:

prompt = """Roger 有 5 個網球,他又買了 2 罐網球,每罐有 3 個球,他現在共有多少球?
Roger 一開始有 5 個球。
2 罐網球,每罐 3 個,共 6 個球。
5 + 6 = 11。
答案是 11。"""
# 模型按照提示中的推理步驟進行計算和回答

此技術可與少樣本提示結合,增強效果,尤其適用于算術、常識推理等任務,幫助模型更有條理地處理問題。

4.自我一致性(Self-Consistency)

自我一致性技術主要用于優(yōu)化思維鏈提示中的推理路徑選擇。其核心思想是通過提供多個少樣本推理示例,讓模型從多樣的推理結果中篩選出最一致的答案,增強模型在算術和常識推理任務中的可靠性。比如:

prompt = """Q:林中有 15 棵樹。林業(yè)工人今天將在林中種樹。完成后,將有 21 棵樹。林業(yè)工人今天種了多少棵樹?
A:我們從 15 棵樹開始。后來我們有 21 棵樹。差異必須是他們種樹的數量。因此,他們必須種了 21 - 15 = 6 棵樹。答案是 6。
Q:停車場有 3 輛汽車,又來了 2 輛汽車,停車場有多少輛汽車?
A:停車場已經有 3 輛汽車。又來了 2 輛?,F在有 3 + 2 = 5 輛汽車。答案是 5。
Q:當我 6 歲時,我的妹妹是我的一半年齡。現在我 70 歲了,我的妹妹多大?
A:"""
# 模型會參考前面的推理示例對最后一個問題進行回答,并從多個可能的回答中選擇最一致的答案

5.生成知識提示(Generated Knowledge Prompting)

生成知識提示主要用于解決模型在處理需要額外知識的任務時出現的局限性。它的操作方式是先讓模型生成與任務相關的知識,再整合這些知識得出準確答案。比如:

prompt = """輸入:高爾夫球的一部分是試圖獲得比其他人更高的得分。
知識:高爾夫球的目標是以最少的桿數打完一組洞。一輪高爾夫球比賽通常包括 18 個洞。每個洞在標準高爾夫球場上一輪只打一次。每個桿計為一分,總桿數用于確定比賽的獲勝者。
解釋和答案:"""
# 模型根據生成的知識對問題進行回答

像這樣先生成相關知識,再整合知識得出準確答案“不是,高爾夫球的目標是以最少桿數完成比賽,而非追求更高得分”,有效提升模型在常識推理任務的準確性。

6. 鏈式提示(Prompt Chaining)

鏈式提示是將復雜任務拆解為多個子任務,通過逐個子任務生成提示并傳遞結果的方式來實現復雜任務的有序處理。以文檔問答為例:

# 第一個提示用于提取相關引文
prompt1 = """你是一個很有幫助的助手。你的任務是根據文檔回答問題。第一步是從文檔中提取與問題相關的引文,由####分隔。請使用<quotes></quotes>輸出引文列表。如果沒有找到相關引文,請回應“未找到相關引文!”。#### {{文檔}} ####"""
# 假設這里有一個文檔變量 doc,將其代入提示中進行處理
# 處理后得到引文列表,假設為 quotes_list

# 第二個提示根據引文和文檔生成回答
prompt2 = """根據從文檔中提取的相關引文(由<quotes></quotes>分隔)和原始文檔(由####分隔),請構建對問題的回答。請確保答案準確、語氣友好且有幫助。#### {{文檔}} #### <quotes>{quotes_list}</quotes>"""
# 模型根據第二個提示生成最終回答

這種方式提高了任務處理的準確性與可靠性,使得模型能夠逐步深入地處理復雜問題。

7. 思維樹(ToT)

思維樹框架是為了幫助模型應對復雜的探索性任務而設計的。它通過維護一棵思維樹,讓模型在解決問題時能夠生成和評估中間思維步驟,并結合搜索算法進行系統(tǒng)性探索。示例如下:

# 假設給定數字為 4、9、10、13
prompt = """輸入: 4 9 10 13
4 + 9 = 13 (left 10 13 13)
10 - 4 = 6 (left 6 9 13)
13 - 6 = 7 13 - 9 = 4
4 + 6 = 10 (left 7 9 4 * 6 = 24 (left 4 6)
評估是否能得到 24: sure
"""
# 模型按照思維樹的步驟進行推理和計算,并根據評估結果繼續(xù)搜索或得出答案

8. 檢索增強生成(RAG)

檢索增強生成(RAG)技術將信息檢索與文本生成相結合,專門用于處理知識密集型任務。它通過檢索相關文檔來為模型提供額外的知識支持,從而緩解模型的“幻覺”問題。例如:

# 假設這里有一個檢索函數 retrieve_documents 和一個生成答案的函數 generate_answer
question = "誰是首次登上月球的人?"
documents = retrieve_documents(question)
prompt = "根據以下文檔回答問題:" + str(documents) + " 問題是:" + question
answer = generate_answer(prompt)
# 最終得到的 answer 即為模型結合檢索結果生成的答案

這有效確保答案基于可靠知識源,在自然問題、事實驗證等基準測試中表現卓越。

9. 自動推理并使用工具(ART)

自動推理并使用工具(ART)技術使模型能夠自動生成包含推理步驟的程序,并在需要時調用外部工具。例如:

prompt = """計算 16 個蘋果平均分給 4 個人,每人幾個,再加上 3 是多少?
請生成解決這個問題的程序步驟。"""
# 模型會生成類似下面的程序步驟
# result = (16 / 4) + 3
# 然后可以在代碼中執(zhí)行這個程序步驟得到最終答案

在 BigBench 和 MMLU 基準測試中,ART 在多種任務上表現突出,顯著超越少樣本提示和自動 CoT 等方法,提升了模型解決問題的能力和效率。

10. 自動提示工程師(APE)

自動提示工程師(APE)技術能夠自動生成和篩選任務指令。它通過利用大型語言模型生成指令候選項,再依據評估分數選擇最佳指令,從而提升提示生成的效率與效果。比如:

# 假設這里有一個生成指令候選項的函數 generate_candidates 和一個選擇最佳指令的函數 select_best_instruction
article = "這里是一篇新聞文章的內容"
candidates = generate_candidates(article)
prompt = select_best_instruction(candidates) + " " + article
# 模型根據最終的 prompt 生成文章總結

例如總結新聞文章時,它先利用大型語言模型生成如“提取文章關鍵人物、事件和時間”“概括文章主要內容并突出重點”等指令候選項,再依據評估分數選擇最佳指令,指導模型生成高質量總結。

11. Active-Prompt

Active-Prompt 技術主要用于解決思維鏈示例有效性的問題。它通過先查詢模型生成多個答案,計算不確定度后挑選最不確定的問題由人類注釋示例,再用新示例推斷其他問題,從而優(yōu)化模型對不同任務的適應性。比如:

# 假設這里有一個查詢模型生成答案的函數 query_model 和一個計算不確定度的函數 calculate_uncertainty
prompt = "對以下文本進行分類:這是一篇科技類文章。"
answers = query_model(prompt, num_answers=5)  # 生成 5 個答案
uncertainty = calculate_uncertainty(answers)
if uncertainty > threshold:  # 如果不確定度大于設定閾值
    # 選擇最不確定的問題由人類注釋示例,然后更新提示并重新查詢模型
    new_prompt = update_prompt_with_annotated_example(prompt)
    final_answer = query_model(new_prompt)
else:
    final_answer = select_most_consistent_answer(answers)
# 最終得到的 final_answer 即為經過 Active-Prompt 處理后的答案

通過這種方式,能夠提高模型在文本分類等任務中的準確性。

12. 方向性刺激提示(Directional Stimulus Prompting)

方向性刺激提示通過訓練策略 LM 生成引導提示,增強對模型生成結果的掌控力。例如文本摘要任務:

article = "這里是一篇文章的內容"
prompt = "請根據文章內容生成一個引導提示,重點關注文章的主要事件和結果。"
# 策略 LM 會根據這個提示生成如“重點提取文章中事件的主體、發(fā)生的時間和最終結果”的引導提示
# 然后可以將這個引導提示用于后續(xù)的文本摘要任務中

在文本摘要任務中,策略 LM 依據文章主題、關鍵信息等生成引導提示,指導模型生成符合需求的摘要,提升摘要質量。

13. PAL(程序輔助語言模型)

PAL(程序輔助語言模型)技術讓模型生成程序來解決問題,借助編程運行時提升解決復雜問題的能力。以日期計算問題為例:

question = "今天是 2023 年 2 月 27 日,我出生于 25 年前,我的出生日期是多少?"
prompt = """
import datetime
from dateutil.relativedelta import relativedelta

# Q: 2015 年在 36 小時后到來。從今天起一周后的日期是多少(格式為 MM/DD/YYYY)?
# 如果 2015 年在 36 小時后到來,那么今天是 36 小時前。
today = datetime(2015, 1, 1) - relativedelta(hours=36)
# 從今天起一周后,
one_week_from_today = today + relativedelta(weeks=1)
# 格式化后的答案
one_week_from_today.strftime('%m/%d/%Y')

# Q: 今天是 2023 年 2 月 27 日,我出生于 25 年前,我的出生日期是多少?
"""
# 模型會生成類似下面的代碼
# today = datetime(2023, 2 27)
# born = today - relativedelta(years=25)
# born.strftime('%m/%d/%Y')
# 然后可以在代碼中執(zhí)行模型生成的代碼得到最終答案

14. ReAct 框架

ReAct 框架使模型交錯生成推理軌跡和操作,提升答案的可靠性與可解釋性。以回答問題為例:

question = "除蘋果遙控器外,哪些設備可控制其設計交互的程序?"
prompt = """問題:除蘋果遙控器外,哪些設備可控制其設計交互的程序?
思考 1:我需要搜索蘋果遙控器相關程序及可替代控制設備。
操作 1:搜索 [蘋果遙控器 可替代控制設備]
觀察 1:搜索結果為……
思考 2:根據搜索結果,分析哪些設備符合要求。
操作 2:篩選 [符合要求的設備]
觀察 2:篩選結果為……
思考 3:整理最終答案。
操作 3:整理 [最終答案]
"""
# 模型會按照提示中的推理軌跡和操作步驟進行處理,并最終得出答案

在知識密集型和決策任務中表現良好,通過與外部環(huán)境交互獲取信息來輔助推理。

15. 自我反思(Reflexion)

自我反思框架包含參與者、評估者和自我反思三個模型,旨在幫助模型從錯誤中學習并提升性能。模擬編程任務的示例如下:

# 假設這里有參與者模型 actor、評估者模型 evaluator 和自我反思模型 reflexion
code = "這里是一段初始代碼"
# 參與者模型生成嘗試解決問題的代碼和動作
result = actor(code)
# 評估者模型評價輸出
score = evaluator(result)
# 自我反思模型根據評價結果生成改進建議
reflection = reflexion(score, result)
# 將改進建議應用到下一次的代碼生成中,實現自我學習和提升

如代碼出現語法錯誤,自我反思模型會提示可能錯誤原因及修正方向,幫助模型快速學習。

附錄

1. 術語表

  • Prompt:在大語言模型應用中,用于“提示”模型喚起特定能力以解決實際問題的提問方式,是prompt工程的核心。
  • RTF框架:Role - Task - Format框架,通過指定角色、任務和格式規(guī)范大模型輸出,簡單通用。
  • 思考鏈模式:在提示末尾添加“讓我們逐步思考”,引導大模型逐步分析復雜任務,改善推理能力。
  • RISEN框架:包含角色、指示命令、步驟、最終目標和縮小范圍(約束條件),適合特定約束或明確指導方針的任務。
  • RODES框架:涵蓋角色、目標、詳細細節(jié)、示例和感官檢查的提示框架。
  • 密度鏈模式:利用遞歸創(chuàng)建更好輸出的提示,生成的摘要更密集且適合理解,適用于總結等任務。
  • 少樣本提示(Few - shot prompting):為模型提供少量任務示例,幫助其學習任務模式和規(guī)律,提升在復雜或特定格式任務中的表現。
  • 零樣本提示(Zero - Shot Prompting):模型在無特定任務示例展示下,依靠自身預訓練知識和任務理解能力直接處理任務。
  • 思維鏈提示(Chain - of - Thought Prompting):為模型展示詳細推理過程,提升其在復雜推理任務中的表現,可與少樣本提示結合。
  • 自我一致性(Self - Consistency):通過提供多個少樣本推理示例,讓模型篩選最一致答案,增強在算術和常識推理任務中的可靠性。
  • 生成知識提示(Generated Knowledge Prompting):先讓模型生成與任務相關知識,再整合知識得出準確答案,解決模型處理需額外知識任務的局限性。
  • 鏈式提示(Prompt Chaining):將復雜任務拆分為多個子任務,逐個子任務生成提示并傳遞結果,提高任務處理準確性與可靠性。
  • 思維樹(ToT):通過維護思維樹,讓模型生成和評估中間思維步驟,結合搜索算法應對復雜探索性任務。
  • 檢索增強生成(RAG):將信息檢索與文本生成結合,檢索相關文檔為模型提供知識支持,緩解“幻覺”問題。
  • 自動推理并使用工具(ART):使模型自動生成包含推理步驟的程序,并在需要時調用外部工具,提升解決問題能力和效率。
  • 自動提示工程師(APE):利用大型語言模型生成指令候選項,依據評估分數選擇最佳指令,提升提示生成效率與效果。
  • Active - Prompt:先查詢模型生成多個答案,計算不確定度后挑選最不確定問題由人類注釋示例,優(yōu)化模型對不同任務的適應性。
  • 方向性刺激提示(Directional Stimulus Prompting):訓練策略LM生成引導提示,增強對模型生成結果的掌控力,提升文本摘要等任務的質量。
  • PAL(程序輔助語言模型):讓模型生成程序來解決問題,借助編程運行時提升解決復雜問題的能力。
  • ReAct框架:使模型交錯生成推理軌跡和操作,提升答案的可靠性與可解釋性,在知識密集型和決策任務中表現良好。
  • 自我反思(Reflexion):包含參與者、評估者和自我反思三個模型,幫助模型從錯誤中學習并提升性能。

2.常見問題解答

(1) 如何選擇合適的Prompt框架?

根據任務類型和需求選擇。如簡單對話場景可選用RTF框架;復雜分析任務可考慮思考鏈模式或RISEN框架;對輸出格式有嚴格要求的,可在RTF、RISEN框架中關注格式或約束條件設定;進行總結類任務,密度鏈模式可能更合適。

(2) 為什么模型會出現“幻覺”現象?

模型雖經大量數據訓練,但無法完美記住所有知識,也難以精準把握知識邊界,面對復雜或生疏主題問題時,就可能編造看似合理但錯誤的內容。

(3) 如何利用少樣本提示提升模型性能?

提供與任務相關、格式規(guī)范的成功示例,示例要涵蓋任務的關鍵要素和模式,讓模型學習示例中的規(guī)律和邏輯,從而在處理實際輸入時生成更符合預期的結果。尤其適用于復雜任務或對輸出格式有特定要求的情況。

(4) 鏈式提示在實際應用中有哪些優(yōu)勢?

將復雜任務拆解為子任務,使模型處理過程更清晰、有序,逐步深入解決問題,提高了任務處理的準確性與可靠性,避免模型在處理復雜問題時因任務過于復雜而出現混亂或錯誤。

責任編輯:趙寧寧 來源: 騰訊技術工程
相關推薦

2024-03-18 07:48:00

大語言模型NVIDIA生成式 AI

2024-07-17 09:47:18

2009-12-17 17:37:42

Ruby on Rai

2025-04-10 07:00:00

2010-03-05 13:46:12

Android編程學習

2010-03-04 16:38:37

Android開發(fā)技巧

2024-05-31 14:23:15

2023-11-01 11:45:35

戴爾沙龍

2011-01-13 13:48:52

Android 3.0

2025-02-14 08:44:39

提示工程OpenAIDeepSeek

2010-03-10 15:36:52

交換機

2023-10-07 08:28:06

語言模型代碼技術

2024-09-26 10:42:20

2014-11-12 09:48:07

云計算云計算模式

2023-07-08 23:20:41

2025-04-01 07:00:00

2024-07-02 10:24:35

2023-06-24 19:59:40

2017-05-18 14:40:50

手環(huán)
點贊
收藏

51CTO技術棧公眾號