使用 DeepSeek 必備的十個技巧,建議收藏! 原創(chuàng)
這個春節(jié),DeepSeek 實在太火了,無須贅述。
今天,我們直接講干貨。用10個問題帶大家了解:DeepSeek 怎么用,如何與DeepSeek 高質量對話,以及一些隱藏技巧。
1、巧用 DeepSeek 的三種模式
DeepSeek 提供了三種聊天模式--基礎模型、深度思考(R1)和聯(lián)網(wǎng)搜索,你可以根據(jù)不同的情境和需求,自由選擇合適的模式。
基礎模型已在去年12月升級至 DeepSeek-V3版本,其性能可與全球領先的開源和閉源模型相媲美,包括 4o、Claude-3.5-Sonnet、Qwen2.5、Llama-3.1等。
如果不選擇任何特定功能,系統(tǒng)將默認使用 V3 基礎模型。在大多數(shù)情況下,基礎模型就能滿足您的需求。
深度思考(R1)模式,是今年1月推出的 DeepSeek-R1 正式版,其表現(xiàn)完全不亞于 OpenA I的 o1(該模型僅供 Pro 用戶使用,費用為 200美元/月)。由于 DeepSeek-R1 免費、開源且 API 價格極低,使得 DeepSeek 在春節(jié)期間成為國內外熱議的“國運”級模型。
R1 模式是一個擅長深入推理的智能模型,特別適合處理數(shù)學邏輯、編程以及需要深度推理的復雜問題。而對于一些創(chuàng)作需求,比如寫詩或撰寫文章,通常不需要使用這個模型。
聯(lián)網(wǎng)搜索模式允許 DeepSeek 根據(jù)網(wǎng)絡搜索結果來回答問題,這類似于 RAG(檢索增強生成)。您可以將其視為 DeepSeek 的 AI 搜索功能。
2、R1 對標 o1,V3 對標 4o
若不啟用深度思考模式,系統(tǒng)將默認使用 V3 模型,這是 DeepSeek 的核心基礎模型。它基于 MoE 架構,擁有 671B 參數(shù),與 GPT-4o、Claude-3.5-Sonnet 等模型相似。該模型在快速回答百科知識方面表現(xiàn)出色(不過,近期可能會有一些延遲,因為用戶數(shù)量激增,尤其是在國外用戶活躍的時間段)。
而一旦開啟深度思考模式,系統(tǒng)將切換到 R1 模型,這是一種類似于 o1、o3 的推理型模型,擁有 660B 參數(shù)。R1 模型經過后訓練和 RL 強化學習,擅長處理邏輯推理和復雜問題解答,但響應速度相對較慢。
3、知識更新到2024年7月
DeepSeek 的預訓練數(shù)據(jù)(可以將其視為模型已經掌握的知識)已更新至2024年7月。
因此,對于2024年7月之前的問題,通常不需要啟用聯(lián)網(wǎng)功能。然而,對于7月之后的事件(比如:英偉達與 DeepSeek 的相關動態(tài)、春晚秧 Bot 的話題),由于 DeepSeek 尚未學習這些信息,建議使用時開啟聯(lián)網(wǎng)功能,以獲得更佳的解答效果。
4、提示詞核心:準確表達
無論是 DeepSeek 的 V3 模型還是 R1 模型,它們對提示詞(Prompt)的依賴性都不強,關鍵在于【清晰表達】。
通用的提示詞模板可以是:【你是誰】+【你的目標】。
在適當?shù)那闆r下,可以添加一些額外的背景信息,例如:【你是誰】+【背景信息】+【你的目標】。
或者也可以這樣表達:【我要】+【做什么】+【目的】+【希望達到的效果】+【可能擔心的問題】……
無論采用哪種模板,關鍵在于【清晰表達】。只要能夠做到這一點,通常就足夠了。以前學習的那些結構化的提示詞,現(xiàn)在可以不再使用了。
比如:作為玄姐談AGI(一家專注于 AI 大模型應用落地的視頻號)的 CEO,請你以 CEO 的身份撰寫一封感謝用戶的公開信。信件需要文筆細膩、具有感染力,大約300字。
輸出:
5、與 DeepSeek 溝通,盡量說人話
與 DeepSeek 交流時,請盡量使用日常語言。
越是直接、通俗的表達,越能發(fā)揮其潛力。
例如:以諷刺崇洋媚外的公知口吻來調侃 Deepseek。
圖片
在模仿某種風格時,同樣如此。不需要指導 DeepSeek 如何寫作,它自己懂得如何下筆。
你只需明確告訴它,要模仿的對象是誰,以及要寫的內容是什么,這就足夠了。
6、我是一名小學生
以前,我們總是抱怨 AI 大模型生成的內容充滿了人工智能的味道。
這主要是因為模型輸出過于注重格式化,充斥著“首先、其次、然后、總而言之”這類連接詞,使得內容顯得過于刻板。
人類是感性的生物,對于這種過于理性的表達方式往往感到厭煩,尤其是在文字創(chuàng)作領域,那些如同八股文、學術論文般的文字常常讓人讀來感到乏味。
針對這種情況,建議你添加一句這樣的提示詞:
“我是一名小學生 / 請用小學生能理解的話來說明。”
在 DeepSeek 中使用這樣的提示詞,效果非常顯著。
例如:請用小學生能理解的話解釋,推理大模型的思維鏈是如何運作的?
看,是不是一下就明白了 CoT 思維鏈的原理?
當然,如果你想要更高級的解釋,也可以說自己是高中生、大學生甚至研究生。
7、活用聯(lián)網(wǎng)搜索
以 o1 為代表的推理模型,大多數(shù)都不具備聯(lián)網(wǎng)功能。
這就導致在獲取知識庫更新截止日期之后的信息時,會感到非常困擾。例如,昨晚春晚上的扭秧歌機器人表演,以及2025年春節(jié) DeepSeek 火爆的輿論反應。
DeepSeek 則不同,它是少數(shù)既支持推理又能夠聯(lián)網(wǎng)的模型。
8、活用上傳附件
DeepSeek 的推理模型不僅具備聯(lián)網(wǎng)功能,還允許上傳附件(最多50個,每個不超過100MB)。
結合推理和上傳附件的功能,可以執(zhí)行更多定制化、隱私化的任務,例如使用個人知識庫或內部文件。這使得 DeepSeek 能夠基于專屬知識庫進行推理和思考。
例如:請閱讀這份資料,并闡述您認為o系列模型將如何引領AI的發(fā)展?請?zhí)峁┖啙嵍羁痰囊娊狻?/p>
9、活用 V3+R1
之前,我們提到 V3 是基礎模型,主要致力于明確我們的需求。而 R1 是推理模型,專注于指導我們如何進行思考和推理。
那么,為何不將這兩個模型的優(yōu)勢結合起來呢?比如,先與 V3 進行多輪對話,獲取推理所需的細節(jié)和提示詞,接著將這些信息傳遞給 R1,由 R1 進行進一步的推理和輸出。這樣的結合使用,無疑會進一步提升 DeepSeek 的整體能力。
示例:請為我撰寫一段對 OpenAI 的犀利批評。
接著,將這段生成的文本和提示詞一起提交給 R1 推理模型進行處理:
10、R1 的3個開放
DeepSeek 在 R1 模型上實現(xiàn)了三個層面的開放性:
1)思維鏈條的完全開放。無論是通過應用端還是 API,用戶都能觀察到完整且透明的思考過程。通過在 API 中設置 model='deepseek-reasoner',即可輕松調用。
API 調用指南請參考:
??https://api-docs.deepseek.com/zh-cn/guides/reasoning_model??
2)訓練技術的全面公開。DeepSeek 在后期訓練中廣泛采用了 RL 強化學習技術,僅用少量標注數(shù)據(jù)就顯著提升了模型的推理能力。所有訓練技術均已公開,全球多家研究機構已成功復現(xiàn) R1 模型。
例如,香港科技大學完成了 R1 模型的復現(xiàn)并將其開源。
以及 TinyZero 項目,僅用不到30美元的成本,就見證了 AI 思考的“頓悟”時刻(即 DeepSeek 論文中提到的“aha moment”)。
相關論文鏈接:
??https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf??
3)開源2個大型模型和6個小型模型。R1 模型的預覽版和正式版參數(shù)高達660B,這對一般公司來說難以承擔。為了進一步普及技術,DeepSeek 推出了6個小型模型,并將它們開源給社區(qū)。其中最小的模型參數(shù)為 1.5B,可以在10G 顯存的環(huán)境下運行。
Github 上的鏈接:
??https://github.com/deepseek-ai/??
本文轉載自公眾號玄姐聊AGI 作者:玄姐
