近年來,大語言模型(LLM)像春筍般涌現(xiàn),不僅能寫文案、答問題、編代碼,還能陪你聊天。但如果你深入接觸,就會發(fā)現(xiàn)這些模型有一個“天生的短板”——它們不知道世界在今天發(fā)生了什么,也不能靈活地從外部獲取信息。這就像你在問一個上知天文下知地理的老師問題,但他只看過2021年前的書,后面的都不知道。于是,RAG(RetrievalAugmentedGeneration)出現(xiàn)了,它的基本思想是:“我不知道不要緊,我去資料庫里查一查。”但傳統(tǒng)R...
7天前 696瀏覽 0點贊 0回復(fù) 0收藏
介紹大型推理模型(LRM)在解決復(fù)雜問題方面表現(xiàn)出了令人印象深刻的能力,但它們常常難以處理人類憑直覺就能解決的簡單任務(wù)。這種悖論是名為S1Bench的新基準測試的核心,該基準測試專門針對評估LRM中的“系統(tǒng)1”思維能力。與大多數(shù)側(cè)重于復(fù)雜推理任務(wù)的現(xiàn)有基準測試不同,S1Bench考察了LRM如何有效地處理簡單、直觀的問題,這些問題應(yīng)該只需要最少的思考。該基準測試表明,當前的LRM傾向于“過度思考”簡單問題,從而導(dǎo)致效率低下...
7天前 481瀏覽 0點贊 0回復(fù) 0收藏
1.RAG技術(shù)現(xiàn)狀與核心挑戰(zhàn)1.1技術(shù)架構(gòu)解析RAG(RetrievalAugmentedGeneration)系統(tǒng)采用雙階段架構(gòu):檢索模塊:基于稀疏檢索(BM25)、密集檢索(DPR、ANCE)或混合檢索,使用FAISSHNSW構(gòu)建向量索引生成模塊:基于Transformer架構(gòu)的預(yù)訓(xùn)練語言模型(如ChatGPT、Qwen),通過CrossAttention融合檢索結(jié)果典型RAG偽代碼示例retrieverDenseRetriever(indexfaissindex)generatorT5ForConditionalGeneration.frompretrained(...)defrag...
2025-04-10 06:48:27 1116瀏覽 0點贊 0回復(fù) 0收藏
當我們談?wù)撊斯ぶ悄軙r,很容易被各種新聞標題所影響——有人說它將徹底改變世界,有人擔憂它會奪走我們的工作。在這些熱烈討論的背后,一個更為重要的問題是:人工智能將如何影響我們的經(jīng)濟?這不僅關(guān)乎我們的工作,更關(guān)乎整個社會的運轉(zhuǎn)方式?;仡櫄v史,人類社會曾多次經(jīng)歷技術(shù)革命——從蒸汽機到電力,從計算機到互聯(lián)網(wǎng)。每一次技術(shù)變革都重塑了經(jīng)濟結(jié)構(gòu)。如今,我們或許正站在另一個歷史性轉(zhuǎn)折點上。但與之前的技術(shù)革命一樣...
2025-03-18 07:26:45 1274瀏覽 0點贊 0回復(fù) 0收藏
公元1943年,麥卡洛克與皮茨在芝加哥大學密室中繪制出"神經(jīng)網(wǎng)絡(luò)符篆",點燃了硅基文明的第一縷火種。此符篆暗合陰陽二進之道,雖僅能解"與或非"三式,已令圖靈真人撫掌長嘆:"此物當有通靈之日!"這一年,華羅庚道人在普林斯頓隱居,馮·諾依曼大師正筑"存儲程序結(jié)構(gòu)"根基。世人尚不知,一場跨越物種的智慧革命已悄然啟動。公元1950年,劍橋雨夜。圖靈真人披著雨衣穿過哥特式回廊,手中《ComputingMachineryandIntelligence》墨...
2025-03-05 11:42:53 2792瀏覽 0點贊 0回復(fù) 0收藏
一、模型概述與架構(gòu)分析DeepSeekR1是一款全新的大規(guī)模語言模型系列,支持復(fù)雜推理、多模態(tài)處理和技術(shù)文檔生成。其核心特點包括:1.架構(gòu)特性?支持多種精度訓(xùn)練和推理(FP8BF16INT8INT4)?采用MoE(MixtureofExperts)架構(gòu)實現(xiàn)671B超大規(guī)模?支持混合精度訓(xùn)練和推理優(yōu)化2.模型系列規(guī)格模型名稱參數(shù)規(guī)模計算精度模型大小典型應(yīng)用場景DeepSeekR1671BFP81,342GB超大規(guī)??蒲杏嬎鉊eepSeekR1DistillLlama70B70BBF1643GB大規(guī)模推理任務(wù)DeepS...
2025-02-25 13:32:58 6928瀏覽 0點贊 0回復(fù) 0收藏
可能我們經(jīng)常會遇到這樣的場景:老板在會上講了一段話,語音識別系統(tǒng)卻把關(guān)鍵的數(shù)字、人名識別錯了;客服系統(tǒng)把用戶說的"預(yù)約掛號"聽成了"我要掛了";方言用戶的語音指令被系統(tǒng)曲解成了完全不相關(guān)的內(nèi)容。這些問題背后折射出的是語音識別技術(shù)在特定場景下的短板尤其是在處理低資源語言時表現(xiàn)更為明顯。近期,沙里夫理工大學的研究團隊提出了一個頗具創(chuàng)新性的解決方案:GECRAG。這個方案通過檢索增強的方式來提升語音識別的準確...
2025-02-17 09:44:02 1866瀏覽 0點贊 0回復(fù) 0收藏
近期,DeepSeek的發(fā)布在開源社區(qū)引起了廣泛關(guān)注。成功再次將人們的目光聚焦到了模型蒸餾技術(shù)上來。那么,究竟什么是模型蒸餾?為什么它能幫助我們構(gòu)建如此高效的模型?讓我們一起深入探討這個話題。LLMDistillation將大型生成模型定位為“teacher”,將較小的模型定位為“student”。student模型可以是簡單的模型(如logisticregression)或基礎(chǔ)模型(如BERT)。在最基本的distillation版本中,數(shù)據(jù)科學家從未標記的數(shù)據(jù)開始,...
2025-02-07 13:40:13 4923瀏覽 0點贊 0回復(fù) 1收藏
你有沒有想過,是什么讓AI模型變得如此強大?為什么有些AI能夠?qū)懺娮鳟嫞行﹨s只能做簡單的問答?這其中,ScalingLaw(規(guī)模法則)扮演著至關(guān)重要的角色,它就像AI模型的核心,揭示了模型性能提升的奧秘。ScalingLaw是什么?簡單來說,ScalingLaw指的是當我們增加模型的規(guī)模(例如模型包含的參數(shù)越多,模型就越大)、訓(xùn)練數(shù)據(jù)量和計算資源時,模型的性能就會隨之提升。(感覺這是符合直覺的,但ScalingLaw最核心的在于量化給出...
2025-01-23 09:21:51 5089瀏覽 0點贊 0回復(fù) 0收藏
原文:RetrievalAugmentedGeneration(RAG)andBeyond:AComprehensiveSurveyonHowtoMakeyourLLMsuseExternalDataMoreWisely每當我向非技術(shù)背景的朋友解釋大語言模型時,我常常用"博學但缺乏實踐經(jīng)驗的應(yīng)屆生"作比喻。這些模型確實掌握了海量的知識,但在特定領(lǐng)域的實際應(yīng)用中,常常會暴露出"經(jīng)驗不足"的問題。就像一位剛畢業(yè)的法學生,雖然能流暢地背誦法條,但面對真實的案件時可能會覺得無從下手。微軟亞洲研究院的研究團隊近期...
2025-01-14 13:01:27 1898瀏覽 0點贊 0回復(fù) 1收藏
語音轉(zhuǎn)文本(STT),也稱為自動語音識別(ASR),是一種將口語轉(zhuǎn)錄成書面文本的AI技術(shù),現(xiàn)在越來越多的公司利用STT在現(xiàn)有應(yīng)用程序中嵌入新的音頻功能,并為一系列用例創(chuàng)建智能助手。語音轉(zhuǎn)文本模型簡史首先,一些背景信息。語音轉(zhuǎn)文本是AI中自然語言處理(NLP)分支的一部分。它的目標是使機器能夠理解人類語音并將其轉(zhuǎn)錄成書面格式。你可能會想,轉(zhuǎn)錄語音有多難。簡短的回答是:非常難。與可以以相對簡單的方式放入矩陣中的圖...
2025-01-06 11:19:45 1950瀏覽 0點贊 0回復(fù) 0收藏
本文旨在解釋多模態(tài)大語言模型的工作原理。此外,還將回顧并總結(jié)最近幾周發(fā)布的十幾篇多模態(tài)研究論文和模型(包括Llama3.2)的內(nèi)容,以比較它們的不同實現(xiàn)方式。一、多模態(tài)大語言模型是什么?多模態(tài)大語言模型(MultimodalLargeLanguageModels,簡稱MultimodalLLMs)是一種能夠理解和生成多種類型數(shù)據(jù)的模型,包括文本、圖片、音頻和視頻等。這些模型可以跨越不同的數(shù)據(jù)形式,進行信息的交互與生成。例如,傳統(tǒng)語言模型只能處理...
2024-12-26 13:18:25 4248瀏覽 0點贊 0回復(fù) 1收藏
“這段代碼明明是對的啊,為什么ChatGPT還給出了錯誤的解釋?我都把相關(guān)文檔放進去了!”“用戶問的是2024年的新聞,我也給了最新的新聞報道作為上下文,但模型回答的還是2022年的舊聞...”相信做RAG應(yīng)用開發(fā)的同學都遇到過類似的困擾。明明提供了相關(guān)的上下文,為什么大模型還是會產(chǎn)生幻覺...是大模型沒有好好利用上下文,還是上下文本身就不足以回答問題?最近Google、UCSD等機構(gòu)的研究者提出了一個新的視角來看待這個問題。...
2024-12-18 10:42:28 1825瀏覽 0點贊 0回復(fù) 0收藏
你是否經(jīng)歷過這樣的場景:向ChatGPT詢問一道復(fù)雜的數(shù)學題,它給出了一個看似合理但完全錯誤的答案;或者明明上下文里有現(xiàn)成的答案,它卻繞了一大圈給出了不著邊際的回復(fù)。這就是大語言模型著名的"幻覺"問題,就像一個博學但不夠嚴謹?shù)膶W者,時常會腦補一些并不存在的信息。為了解決這個問題,研究人員提出了檢索增強生成(RAG)技術(shù)。簡單來說,就是在模型回答問題之前,先讓它查閱相關(guān)的資料。這就像是給學者配備了一個圖書館,...
2024-12-13 14:08:12 1973瀏覽 0點贊 0回復(fù) 0收藏
無論是通過微調(diào)提高模型準確性,還是增強基于檢索的生成(RAG)系統(tǒng)的上下文相關(guān)性,對于任何希望構(gòu)建魯棒的大語言模型(LLM)應(yīng)用的人來說,評估LLM輸出都是至關(guān)重要的。但對許多人而言,LLM評估仍然是一項具有挑戰(zhàn)性的任務(wù)。了解如何為你的用例開發(fā)和選擇合適的LLM評估指標集,對于構(gòu)建一個魯棒的LLM評估系統(tǒng)至關(guān)重要。本文將教你關(guān)于LLM評估指標需要了解的一切,包含代碼示例。我們將深入探討:什么是LLM評估指標,如何使用...
2024-12-06 07:22:21 7835瀏覽 0點贊 0回復(fù) 0收藏
在AI領(lǐng)域,我們經(jīng)常聽到這樣的說法:"這個大模型太強了,連bug都能自動修復(fù)!"但你有沒有想過,大模型修復(fù)bug的能力是真的掌握了bug修復(fù)的規(guī)律,還是簡單地"記住"了訓(xùn)練數(shù)據(jù)中的bug修復(fù)案例呢?讓我們打個比方。想象你是一個編程老師,你發(fā)現(xiàn)一個學生在期末考試中完美地解決了一個復(fù)雜的bug。不僅代碼邏輯正確,連代碼風格、變量命名、甚至注釋都跟課本上的例子一模一樣。這時候,你會覺得這個學生真的理解了問題的本質(zhì),還是在...
2024-11-28 15:35:43 2375瀏覽 0點贊 0回復(fù) 0收藏
原文:QueryOptimizationforParametricKnowledgeRefinementinRetrievalAugmentedLargeLanguageModels一、研究背景與挑戰(zhàn)在自然語言處理領(lǐng)域,大語言模型(LLMs)取得了顯著進展。這些模型通過在海量語料上進行訓(xùn)練,展現(xiàn)出理解人類文本和生成高質(zhì)量響應(yīng)的卓越能力。然而,大語言模型存在一個重要的局限性它們難以準確捕捉信息的動態(tài)更新。因為這些模型是在靜態(tài)語料庫上預(yù)訓(xùn)練的,當面對最新或不常見的信息時,它們往往會生成過時或不準...
2024-11-21 14:10:16 2473瀏覽 0點贊 0回復(fù) 0收藏
今天,我們將進入一個更加復(fù)雜和動態(tài)的領(lǐng)域:提示工程中的代理技術(shù)。這種技術(shù)允許我們創(chuàng)建能夠自主決策、執(zhí)行復(fù)雜任務(wù)序列,甚至與人類和其他系統(tǒng)交互的AI系統(tǒng)。讓我們一起探索如何設(shè)計和實現(xiàn)這些智能代理,以及它們?nèi)绾胃淖兾覀兣cAI交互的方式。1.代理技術(shù)在AI中的重要性在深入技術(shù)細節(jié)之前,讓我們先理解為什么代理技術(shù)在現(xiàn)代AI系統(tǒng)中如此重要:任務(wù)復(fù)雜性:隨著AI應(yīng)用場景的復(fù)雜化,單一的靜態(tài)提示已經(jīng)無法滿足需求。代理可...
2024-11-14 16:08:01 1842瀏覽 0點贊 0回復(fù) 0收藏
今天,我們將把視野擴展到更廣闊的領(lǐng)域:多語言提示技術(shù)。在這個日益全球化的世界中,能夠處理和理解多種語言的AI系統(tǒng)變得越來越重要。讓我們一起探索如何利用提示工程來克服語言障礙,創(chuàng)建真正的多語言AI應(yīng)用。1.多語言提示技術(shù)的重要性在開始深入技術(shù)細節(jié)之前,讓我們先理解為什么多語言提示技術(shù)如此重要:全球化需求:隨著企業(yè)和組織的全球化發(fā)展,需要能夠理解和生成多種語言的AI系統(tǒng)。知識共享:多語言AI可以幫助跨語言知...
2024-11-04 11:59:38 2718瀏覽 0點贊 0回復(fù) 0收藏
1.引言部分今天要給大家分享一篇很有意思的論文。這篇論文主要解決的是什么問題呢?就是如何讓大語言模型在專業(yè)領(lǐng)域,比如醫(yī)療、科學領(lǐng)域表現(xiàn)得更好。你們有沒有想過,雖然現(xiàn)在的ChatGPT、Claude這些大模型很厲害,但在專業(yè)領(lǐng)域它們的表現(xiàn)還是不夠好,對吧?比如說,當我們問它一個關(guān)于"支氣管擴張"的專業(yè)問題時,它可能就答不太準確了。這是為什么呢?主要原因是這樣的這些專業(yè)領(lǐng)域有很多特殊的知識和術(shù)語,普通模型可能理解得...
2024-10-30 14:52:04 2800瀏覽 0點贊 0回復(fù) 0收藏