微軟首次推出27億參數(shù)的Phi-2模型,性能超過許多大型語言模型
微軟發(fā)布了一款名為Phi-2的人工智能模型,該模型表現(xiàn)出了不凡的能力,其性能可媲美甚至超越規(guī)模是其25倍的、更大、更成熟的模型。
微軟在近日的一篇博文中宣布,Phi-2是一個(gè)擁有27億參數(shù)的語言模型,與其他基礎(chǔ)模型相比,它在復(fù)雜的基準(zhǔn)測(cè)試中表現(xiàn)出了 "先進(jìn)的性能",這些測(cè)試評(píng)估了推理、語言理解、數(shù)學(xué)、編碼和常識(shí)能力。Phi-2現(xiàn)在通過微軟Azure人工智能工作室的模型目錄發(fā)布,這意味著研究人員和開發(fā)人員現(xiàn)在就可以將其集成到第三方應(yīng)用程序中。
Phi-2由微軟首席執(zhí)行官Satya Nadella(如圖)于11月在Ignite大會(huì)上首次發(fā)布,其強(qiáng)大的功能得益于該公司所稱的“教科書質(zhì)量”數(shù)據(jù)(專門針對(duì)知識(shí)),以及學(xué)習(xí)其他模型傳遞的洞見的技術(shù)。
Phi-2 的有趣之處在于,傳統(tǒng)上,大型語言模型的能力總是與其總體規(guī)模密切相關(guān),而總體規(guī)模是以參數(shù)來衡量的。參數(shù)越大的模型通常能力越強(qiáng),但 Phi-2 的出現(xiàn)改變了這種狀況。
微軟表示,Phi-2在某些基準(zhǔn)測(cè)試中顯示出與更大型的基礎(chǔ)模型相匹敵甚至超越它們的能力,包括Mistral AI 70億參數(shù)的Mistral、Meta Platforms公司130億參數(shù)的Llama 2,甚至在某些基準(zhǔn)測(cè)試中超過了700億參數(shù)的Llama-2。
最令人驚訝的說法可能是,它的性能甚至超過了谷歌的 Gemini Nano,后者是上周發(fā)布的 Gemini系列LLM中效率最高的一款。Gemini Nano 專為設(shè)備上的任務(wù)而設(shè)計(jì),可以在智能手機(jī)上運(yùn)行,實(shí)現(xiàn)文本摘要、高級(jí)校對(duì)、語法修正以及上下文智能回復(fù)等功能。
微軟的研究人員說,Phi-2涉及的測(cè)試非常廣泛,包括語言理解、推理、數(shù)學(xué)、編碼挑戰(zhàn)等。
該公司表示,Phi-2之所以能取得如此優(yōu)異的成績(jī),是因?yàn)樗怯镁奶暨x的教科書級(jí)數(shù)據(jù)訓(xùn)練而成,這些數(shù)據(jù)旨在教授推理、知識(shí)和常識(shí),這意味著它可以從更少的信息中學(xué)到更多的東西。微軟的研究人員還使用了一些技術(shù),允許從更小的模型中獲取知識(shí)。
研究人員表示,值得注意的是,Phi-2可以不使用基于人類反饋的強(qiáng)化學(xué)習(xí)或者教學(xué)性微調(diào)等技術(shù)就實(shí)現(xiàn)強(qiáng)勁的性能,這些技術(shù)通常用于改善人工智能模型行為。盡管沒有使用這些技術(shù),但是與其他使用了這些技術(shù)的開源模型相比,Phi-2在減少偏見和有毒內(nèi)容方面依然表現(xiàn)卓越。該公司認(rèn)為這是量身定制的數(shù)據(jù)整理的功勞。
Phi-2是微軟研究人員所稱的“小型語言模型(SLM)”系列的最新版本。該系列第一個(gè)模型是 Phi-1,于今年早些時(shí)候首次發(fā)布,擁有13億參數(shù),針對(duì)基本的Python編碼任務(wù)進(jìn)行了微調(diào)。今年9月,該公司又推出了擁有13億參數(shù)的Phi-1.5,使用新的數(shù)據(jù)源進(jìn)行訓(xùn)練,其中包括用自然語言編程生成的各種合成文本。
微軟表示,Phi-2的高效性使其成為研究人員探索增強(qiáng)人工智能安全性、可解釋性和語言模型道德發(fā)展等領(lǐng)域的理想平臺(tái)。