號稱可以成為 ChatGPT 平替的開源模型 “Dolly”
Databricks 這家軟件公司,在各個領(lǐng)域都有所建樹,尤其是在數(shù)據(jù)倉庫和基于人工智能的解決方案方面。
最近,隨著 ChatGPT 橫空出世,Meta、谷歌甚至 Mozilla 都開始效仿 ChatGPT。
而現(xiàn)在,Databricks 開源了其 大型語言模型large language model(LLM)“Dolly”,也正在以自己的方式進(jìn)行嘗試。
我們一起來看看它。
發(fā)生了什么? 在最近的公告中,Databricks 介紹了他們號稱 “廉價構(gòu)建” 的 LLM,使用 EleutherAI 的已經(jīng)開源的參數(shù) 模型 提供功能。
他們在該模型基礎(chǔ)上稍作調(diào)整,賦予了 Dolly 指令諸如頭腦風(fēng)暴和文本生成的能力。
當(dāng)你拿它與 GPT-3 中的 1750 億個參數(shù) 比較時,Dolly 的 60 億個參數(shù) 就可能顯得微不足道。
但是,當(dāng) Databricks 的人看到即使數(shù)據(jù)量與 GPT-3 相差這么多,Dolly 也能 展示很多與 ChatGPT 相同的能力 時,他們感到非常震驚。
下面是他們展示的其中一個例子:
a screenshot of how dolly performs in an open question and answer scenario
原始模型使用了 ??Alpaca?? 的數(shù)據(jù),該模型由斯坦福大學(xué)以 Meta 的 ??LLaMA?? LLM 為基礎(chǔ)建立。
但是,正如你所看到的,原始模型產(chǎn)生了一個非常雜亂無章的結(jié)果,而 Dolly,通過不同的模型和調(diào)整,能夠產(chǎn)生一個更為可用的答案。
?? 有趣的事實:“多莉Dolly” 名字取自世界上第一只克隆羊。
為什么是現(xiàn)在? 根據(jù) Databricks 的說法,他們認(rèn)為 **許多公司更愿意建立自己的模型,**而不是將數(shù)據(jù)發(fā)送給某個緊緊掌握模型只對外提供 API 的集中式供應(yīng)商。
許多公司可能不愿意將他們最敏感的數(shù)據(jù)交給第三方,然后在模型質(zhì)量、成本和所需行為方面進(jìn)行各種權(quán)衡。
你想看看嗎?
當(dāng)然,但有一個問題。
你必須 使用他們的平臺來使用 Dolly,他們已經(jīng)開源了一個 ??Databricks 筆記本??,可以幫助你在 Databricks 上構(gòu)建它。
此外,如果你想獲得訓(xùn)練好的權(quán)重,你必須聯(lián)系他們。不過我不確定他們是否會免費提供使用權(quán)。
總而言之,這種開源其模型的舉動應(yīng)該對其他公司有好處,可以保護(hù)他們的數(shù)據(jù)、節(jié)省運營成本,其他公司也能使用它創(chuàng)建自己的模型。
你可以查看其 ??公告博客??,以了解更多技術(shù)細(xì)節(jié)和其他計劃。