Meta 正在構建新開源大模型,性能超越 Llama 2、比肩 GPT-4
根據(jù) Siliconangle 的報道,Meta 正在尋求在生成式 AI 領域與 OpenAI 展開競爭,將發(fā)布新的開源大模型,其性能或?qū)⑴c GPT-4 不相上下。
報道稱,這款新模型比 Llama 2 強大數(shù)倍,將提供文本、圖像生成以及分析等功能。目前該模型正處于開發(fā)之中,最終功能尚不確定。
Meta 最終目標是加速開發(fā)下一代生成式人工智能模型,使其能夠生成更多類似人類的表達。
長期以來,Meta 一直在采用開源方法公開其大模型產(chǎn)品,是業(yè)內(nèi)眾所周知的最大貢獻者之一。僅今年它就向人工智能社區(qū)發(fā)布了大量人工智能模型和訓練數(shù)據(jù)集。其中包括針對編程任務優(yōu)化的 Code Llama 大語言模型; 可實現(xiàn)數(shù)百種語言通用按需翻譯的 SeamlessM4T 模型; 用于創(chuàng)作音樂和聲音的生成式人工智能模型 AudioCraft;語音生成人工智能模型 Voicebox。它還推出了 I-JEPA(一種可以像人類一樣學習的計算機視覺模型)和 FACET(一種基準數(shù)據(jù)集,旨在幫助研究人員審核計算機視覺模型的偏差)。
但其模型性能一直在 ChatGPT 等產(chǎn)品之下,Meta 的新人工智能大模型能否趕上 OpenAI 還有待觀察。因為它們的能力取決于訓練的數(shù)據(jù)量。據(jù)了解,Meta 的 Llama 2 接受了 700 億個訓練數(shù)據(jù)參數(shù)的訓練。 OpenAI 尚未公開透露 GPT-4 基于多少個參數(shù),但其他人估計它可能比 Llama 大 20 倍,基于約 1.5 萬億個參數(shù)。