Mistral開源8X22B大模型,OpenAI更新GPT-4 Turbo視覺,都在欺負(fù)谷歌
在谷歌昨晚 Cloud Next 大會(huì)進(jìn)行一系列重大發(fā)布時(shí),你們都來?yè)専岫龋呵坝?OpenAI 更新 GPT-4 Turbo,后有 Mistral 開源 8X22B 的超大模型。
谷歌內(nèi)心:南村群童欺我老無力。
第二大開源模型:Mixtral 8X22B
今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技術(shù)細(xì)節(jié),并推出了 Mixtral 8x7B – Instruct 聊天模型。該模型的性能在人類評(píng)估基準(zhǔn)上明顯超過了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。
短短 3 個(gè)月后,Mistral AI 開源了 Mistral 8X22B 模型,為開源社區(qū)帶來了又一個(gè)性能強(qiáng)勁的大模型。
有人已經(jīng)查看了 Mistral 8X22B 模型的細(xì)節(jié),模型文件大小約為 262 GB。
由此,Mistral 8X22B 僅次于 xAI 此前推出的 Grok-1(參數(shù)量為 3140 億),成為迄今為止第二大開源模型。
還有人驚呼,MoE 圈子又來了個(gè)「大家伙」。MoE 即專家混合模型,此前 Grok-1 也為 MoE 模型。
GPT-4 Turbo 視覺功能新升級(jí)
另一邊,OpenAI 宣布 GPT-4 Turbo with Vision 現(xiàn)在可以通過 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函數(shù)調(diào)用了。
下面為 OpenAI 官網(wǎng)細(xì)節(jié)。
雖然如此,各路網(wǎng)友對(duì) OpenAI 的小修小補(bǔ)「并不感冒」。
本文轉(zhuǎn)自 機(jī)器之心 ,作者:機(jī)器之心
