OpenAI“殺瘋了”,GPT–4o模型保姆級使用教程!一遍就會(huì)!
5月14日凌晨1點(diǎn),OpenAI發(fā)布了名為GPT-4o 最新的大語言模型,再次引領(lǐng)了人工智能領(lǐng)域的又一創(chuàng)新浪潮,讓整個(gè)行業(yè)都為之震動(dòng)。
據(jù)OpenAI首席技術(shù)官穆里-穆拉提(Muri Murati)表示,GPT-4o是在繼承GPT-4智能的基礎(chǔ)上,對文本、視覺和音頻功能進(jìn)行了進(jìn)一步改進(jìn),而且目前所有用戶都能免費(fèi)使用,但付費(fèi)用戶將享有更高的容量限制。
圖片
訪問地址:https://openai.com/index/hello-gpt-4o/
1、如何免費(fèi)訪問
如果你還不知道如何使用它,今天這篇文章來幫助你成功使用GPT4o。
其實(shí)很簡單,你只需要直接登錄官網(wǎng)https://chat.openai.com/打開OpenAI聊天網(wǎng)址,如果沒有提示最新模型的話,你可以在網(wǎng)址后添加?model=gpt-4o,然后按回車進(jìn)行強(qiáng)制切換。
https://chatgpt.com/?model=gpt-4o
此時(shí),你應(yīng)該可以看到下述提示:
圖片
如果此時(shí)模型選項(xiàng)從原本的GPT3.5變?yōu)镃hatGPT,說明你就可以直接使用這個(gè)模型了。
圖片
你還可以在聊天窗口中選擇更改模型進(jìn)行確認(rèn)GPT-4o是否生效。
圖片
值得一提的是,GPT-4o可以接受任何形式的輸入,包括文本、音頻和圖像,甚至是這些不同形式的組合。更為神奇的是,它還能根據(jù)這些輸入,生成相應(yīng)的文本、音頻或圖像作為輸出。這種能力使得GPT-4成為了一個(gè)真正的多模態(tài)人工智能模型。
2、GPT4o與GPT3.5以及GPT4的區(qū)別有哪些?
GPT-4o、GPT-3.5和GPT-4這三者之間的區(qū)別主要體現(xiàn)在功能、性能、模型規(guī)模以及輸入輸出能力等方面。
- GPT-3.5:對GPT-3進(jìn)行的改進(jìn)和優(yōu)化,主要側(cè)重于文本輸入輸出能力。GPT-3.5可以更好地適應(yīng)各種自然語言處理任務(wù),并在語言生成、機(jī)器翻譯、問答系統(tǒng)等方面。
- GPT-4:GPT-4它比GPT-3.5擁有更多的參數(shù),擁有數(shù)千億個(gè)參數(shù),具有更強(qiáng)大的語言理解和生成能力。支持多模態(tài)輸入,能夠處理文本、圖像等多種數(shù)據(jù)類型,在理解復(fù)雜語言結(jié)構(gòu)、上下文以及生成更連貫和準(zhǔn)確的回答方面有顯著提升。
- GPT-4o:這是OpenAI在2024年5月14日推出的新模型,GPT-4o具有跨聽、看、說三大領(lǐng)域的全能性輸入輸出能力,可以接受文本、音頻和圖像的組合輸入,并生成任意組合的文本、音頻和圖像輸出。它展現(xiàn)了一種全能性,可以接受文本、音頻和圖像的組合輸入,并生成任意組合的文本、音頻和圖像輸出。GPT-4o的“o”代表“omni”,意為“全能”。在官方演示視頻中,GPT-4o能夠在短時(shí)間內(nèi)對音頻輸入做出反應(yīng),這與人類在對話中的反應(yīng)時(shí)間相近。此外,GPT-4o還具有高效的圖像和音頻理解能力,以及多語言處理能力,能夠處理50種不同的語言。
最后需要說明的是,目前三個(gè)版本:
- GPT-4.0:一般需要訂閱付費(fèi)(如ChatGPT Plus)
- GPT-3.5:通常為免費(fèi)版本
- GPT-4o:目前在試用免費(fèi)階段
目前,GPT-4o的文本和圖像功能已經(jīng)開始在ChatGPT中逐步推出,用戶可以在ChatGPT平臺(tái)上免費(fèi)體驗(yàn)到GPT-4o的相關(guān)功能,但免費(fèi)版有使用次數(shù)限制,Plus用戶可以享受到5倍的調(diào)用額度。另外,GPT-4o、GPT-3.5和GPT-4在功能、性能、模型規(guī)模以及輸入輸出能力等方面各有特點(diǎn)和優(yōu)勢,用戶可以根據(jù)自身需求選擇適合的模型。