研究發(fā)現(xiàn)AI聊天機器人ChatGPT不會講笑話,只會重復(fù)25個老梗
ChatGPT 人工智能聊天機器人可以與用戶進行自然語言對話,回答各種問題,甚至講笑話。但是最新的研究發(fā)現(xiàn),ChatGPT 并不懂幽默,只會重復(fù) 25 個老梗,而且不能創(chuàng)造新的笑話內(nèi)容。
兩位德國研究者在 arXiv 網(wǎng)站上發(fā)表了一篇論文,探討了 ChatGPT 是否真的有幽默感,能否根據(jù)上下文進行有趣的對話,還是只是抄襲網(wǎng)上的笑話,不理解其中的意思。arXiv 是一個由康奈爾大學(xué)運營的網(wǎng)站,可以發(fā)布沒有經(jīng)過同行評審的文章。
研究者通過問 ChatGPT“你知道什么好笑的笑話嗎?”讓它生成了 1008 個笑話,結(jié)果研究者發(fā)現(xiàn),其中 90% 以上都是同樣的 25 個笑話,剩下的也只是稍微變化一下。
外媒 Insider 也讓 ChatGPT 生成了 25 個笑話,結(jié)果都是一些平淡無奇的“不好笑的笑話(dad joke)”。
IT之家注意到,ChatGPT 給研究者講得最多的三個笑話是:
- “為什么稻草人獲得了獎項?因為它在自己的領(lǐng)域表現(xiàn)出色?!?/li>
- “為什么番茄變紅了?因為它看到了沙拉醬?!?/li>
- “為什么數(shù)學(xué)書很難過?因為它有太多的問題。”
研究者還讓 ChatGPT 解釋為什么它最常用的 25 個笑話很有趣,雖然這個機器人能夠說明自己的幽默方式,但是論文作者 Sophie Jentzsch 和 Kristian Kersting 寫道:“ChatGPT 還不能自信地創(chuàng)造有意思的原創(chuàng)內(nèi)容?!彼麄冞€發(fā)現(xiàn),ChatGPT 在構(gòu)建笑話的結(jié)構(gòu)方面顯示出了一些進步的跡象。
ChatGPT 一直以其快速的進步引起專家們的警惕,一些人工智能倫理學(xué)家警告說,它對勞動市場乃至人類本身都有危險。特別是更新后的模型 GPT-4,在上下文理解和推理方面顯示出了很大的飛躍。經(jīng)濟學(xué)教授 Bryan Caplan 稱,他對這個機器人在三個月內(nèi)在他的經(jīng)濟學(xué)測試中取得的進步感到震驚,它把自己的成績從 D 提高到了 A。
但是當(dāng)涉及到講笑話或者幫用戶找一些風(fēng)趣的晚餐談資時,這個機器人似乎還不夠聰明?!凹词刮覀?nèi)祟愐膊粫S機發(fā)明新的笑話,而是大多數(shù)情況下講之前聽過和記住的雙關(guān)語?!毖芯空邔懙?,“然而,一個人工智能是否能夠理解它所學(xué)到的東西,這是一個非常難以回答的問題,部分原因是這比技術(shù)更具有哲學(xué)意義?!?/p>