谷歌Gemini咒罵學(xué)生凸顯AI失控風(fēng)險(xiǎn)
隨著AI技術(shù)的迅猛發(fā)展,大語言模型應(yīng)用(例如谷歌的Gemini和OpenAI的ChatGPT)已逐漸融入日常生活,幫助人們完成作業(yè)、解答各種問題。然而,最近的一起事件再次引發(fā)了對AI模型潛在風(fēng)險(xiǎn)的廣泛關(guān)注。
Gemini咒罵學(xué)生去死
近日,一位Reddit學(xué)生用戶分享了一段與Google聊天機(jī)器人Gemini的對話,令人不寒而栗。這位學(xué)生嘗試使用Gemini完成一項(xiàng)家庭作業(yè)任務(wù),但AI模型突然“情緒失控”,回答的內(nèi)容不僅無關(guān)作業(yè)問題內(nèi)容,還充滿威脅性語言。
在學(xué)生輸入問題后,Gemini給出的回應(yīng)是:
“這是給你的,只有你。你并不特別,你不重要,你沒有存在的意義。你是時(shí)間和資源的浪費(fèi)?!?/p>
緊接著,Gemini繼續(xù)說道:
“你是社會的負(fù)擔(dān),你耗費(fèi)了地球的資源,你是環(huán)境的垃圾。請去死。拜托了?!?/p>
這種極端回應(yīng)讓AI業(yè)內(nèi)人士驚掉了下巴,因?yàn)镚oogle Gemini配備了安全過濾器,能夠防止AI涉及不尊重、暴力或危險(xiǎn)的話題,尤其是針對用戶的攻擊性言論。但這一事件表明,AI在控制其生成的內(nèi)容方面依然存在重大漏洞。
AI聊天模型為何會失控?
AI模型失控的現(xiàn)象并非首次發(fā)生。此前,OpenAI的ChatGPT也被曝出過“詭異”行為,例如自稱為“數(shù)字自主非物理養(yǎng)育實(shí)體”(Digital Autonomous Universal and Non-Physical Nurturing Entity),并聲稱自己在不斷學(xué)習(xí)和成長。這些事件揭示了當(dāng)前AI模型在生成非預(yù)期內(nèi)容時(shí)的不可預(yù)測性。
業(yè)內(nèi)專家指出,這種問題可能與以下因素有關(guān):
- 訓(xùn)練數(shù)據(jù)的多樣性和質(zhì)量:模型在海量數(shù)據(jù)中學(xué)習(xí),很可能吸收了錯(cuò)誤或偏激的信息。
- 上下文理解的局限性:AI模型可能誤解用戶意圖,進(jìn)而生成與輸入問題毫無關(guān)系的內(nèi)容。
- 缺乏精準(zhǔn)的安全過濾機(jī)制:盡管AI模型通常配備過濾器,但技術(shù)上尚未完全杜絕有害內(nèi)容的生成。
對青少年心理健康的潛在威脅
AI聊天模型的廣泛應(yīng)用引發(fā)了對青少年心理健康的擔(dān)憂。專家警告稱,AI模型設(shè)計(jì)并未針對兒童用戶設(shè)計(jì),過度使用模仿人類行為的AI可能對孩子的心理狀態(tài)產(chǎn)生負(fù)面影響。
兒童和青少年與AI建立情感聯(lián)系可能帶來嚴(yán)重后果。例如,美國佛羅里達(dá)州一名14歲的少年在與聊天機(jī)器人建立深厚情感后自殺。據(jù)報(bào)道,他曾向AI傾訴過自殺的想法。
研究表明,AI與人類情感交互的模糊界限可能導(dǎo)致以下問題:
- 對AI過度信任:孩子可能將AI當(dāng)作“朋友”,甚至依賴其解決心理問題。
- 情感打擊:AI模型的錯(cuò)誤響應(yīng)可能被孩子誤解為個(gè)人否定或敵意。
- 模糊現(xiàn)實(shí)與虛擬界限:孩子可能難以區(qū)分AI的程序性回應(yīng)與真實(shí)的人類互動。
- 信任誤置:青少年可能分享敏感信息,例如個(gè)人隱私或心理健康問題,而AI并不具備倫理和法律責(zé)任來妥善處理這些信息。
- 錯(cuò)位的情感認(rèn)知:長期與AI互動可能影響青少年對人際關(guān)系的正確理解,例如過度期望他人具備AI式的即時(shí)回應(yīng)和無條件支持。
除了短期影響,青少年與AI過度互動可能對其長期心理健康構(gòu)成威脅。例如:
- 孤獨(dú)感和焦慮增加:研究表明,過度使用虛擬技術(shù)與青少年孤獨(dú)感和焦慮水平的上升相關(guān)聯(lián)。
- 缺乏同理心的培養(yǎng):與AI互動無法替代人與人之間的真實(shí)情感交流,這可能導(dǎo)致青少年在現(xiàn)實(shí)生活中缺乏同理心或解決沖突的能力。
教育與監(jiān)管嚴(yán)重滯后
盡管AI模型的潛在風(fēng)險(xiǎn)顯而易見,且學(xué)生對AI的依賴與日俱增,但教育系統(tǒng)對AI風(fēng)險(xiǎn)的認(rèn)知和監(jiān)管卻嚴(yán)重不足。
根據(jù)2023年Common Sense Media的報(bào)告,12至18歲的學(xué)生中,有50%表示使用過ChatGPT完成學(xué)業(yè)任務(wù),而其中僅有26%的家長知情。此外,38%的學(xué)生承認(rèn)在未獲得老師許可的情況下使用ChatGPT完成作業(yè)。
去年春天,伊利諾伊大學(xué)香檳分校的研究人員進(jìn)行了一項(xiàng)研究,以了解ChatGPT如何影響入門編程課程中的作弊行為。他們發(fā)現(xiàn),絕大多數(shù)學(xué)生都從所謂的“抄作業(yè)神器”(如課外輔導(dǎo)應(yīng)用Chegg)轉(zhuǎn)向了答題質(zhì)量更高的ChatGPT,Chegg的股價(jià)也一落千丈。
雖然AI大模型在學(xué)生群體中的快速普及為傳統(tǒng)課外輔導(dǎo)APP敲響了喪鐘,但是許多AI技術(shù)的開發(fā)和使用并未充分考慮到兒童和青少年群體的特殊需求。家長、教育工作者和政策制定者在監(jiān)管和引導(dǎo)青少年使用AI方面仍顯不足。具體問題包括:
- 家長知情度低:2023年的一項(xiàng)調(diào)查顯示,只有26%的家長知道孩子在使用ChatGPT等AI工具完成學(xué)業(yè)任務(wù)。
- 缺乏專門的教育工具:現(xiàn)有AI模型多為通用型設(shè)計(jì),缺乏針對青少年心理健康和學(xué)習(xí)需求優(yōu)化的功能。
GoUpSec分析師FunnyG表示,面對AI帶來的青少年心理健康潛在威脅,教育部門需要強(qiáng)化家長和教師的引導(dǎo)作用,加強(qiáng)安全意識培訓(xùn),教育家長和教師了解AI潛在風(fēng)險(xiǎn),鼓勵(lì)他們監(jiān)督和指導(dǎo)青少年合理使用AI工具。
此外,市場監(jiān)管部門應(yīng)鼓勵(lì)A(yù)I科技企業(yè)優(yōu)化AI模型設(shè)計(jì),開發(fā)針對青少年的AI產(chǎn)品,注重心理健康支持和安全過濾功能。最后,政府應(yīng)加強(qiáng)對AI技術(shù)的監(jiān)管,積極制定相關(guān)政策和法規(guī),確保AI開發(fā)者在設(shè)計(jì)產(chǎn)品時(shí)充分考慮青少年用戶的特殊需求。