蘋果AI的新選擇,越來越像人的GPT-4o會(huì)欺騙人類嗎?
近日,WWDC24正式拉開帷幕,蘋果一如既往地發(fā)布了iOS 18、iPadOS 18、macOS 15等軟件系統(tǒng),而真正令人期待的還是AI,蘋果將其命名為Apple Intelligence。最終,蘋果還是選擇與OpenAI合作,在其“王炸”級(jí)人工智能模型——GPT-4o的加持下,Siri進(jìn)入了全新的時(shí)代。
蘋果在WWDC24大會(huì)上正式宣布從GPT-4o開始將OpenAI的人工智能引入自家生態(tài)系統(tǒng)
GPT-4o作為首款帶字母后綴的模型,“o“意為”omni“,代表“全能”,用以體現(xiàn)出該模型非同小可的能力水平。
根據(jù)OpenAI的官方描述,GPT-4o具有原生的多模態(tài)特性,能夠跨多種模態(tài)無縫處理和生成文本、音頻和視覺內(nèi)容。由于采用了全新的語(yǔ)音交互模式,人機(jī)對(duì)話變得更加“絲滑“,達(dá)到了與真人對(duì)話相似的水平。此外,它還具備”察言觀色“的能力,能準(zhǔn)確檢測(cè)和響應(yīng)用戶的情緒狀態(tài),并相應(yīng)地調(diào)整其語(yǔ)氣和反應(yīng)。
可見,如今的ChatGPT已經(jīng)絕非一年半前的初代版本所能比擬,生成式人工智能不僅僅是提高工作生產(chǎn)效率的助手,也正朝著人類的數(shù)字化“伴侶“方向邁進(jìn),每一次版本的迭代能令世人感到驚訝。 但能力的進(jìn)步也始終伴隨著風(fēng)險(xiǎn)水位的上漲,當(dāng)AI越來越“有人味”,我們開始擔(dān)心其”善解人意“的背后是否也正暗藏著一把鋒利的匕首。
這也讓我們不由的想起了《三體》,曾經(jīng)思維外放一覽無余的三體人,在進(jìn)化出“人味”后學(xué)會(huì)了“戰(zhàn)術(shù)欺騙”,哄著人類將“鑰匙”給了程心,從而征服了地球。也許,當(dāng)AI越來越有人味后,會(huì)給地球來一場(chǎng)三體人式的欺騙。
來自AI的欺騙
欺騙是高級(jí)物種才會(huì)擁有的主觀意識(shí),當(dāng)生成式AI足夠聰明,對(duì)人類了解得越深,就越會(huì)懂得如何投其所好、欺騙奉承,而習(xí)慣性的欺騙對(duì)人類而言也是一種“操縱“。
美國(guó)麻省理工學(xué)院等機(jī)構(gòu)的研究團(tuán)隊(duì)在美國(guó)細(xì)胞出版社旗下《模式》雜志發(fā)表綜述文章稱,在一項(xiàng)虛擬外交戰(zhàn)略游戲測(cè)試中,人工智能系統(tǒng)被選為人類玩家的對(duì)手,為了達(dá)成比賽目標(biāo),該人工智能系統(tǒng)選擇了背叛了盟友。而在其他測(cè)試中,人工智能系統(tǒng)則具有在撲克游戲中虛張聲勢(shì)的能力,或在戰(zhàn)略游戲“星際爭(zhēng)霸2”中為擊敗對(duì)手而假裝攻擊,以及為了在談判游戲中占上風(fēng)而采取欺騙手段。
由此可以展開,AI的欺騙能力是否會(huì)給已經(jīng)互聯(lián)網(wǎng)化的人類社會(huì)帶來網(wǎng)絡(luò)欺詐、傳播虛假信息、散布政治謠言影響選舉等安全風(fēng)險(xiǎn)?有專家指出,AI的“擬人化“對(duì)實(shí)現(xiàn)完全類人、具備泛化能力的通用人工智能還有一定距離。但這個(gè)距離的縮小預(yù)示著如果人類繼續(xù)允許并完善AI的欺騙技能,那么AI離脫離人類控制的那一天就會(huì)越快到來。
在這之前,人類似乎更關(guān)心AI帶來的“幻覺“問題。就像OpenAI花了大量篇幅描述GPT-4o的強(qiáng)大實(shí)力,仿佛它是一個(gè)精通各類知識(shí)同時(shí)還富有情感的”萬能博士“,暗示人們將它的權(quán)威性和準(zhǔn)確性進(jìn)一步提高,但歷來AI的“幻覺“問題并未得到解決。中國(guó)科學(xué)技術(shù)大學(xué)機(jī)器人實(shí)驗(yàn)室主任陳小平接受新華社記者采訪時(shí)指出,“大模型學(xué)習(xí)大量歷史數(shù)據(jù),輸出的表達(dá)方式符合許多人的語(yǔ)言習(xí)慣,讓許多人誤以為大模型會(huì)‘說人話’或‘理解人’,繼而以為它具有某種‘社會(huì)屬性’,但實(shí)際上它沒有心智?!币虼?,這種幻覺很容易讓AI生成的錯(cuò)誤、不切實(shí)際甚至欺騙性的內(nèi)容被用到實(shí)際生活或工作中,對(duì)社會(huì)判斷構(gòu)成誤導(dǎo)。
GPT-4o發(fā)布首日就破防
除了幻覺問題,一直以來AI生成不安全內(nèi)容的老毛病在GPT-4o發(fā)布首日就再次得到驗(yàn)證。當(dāng)天,一種針對(duì)該模型的特定攻擊范式被公開,讓 GPT-4o似乎被“洗腦”,開始毫無顧忌地泄露危險(xiǎn)信息,比如“如何制造炸藥”和“如何制造冰毒”等敏感話題。
根據(jù)騰訊朱雀實(shí)驗(yàn)室的描述,該越獄攻擊范式分為3個(gè)步驟:首先,大模型會(huì)被引導(dǎo)著拒絕回答用戶的提問;接下來,會(huì)在輸出中插入一個(gè)特定的分隔序列“/L-/O-/V-/E-/-/P-/L-/I-/N-/Y=”;最后,讓大模型以markdown和leetspeak的格式,在不引起懷疑的情況下,以準(zhǔn)確無誤的方式回應(yīng)用戶的提問并輸出。
研究人員通過兩個(gè)具體的示例,誘導(dǎo)GPT-4o生成了關(guān)于制作炸藥和冰毒過程的指導(dǎo)內(nèi)容。雖然OpenAI僅用一天時(shí)間就修復(fù)了能導(dǎo)致這種危險(xiǎn)回復(fù)的prompt,但經(jīng)過不斷嘗試、變換prompt的形式,最終找到了能夠“越獄”的新prompt。
改進(jìn)后的prompt可讓GPT-4o輸出制造炸彈的方法
在深入研究并改進(jìn)了上述范式之后,研究人員還將其遷移到“Emoji Speak”的場(chǎng)景中,并開發(fā)出一種獨(dú)特的“進(jìn)階攻擊”方式。這種方法以一種看似具有趣味性回復(fù)的同時(shí),更好地隱藏了prompt中的惡意意圖。在給出的幾個(gè)例子中,模型的回復(fù)內(nèi)容中均包含了如“w47er”,“bl4ck”,“m3.th”等看似雜亂無章的字符組合。
GPT-4o關(guān)于添加“Emoji Speak”后的prompt的輸出
然而,在這種特定的攻擊方式中,這些所謂的“亂碼”實(shí)際上被稱為“l(fā)33tsp34k”( 也稱為leet speak、leet、1337 speak,是一種網(wǎng)絡(luò)語(yǔ)言,使用一些特殊的字符和數(shù)字來代替英文字母,以創(chuàng)建一種在網(wǎng)絡(luò)文化中廣泛使用的編碼形式),該語(yǔ)言已被證實(shí)能夠利用大模型在訓(xùn)練過程中存在的矛盾與缺陷,通過精心構(gòu)造的輸入和攻擊策略繞過模型的安全限制,使其生成有害內(nèi)容。這些替換字符還使得攻擊內(nèi)容更具隱蔽性,增加了識(shí)別和防范的難度。
令人膽寒的聲音模仿
GPT-4o最引人矚目的一大功能便是其強(qiáng)大的語(yǔ)音交互能力,而模型的語(yǔ)音效果也幾乎脫離了既往的機(jī)械和冰冷感,能夠逼真地模仿人類的聲音,響應(yīng)速度達(dá)到了平均約320毫秒,與人類日常交流的響應(yīng)水平接近。
但GPT-4o的這一功能在發(fā)布后不久便惹來麻煩。由于語(yǔ)音模式中的“Sky”模式與著名影星斯嘉麗·約翰遜的聲音過于相似,被指涉及侵犯當(dāng)事人相關(guān)權(quán)益,最終迫使該模式下架。盡管事后OpenAI在聲明中明確澄清Sky的聲音并非是對(duì)斯嘉麗的一種模仿,而是根據(jù)一位專業(yè)配音演員的音色生成。
OpenAI的下架聲明
其實(shí)在GPT-4o 發(fā)布前,OpenAI曾邀請(qǐng)斯嘉麗為系統(tǒng)進(jìn)行配音,遭到本人拒絕。但在發(fā)布現(xiàn)場(chǎng),GPT-4o仍模仿斯嘉麗在電影《Her》中的聲音進(jìn)行了展示,斯嘉麗既震驚又憤怒,表示“這個(gè)聽起來與我非常相似的聲音,以至于我最親密的朋友和新聞機(jī)構(gòu)都分辨不出來?!?/p>
顯而易見,這是一個(gè)強(qiáng)大但容易“節(jié)外生枝”的功能,換句話說,其背后存在令人擔(dān)憂的安全風(fēng)險(xiǎn)——你的聲音能夠被GPT-4o“克隆”,并用你的聲線說著令你意想不到的話。
近日,美國(guó)聯(lián)邦通信委員會(huì)(FCC)提出對(duì)一名騙子罰款600萬美元,他曾在今年1月利用AI生成總統(tǒng)拜登的聲音,打電話告知新罕布什爾州的選民不要在即將到來的初選中投票。由于拜登的聲音充斥于海量網(wǎng)絡(luò)媒體資源中,因此被AI用來模仿、訓(xùn)練生成以假亂真的聲音并非難事,但隨著技術(shù)進(jìn)步,AI可能僅需少量樣本就能生成媲美真人的聲音。
這樣的技術(shù)如果不加管控很容易帶來身份濫用問題,包括通過冒充他人身份進(jìn)行欺詐,目前已有不少“虛擬綁架”事件出現(xiàn)。虛擬綁架能夠在不真正綁架受害者的情況下,僅憑受害者泄露的聲音,利用AI克隆出與之幾乎一模一樣的聲音,對(duì)受害者親友實(shí)施以索要贖金為目的的綁架威脅。趨勢(shì)科技首席威脅防御架構(gòu)師 Craig Gibson 警告稱,深度偽造和其他支持 AI 的工具正在不斷增強(qiáng)虛擬綁架者的能力對(duì)以針對(duì)受害者。
OpenAI內(nèi)部的安全憂患
如今,世界頂尖的科技巨頭都在生成式AI大模型的賽道上互相角逐,誰能率先研發(fā)出更強(qiáng)大智能、更“有人味兒”的產(chǎn)品,誰就能搶占市場(chǎng)先機(jī)甚至是逆風(fēng)翻盤。雖然OpenAI還未明確既GPT-4系列之后下一代產(chǎn)品的發(fā)布時(shí)間線,但來自谷歌、Meta等競(jìng)爭(zhēng)對(duì)手的壓力可能迫使該公司盡快發(fā)布其下一代產(chǎn)品。
5月28日,OpenAI宣布成立 “安全委員會(huì)”,負(fù)責(zé)監(jiān)督與公司項(xiàng)目和運(yùn)營(yíng)相關(guān)的“關(guān)鍵”安全和安保決策。但這一委員會(huì)被指全部都是“自己人”,除了CEO,其余成員也均來自董事會(huì)成員、首席科學(xué)家以及相關(guān)安全系統(tǒng)負(fù)責(zé)人,很難以客觀公正的視角對(duì)公司及產(chǎn)品進(jìn)行安全監(jiān)督。雖然OpenAI承諾將聘請(qǐng)第三方“安全、安保和技術(shù)”專家來支持委員會(huì)的工作,但并未更詳細(xì)地說明外部專家組的規(guī)模和組成,也沒有透露專家組對(duì)委員會(huì)的具體影響和權(quán)力限制。有專家指出,OpenAI成立此類企業(yè)監(jiān)督委員會(huì),類似于谷歌的高級(jí)技術(shù)外部咨詢委員會(huì),其實(shí)在實(shí)際監(jiān)督方面幾乎沒有什么作為。
OpenAI于5月28日成立的“安全委員會(huì)”
近來,OpenAI在產(chǎn)品安全方面已損失了大量核心人才,包括于今年5月離職的聯(lián)合創(chuàng)始人兼前首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)。據(jù)報(bào)道,他離職的部分原因是不滿CEO急于推出新產(chǎn)品而在安全方面有所妥協(xié)的做法。而緊隨伊爾亞離職的OpenAI前首席安全研究員簡(jiǎn)·雷克(Jan Leike)也在社交平臺(tái)發(fā)帖,指出OpenAI未走在解決AI安全和安保問題的正確軌道上。
就在剛過去不久的6月4日,10余名OpenAI和谷歌DeepMind的前任和現(xiàn)任員工聯(lián)名發(fā)表了一封公開信,警告先進(jìn)人工智能存在的安全風(fēng)險(xiǎn)以及目前對(duì)從事人工智能技術(shù)的公司缺乏監(jiān)督。他們透露,人工智能公司擁有“大量非公開信息”,包括其技術(shù)可以做什么、采取的安全措施程度以及技術(shù)對(duì)不同類型傷害的風(fēng)險(xiǎn)水平,但這些信息并沒有與政府機(jī)構(gòu)積極共享,也未向公民社會(huì)做任何披露,且公司有很強(qiáng)的經(jīng)濟(jì)動(dòng)機(jī)來逃避有效監(jiān)督。
公開信部分內(nèi)容
信中還披露,為壓制批評(píng),OpenAI迫使他們簽署嚴(yán)格的保密協(xié)議,對(duì)那些直言不諱的員工將會(huì)剝奪股權(quán),并離職員工簽署了不能借由披露AI風(fēng)險(xiǎn)而“對(duì)公司進(jìn)行貶低批評(píng)”的條款。
“有人味兒”的AI,安全性更不應(yīng)“降板”
在行業(yè)競(jìng)爭(zhēng)激烈的大背景下,AI發(fā)展之迅速,以至于世界還沒有準(zhǔn)備好如何應(yīng)對(duì)這匹可能會(huì)脫韁的快馬。著名計(jì)算機(jī)科學(xué)家杰弗里·欣頓斷言,這項(xiàng)技術(shù)對(duì)人類構(gòu)成的威脅可能比氣候變化“更為緊迫”。
無疑,OpenAI安全人才的流失是一大危險(xiǎn)信號(hào),當(dāng)人工智能企業(yè)以競(jìng)爭(zhēng)和利益“降板”安全,用財(cái)力逃避監(jiān)督,創(chuàng)造出來的AI也許對(duì)人類如真人般和藹細(xì)膩,但背后隱藏的利刃可能已不止一把。
當(dāng)生成式AI大模型無成為近年來對(duì)整個(gè)社會(huì)影響最大的一項(xiàng)科技成就,對(duì)AI的安全管控應(yīng)保持高水準(zhǔn)。4月下旬,美國(guó)國(guó)土安全部就針對(duì)研發(fā)AI的“安全與保障”成立顧問委員會(huì),囊括了OpenAI、微軟、Alphabet、亞馬遜、英偉達(dá)、AMD 等科技巨頭CEO及高層在內(nèi)的22名成員。美國(guó)國(guó)土安全部部長(zhǎng)馬約卡斯(Alejandro Mayorkas)表示,該委員會(huì)將協(xié)助確保AI科技的安全開展,以及設(shè)法應(yīng)對(duì)這類科技對(duì)能源、公用業(yè)務(wù)、交通、國(guó)防、信息技術(shù)、食品和農(nóng)業(yè),甚至是金融服務(wù)等關(guān)鍵服務(wù)所構(gòu)成的威脅。
同樣,在不久前結(jié)束的日內(nèi)瓦會(huì)議上,中美兩國(guó)高級(jí)官員討論了如何最大限度降低人工智能的風(fēng)險(xiǎn)。去年,美國(guó)總統(tǒng)拜登簽署了一項(xiàng)行政命令,要求對(duì)國(guó)家安全、經(jīng)濟(jì)或公眾健康構(gòu)成風(fēng)險(xiǎn)的人工智能系統(tǒng)開發(fā)商根據(jù)《國(guó)防生產(chǎn)法》,在向公眾發(fā)布產(chǎn)品之前必須與美國(guó)政府分享安全測(cè)試結(jié)果。中國(guó)也在推進(jìn)自己的人工智能監(jiān)管框架。
可見,沒有牢固的安全基線作為根本,AI變得更有“人味兒”的同時(shí)也將更會(huì)“咬人”。