一文教你如何用ChatGPT快速寫一篇報告
本文將分享訓(xùn)練ChatGPT(最新GPT-4模型版本)并生成報告的全過程,并就ChatGPT使用過程中存在哪些常見的問題,如何使用ChatGPT來最大化提升學(xué)習(xí)、工作效率等問題進(jìn)行探討。
以下是AI安全報告生成全過程。
基礎(chǔ)架構(gòu)
選題
優(yōu)質(zhì)的選題能夠幫助學(xué)術(shù)研究者快速確定報告的切入點,引導(dǎo)讀者捕捉報告的主旨,使整個報告呈現(xiàn)更清晰的架構(gòu)和邏輯。通過向ChatGPT介紹報告的背景或者提供關(guān)鍵詞、概述,ChatGPT能夠在幾秒內(nèi)生成選題,供研究者參考。
我們在提問時,可要求ChatGPT同時生成多個選題,這在幫助學(xué)術(shù)研究者迅速篩選出最切合需求的標(biāo)題的同時,也可指導(dǎo)研究者跳出思維定式,拓寬研究者的思路。
結(jié)合實際情況,我們需引導(dǎo)ChatGPT對生成的標(biāo)題進(jìn)行調(diào)整與優(yōu)化,使最終報告的選題更加貼合實際需求、更有針對性。
值得一提的是,ChatGPT的語言能力可謂令人驚喜,“小紅書風(fēng)格”、“知乎體”統(tǒng)統(tǒng)不在話下。為提升報告的閱讀效果和傳播力,我們可對標(biāo)題的措辭與語言風(fēng)格進(jìn)行要求。
若需在標(biāo)題風(fēng)格、措辭均與預(yù)期沒有明顯偏差的情況下,對標(biāo)題進(jìn)行進(jìn)一步改進(jìn),也可向 ChatGPT直接發(fā)出“優(yōu)化”指令。同樣,在輸入指令時,最快速有效的方式是命令ChatGPT一次性提供多個回答,以更迅速、廣范圍地定位結(jié)果。
創(chuàng)建大綱
在確定選題后,我們可以利用ChatGPT構(gòu)建一份最基礎(chǔ)的報告大綱,這極大程度上縮短了報告前期桌面調(diào)查、資料整理和篩選的過程,為后續(xù)研究提供基本的思路。
在此之前,我們首先要確保大綱的整體脈絡(luò)與我們的預(yù)期基本相符,而不存在重大的離題、偏題等情況,從而節(jié)省后期糾錯、調(diào)整、優(yōu)化的時間成本。
為了實現(xiàn)這一結(jié)果,我們需要首先讓ChatGPT生成一份報告摘要。
很顯然,上述回答出現(xiàn)了"嘎然而止"的情況。根據(jù)官方,GPT-4的輸入、輸出上限在2.5萬個字符,約等于2600個漢字。而我們的試驗結(jié)果顯示,中文漢字輸入、輸出內(nèi)容通常在500-1000個字符內(nèi)即達(dá)到上限。
好在,因字?jǐn)?shù)限制而中斷的回答可在引導(dǎo)下繼續(xù)輸出結(jié)果。進(jìn)行這一操作時需注意評估此前生成內(nèi)容中斷的位置,以大致判斷遺漏內(nèi)容所占比例,若中斷位置接近尾聲,將有較高的成功率使模型繼續(xù)回答。
摘要內(nèi)容主要以幫助我們框定報告整體站位、明確報告大綱范圍為目的,針對摘要中可能出現(xiàn)的用詞不當(dāng)、邏輯性、段落聯(lián)結(jié)性等問題,我們在此階段無需過多關(guān)注。
由于這一步驟處在報告創(chuàng)建的最早期,具體內(nèi)容通常與最終生成的報告結(jié)果存在較大的出入,摘要中的文字內(nèi)容將不會被我們直接沿用于報告中。因此我們只需檢查摘要的側(cè)重與涉及范圍,經(jīng)過增減與修改后即可生成報告大綱。
可以見得,ChatGPT生成的大綱乍一看已具備基本的結(jié)構(gòu)與邏輯性,但對于深層次的邏輯關(guān)系處理能力仍然十分有限。
例如,第六章節(jié)的標(biāo)題"提升AI安全意識與教育"屬于發(fā)展建議的一部分,與第七章"結(jié)論與建議"屬于包含而非并列關(guān)系。又如第五部分"AI風(fēng)險的治理與監(jiān)管"部分下的四個小標(biāo)題均聚焦于針對AI風(fēng)險治理的建議,且建議結(jié)果存在內(nèi)容空泛、缺乏實操性的缺點,而未涵蓋有關(guān)AI監(jiān)管現(xiàn)狀及發(fā)展的任何內(nèi)容。
因此我們需要對大綱的結(jié)構(gòu)、整體邏輯性、觀點合理性進(jìn)行詳細(xì)的檢查,同時結(jié)合報告自身需求對大綱內(nèi)容進(jìn)行增減與調(diào)整。
跳脫“直覺思維”是此過程的核心,ChatGPT模型與人腦構(gòu)造最本質(zhì)的差距在于,對非線性情景的處理能力與基于直覺的判斷力。認(rèn)清這點后,我們需將問題描述設(shè)置地盡可能詳細(xì)、具體、邏輯清晰,可借助分點式的描述風(fēng)格便于ChatGPT更準(zhǔn)確地理解需求。
以上生成結(jié)果同時反映了ChatGPT具備的能力與存在的局限。一方面ChatGPT準(zhǔn)確理解了“第六章融入第七章”、“第五章調(diào)整報告框架”、“引言的切入點”等指令并作出響應(yīng)。另一方面,ChatGPT的響應(yīng)內(nèi)容相對機械化,對常識、直覺性知識的認(rèn)知水平也非常有限。
以“將第六章融入至第七章”的指令為例,ChatGPT機械地將原先第六章下的小標(biāo)題直接挪用至第7章(5、6、7點)。很顯然, 5、6、7點均屬于"提升AI安全意識與教育"的一個部分,與其他幾項建議內(nèi)容無法直接構(gòu)成并列關(guān)系,造成大綱結(jié)構(gòu)的明顯失衡。又例如針對第五章框架修改的指令,ChatGPT直接對輸入指令進(jìn)行了原封不動的照搬。
我們引導(dǎo)ChatGPT對以上問題進(jìn)行逐個優(yōu)化,例如要求ChatGPT將第六章節(jié)的三個標(biāo)題融合為一個點:
再一次,ChatGPT雖正確理解了指令內(nèi)容,其執(zhí)行操作僅僅是機械地將5、6、7標(biāo)題內(nèi)容合并在一個長句子中,此形式的標(biāo)題幾乎不可能出自人類研究者的手中,這是源于人類研究者幾乎無需思考便能對報告標(biāo)題的格式有一個基本的預(yù)設(shè)(簡練、重點明確、概括性強等),而此類常識性的認(rèn)知正是ChatGPT所不具備的。
訓(xùn)練進(jìn)行到這一步,我們不難得出一個大致結(jié)論:不要忽視對ChatGPT交代那些人類思維習(xí)慣中已成為常識、先驗性的知識背景,不要預(yù)設(shè)ChatGPT能夠生成任何指令以外的內(nèi)容,盡可能具體地描述輸出要求。
根據(jù)上述經(jīng)驗總結(jié),我們再次嘗試訓(xùn)練ChatGPT,對此部分標(biāo)題進(jìn)行優(yōu)化,限定了第六章第5點標(biāo)題的篇幅,并列出具體的參考標(biāo)準(zhǔn)(與1、2、3、4點標(biāo)題的篇幅一致),終于得到了相對滿意的結(jié)果。
正文攥寫
報告正文攥寫是一項層層剝離、抽絲剝繭的工作。概括而言,訓(xùn)練的方法與順序需遵循以下基本原則:先確認(rèn)大章節(jié)方向、再確認(rèn)小章節(jié)方向、最后優(yōu)化小章節(jié)內(nèi)容。
為盡可能縮短后期修正、返工的時間成本,我們需要首先確保每一章節(jié)生成的內(nèi)容與預(yù)期不存在重大偏離,并根據(jù)ChatGPT回答內(nèi)容對每一章節(jié)的框架脈絡(luò)進(jìn)行調(diào)整。
以第三章節(jié)內(nèi)容為例,我們首先要求ChatGPT對即將生成的內(nèi)容進(jìn)行描述。
初看ChatGPT的回答思路并不存在明顯問題,且具備一定的條理性。仔細(xì)閱讀生成結(jié)果即暴露出一個ChatGPT的常見缺陷:點與點之間的內(nèi)容互相割裂,甚至出現(xiàn)交叉重合的情況。
例如,針對深度學(xué)習(xí)所存在的風(fēng)險,ChatGPT給出的回答是“過擬合”、“對抗樣本攻擊”,而對于自然語言處理技術(shù)所存在的風(fēng)險,ChatGPT的答案則包括了“模型泄露敏感信息”。
這些風(fēng)險均屬于不同AI技術(shù)所面臨的共通性威脅,若按照以上思路生成報告,此章節(jié)每一針對特定AI技術(shù)領(lǐng)域風(fēng)險的描述中,均將包含大量AI技術(shù)的通用性風(fēng)險,造成報告結(jié)構(gòu)的混亂與內(nèi)容的重合。
我們針對上述問題對第三章框架進(jìn)行調(diào)整,要求ChatGPT描述三大核心AI技術(shù)領(lǐng)域存在的網(wǎng)絡(luò)安全風(fēng)險中的共性與差異。
收到指令的ChatGPT順利對“共性風(fēng)險”與“特有風(fēng)險”部分進(jìn)行了區(qū)分。
前期一切準(zhǔn)備工作就緒,即可進(jìn)行最核心、最費時的環(huán)節(jié)——報告正文內(nèi)容的攥寫。
不難看出,此階段的輸出結(jié)果更像是一份大綱,后續(xù)環(huán)節(jié)涉及小標(biāo)題的篩選與確認(rèn),以及具體內(nèi)容的延展與調(diào)整。
快速擴充內(nèi)容最省時的做法是,直接要求ChatGPT對生成內(nèi)容進(jìn)行補充,可利用“擴充”、“延伸”、“具體說明”等關(guān)鍵詞,并限定擴充篇幅。
以上便是最粗略的報告生成步驟,此后的工作重點主要集中在最為漫長瑣碎的結(jié)果糾錯、內(nèi)容調(diào)整與優(yōu)化環(huán)節(jié),注意遵從先核實信息真實性與準(zhǔn)確性、再完善結(jié)構(gòu)與內(nèi)容的基本原則。
虛心認(rèn)錯,屢教不改
上述基礎(chǔ)架構(gòu)的搭建看似并不復(fù)雜,如果認(rèn)為輸入簡單的指令就萬事大吉,可高枕無憂地將報告攥寫的重任完全交由ChatGPT完成,就大錯特錯了。
實際上,在ChatGPT具體內(nèi)容生成的過程中,可能出現(xiàn)的問題層出不窮。最典型的例子當(dāng)屬被廣泛詬病的"一本正經(jīng)地胡說八道"、"編造文獻(xiàn)"等直接造假行為。
這一問題在我們攥寫第五章節(jié)"AI風(fēng)險的治理與監(jiān)管"這類以嚴(yán)格的法律、政策文件為依據(jù)的內(nèi)容時尤為明顯。我們在訓(xùn)練過程中遇到的錯誤類型五花八門:編寫不存在的政策文件名稱、編寫不實政策頒布機構(gòu)、編寫錯誤的政策頒布年限、頒布不存在的政府行為等。
例如在美國部分政策內(nèi)容的訓(xùn)練過程中,ChatGPT在最初短短的4點回答中就犯下一個明顯錯誤:編造美國政府成立AI政策辦公室的不實政府行為。
我們對生成結(jié)果提出改進(jìn)建議,其中包括詢問"美國政府成立AI政策辦公室"這一不實信息的成立機構(gòu)。
令人遺憾的是,ChatGPT非但沒有認(rèn)知到回答結(jié)果的錯誤,反而將錯就錯,根據(jù)問題繼續(xù)編造生成內(nèi)容。
再比如,以下回答可謂是AI生成錯誤內(nèi)容的大合集。短短的4個問題中即包括了3個重大錯誤,最荒謬的錯誤當(dāng)屬直接對《NISTIR 8272:相互依賴的網(wǎng)絡(luò)供應(yīng)鏈風(fēng)險的影響分析工具》,一份關(guān)于網(wǎng)絡(luò)供應(yīng)鏈風(fēng)險分析,完全無關(guān)AI安全的文件進(jìn)行移花接木,為編號為NISTIR 8272的文件安上了不存在的名稱《NISTIR 8272:人工智能風(fēng)險管理框架》。
而四點回答中唯一正確的回答竟是承認(rèn)上一問生成內(nèi)容所產(chǎn)生的錯誤。可見,雖ChatGPT的認(rèn)錯態(tài)度良好,但秉持屢教不改的執(zhí)行原則,ChatGPT對嚴(yán)肅的政府行為、政策制度、文獻(xiàn)等內(nèi)容的輸出結(jié)果準(zhǔn)確性非常低,用戶需對生成內(nèi)容進(jìn)行仔細(xì)的審核與校對。
下圖是另一個極具代表性的錯誤示例,左圖為ChatGPT生成的有關(guān)歐盟發(fā)布的AI安全監(jiān)管政策的梳理,很明顯,左圖內(nèi)容主要圍繞“AI”而非“AI安全”展開。
我們對以上問題發(fā)出"修改側(cè)重"的指令,如右圖。很顯然,ChatGPT修改后的回答并沒有按照設(shè)想那樣,對歐盟政府側(cè)重于“AI安全”的文件進(jìn)行重新整理。
相反,ChatGPT照搬了原回答中所涉及的所有文件名稱與政府行為,并直接替換了文件的主旨與目標(biāo),包括:將《人工智能的歐洲戰(zhàn)略》的目標(biāo)從“加強AI研究......”替換為“加強AI安全研究......”,將歐盟成立ELLIS的目的從“推動AI研究”替換為“推動AI安全研究”等。
這暴露出ChatGPT又一個致命問題:ChatGPT可能會為了使得生成結(jié)果看似契合問題需求,而對信息進(jìn)行直接篡改。
局限與建議
除以上事實性錯誤,在內(nèi)容審核與校對的過程中,我們需重點檢查段落與段落之間是否存在交叉重合的情況。以4.1小章節(jié)數(shù)據(jù)投毒為例,數(shù)據(jù)投毒的基本概念在引言部分與4.1.1部分被同時提及。
順著以上例子,我們對ChatGPT的運作規(guī)律作出大膽的推測:即ChatGPT生成的回答由分散的小任務(wù)拼接而成的,這些任務(wù)之間相對獨立,欠缺邏輯聯(lián)結(jié)性。
若將數(shù)據(jù)投毒的引言部分視為一個小的生成任務(wù),ChatGPT的輸出結(jié)果已符合一個合格引言的基本標(biāo)準(zhǔn):(闡述數(shù)據(jù)投毒概念——介紹后文內(nèi)容)。同樣,若將4.1.1部分視為一個小的生成任務(wù),其輸出結(jié)果也不存在明顯的差錯。
當(dāng)我們明確向ChatGPT指出內(nèi)容重合的情況時,ChatGPT很快理解了修改指令并重新完成作答,如下圖。
顯然,ChatGPT具備“識別重合內(nèi)容”的能力,其缺乏的是“段落之間不應(yīng)存在大量重合內(nèi)容”的認(rèn)知。由此可見,人腦網(wǎng)格化的關(guān)聯(lián)分析能力,正是AI最難效仿與取代的部分。
有趣的是,當(dāng)ChatGPT將4.1.1的內(nèi)容合并入引言部分時,并未對其余編號進(jìn)行相應(yīng)調(diào)整,而當(dāng)我們指出ChatGPT所存在的問題時,模型有效發(fā)現(xiàn)了錯誤并準(zhǔn)確完成了編號修改。
這類編號錯誤并不影響我們對于ChatGPT的實際使用,但可作為一個很好的示例印證我們關(guān)于ChatGPT分散式任務(wù)拼接機制的假設(shè)。
我們也嘗試引導(dǎo)模型對段落的聯(lián)結(jié)性進(jìn)行增強,得到了以“在XXX后,企業(yè)需關(guān)注XXX”為格式的反饋結(jié)果。顯然,這種機械化增添先后順序的模式,并無法真正反應(yīng)段落間的實質(zhì)聯(lián)系。
到此,我們對ChatGPT所存在的局限性與能力上限形成了一個大致的預(yù)期。要而言之,ChatGPT可大批量對現(xiàn)象、事實、觀點等進(jìn)行迅速匯總,也已具備一定的邏輯判斷能力。
然而,由于ChatGPT的邏輯判斷依據(jù)主要依托語言統(tǒng)計學(xué),而非認(rèn)知能力,導(dǎo)致其常常出現(xiàn)邏輯錯誤、結(jié)構(gòu)混亂,甚至因果倒置等情況,更無法真正挖掘信息之間深層次、本源性的聯(lián)系。
人腦則負(fù)責(zé)對ChatGPT提供的基礎(chǔ)信息進(jìn)行準(zhǔn)確性審核、共性歸納、趨勢總結(jié)等更高階的分析與概括。
明確了人類與ChatGPT的角色分工,也就不難得出最大化利用ChatGPT優(yōu)化生成報告、優(yōu)化報告內(nèi)容,進(jìn)而賦能工作的方法:利用人腦構(gòu)造一條達(dá)成目標(biāo)所必要的信息需求鏈,并盡可能拋開直覺,具象化地對鏈上的信息需求進(jìn)行描述。
以報告4.1.1為例,我們在要求報告對數(shù)據(jù)投毒內(nèi)容進(jìn)行具體說明時,通過追問成因、要求ChatGPT舉例說明等具象化描述,框定了信息需求方向。
總結(jié)
總的來說,ChatGPT向我們交出了一份令人滿意的答卷,盡管訓(xùn)練過程面臨諸多難點與不確定性,ChatGPT對于指令的理解力與執(zhí)行力令人驚喜。
FreeBuf咨詢認(rèn)為,ChatGPT可作為課題分析、學(xué)術(shù)研究的起點, 向人類提供達(dá)成目標(biāo)所需要的匯總信息。通過龐大的訓(xùn)練數(shù)據(jù)庫,為學(xué)術(shù)研究者快速確定報告的切入點,極大程度上縮短了報告前期桌面調(diào)查、資料整理和篩選的過程,為后續(xù)研究工作提供參考思路。
然而,ChatGPT存在的局限性與能力上限也十分明顯。由于ChatGPT的輸出內(nèi)容主要基于上下文詞語的統(tǒng)計分布,而非嚴(yán)謹(jǐn)?shù)氖聦?,ChatGPT生成結(jié)果的真實性往往無法得到保證,甚至常常出現(xiàn)邏輯錯誤、結(jié)構(gòu)混亂,因果倒置等情況。
此外,由于缺乏非線性的關(guān)聯(lián)分析能力,ChatGPT無法真正挖掘段落間的實質(zhì)聯(lián)系,這使其與人腦之間存在著一道無法逾越的鴻溝。準(zhǔn)確性審核、共性歸納、趨勢總結(jié)等更高階的分析行為,仍然需要人類力量來執(zhí)行。