對ChatGPT提問時(shí),常見的十種錯(cuò)誤描述
常言道:好的問題就是好的答案,特別對于使用GPT的用戶來講,問題的質(zhì)量決定著輸出的質(zhì)量,今天我們聊聊常見的10種錯(cuò)誤的使用方法:
當(dāng)然,我將用更簡單的語言和生活化的例子進(jìn)一步解釋這些錯(cuò)誤:
1、過于復(fù)雜和模糊的提示
解釋:就像在餐廳不清晰地對服務(wù)員說“我想要點(diǎn)好吃的”一樣,服務(wù)員會(huì)困惑你具體想吃什么。
案例:提示AI“告訴我一個(gè)故事”太模糊,AI不知道你想聽什么類型的故事:冒險(xiǎn)、愛情、科幻還是別的什么。
2、假設(shè)上下文總是連貫的
解釋:就像對剛進(jìn)門的朋友說“它好嗎?”一樣,朋友不會(huì)知道“它”指的是什么。
案例:先問AI“中國的人口是多少?”得到回答后,再單獨(dú)問“它的面積呢?”AI可能不明白“它”指的是中國。
3、一次提問太多問題
解釋:就像同時(shí)問服務(wù)員“這個(gè)菜怎么做的,多少錢,辣不辣?”一樣,服務(wù)員可能只回答一個(gè)問題。
案例:提問“明天的天氣怎么樣,我該穿什么,還會(huì)下雨嗎?”AI可能只回答天氣怎么樣。
4、沒有提供足夠的上下文
解釋:就像突然問朋友“它幾點(diǎn)到?”一樣,朋友會(huì)疑惑“它”是什么,什么時(shí)候和到哪里。
案例:只問AI“幾點(diǎn)?”而沒有說明是在問什么事情的時(shí)間。
5、不夠具體
解釋:就像在藥店說“給我一些藥”一樣,藥劑師不知道你需要什么類型的藥。
案例:對AI說“給我一些事實(shí)”可能得到任何種類的事實(shí),因?yàn)闆]有具體指明關(guān)于什么的事實(shí)。
6、缺乏適當(dāng)?shù)闹笇?dǎo)
解釋:就像對廚師說“做一些食物給我”一樣,而沒有告訴他你想吃什么類型的食物。
案例:只告訴AI“寫一個(gè)句子”而沒有說清楚想要什么樣的句子(幽默的、悲傷的、關(guān)于友誼的等)。
7、使用有偏見的語言
解釋:就像公開說“所有XX人都是懶惰的”一樣,這是錯(cuò)誤和冒犯性的假設(shè)。
案例:問AI“為什么某個(gè)國家的人都懶惰?”是基于偏見的問題。
8、不測試提示
解釋:就像只嘗試了一種食譜就決定不再嘗試做這道菜一樣,可能錯(cuò)過了更好的版本。
案例:如果AI沒有理解你的問題,而你沒有嘗試以不同方式重提問題,你可能就錯(cuò)過了獲得有用答案的機(jī)會(huì)。
9、冗長的提示
解釋:就像給朋友發(fā)一條長達(dá)5分鐘的語音消息,而你只是想知道晚上幾點(diǎn)見面一樣,你的朋友可能會(huì)感到困惑。
案例:提問“我昨天去了一個(gè)有很多綠色植物和美麗鳥類的地方,晴天和微風(fēng),那里我看到了一種花,它的花瓣是紅色的,中間是黃色的,葉子是綠色的,我想知道這花叫什么?”太冗長,直接問“紅瓣黃心的花叫什么?”會(huì)更清晰。
10、缺乏清晰性
解釋:這意味著你的指示或提問不夠明確和直接,讓AI或人難以理解你的真正意圖。這就像你在講一個(gè)句子時(shí)故意咬字不清,別人很難聽明白你到底想表達(dá)什么。
案例:在與AI交互時(shí),清晰明了的指示同樣重要。例如,如果你對AI說:“我想知道那個(gè)東西”,這種表述就很模糊,AI不會(huì)知道“那個(gè)東西”具體是什么。相比之下,如果你明確地問:“我想知道埃菲爾鐵塔的高度”,AI就能明白你的意圖,并給出準(zhǔn)確的回答。
那如何規(guī)避出現(xiàn)以上的問題呢?
像講故事一樣與AI對話: 就像告訴朋友一個(gè)故事,給AI一些背景信息。比如,不只是問“最好的披薩配料是什么?”而是說“我想在周末做披薩,你有什么好的配料推薦嗎?”
簡單明了:把你的問題說清楚,就像“明天我需要帶傘嗎?”而不是“天氣如何?”
一步一個(gè)腳印: 先問一個(gè)問題,得到答案后再問下一個(gè)。不要一口氣問五個(gè)問題。
給AI一些空間: 讓AI有點(diǎn)自由發(fā)揮的空間,它可能會(huì)給你驚喜。
友善是金: 使用中立和友善的語言。
短信一樣清晰: 想象你正在給一個(gè)忙碌的朋友發(fā)短信。簡短而準(zhǔn)確。
明確命令: 像“請列出三個(gè)旅行目的地”的明確請求。
告訴AI你的期待: 比如,可以說“給我一個(gè)簡短的科幻故事”。
確認(rèn)AI還跟得上: 如果你的對話很長,不妨確認(rèn)一下AI是否還記得之前的內(nèi)容。
嘗試與嘗試: 如果第一次沒得到你想要的答案,不妨改變一下問法再試。