在上一篇《讓 AI 先認識你:打造一份專屬資料,對話效率翻倍》中,我們探索了如何為 AI 建立個人化的背景知識庫,讓它在對話前就「認識你」。
當 AI 已經知道你是誰之後,接下來可以嘗試的,是讓它「換個方式思考」。
這篇文章整理了目前在網路社群廣泛討論的「大師提示詞 (Master Prompt)」4 個方向,供你參考與實驗,它們並非唯一的解法,而是在深度寫作、策略規劃與複雜問題處理上,目前相對可行的起點。
在一項針對 AI 提示工程與輸出品質的對照實驗中,研究人員進行了一項極具啟發性的測試。
研究人員找來兩組受試者,請他們用 AI 幫忙解決同一個複雜的策略問題:「如何在預算有限的情況下,為一款新產品設計上市行銷方案?」
第一組的受試者只給了 AI 標準的背景設定,內容為職位、產業、目標客群,大約就是上一篇我們談的那份「員工入職證」的完整版本。
第二組的受試者,除了相同的背景設定,還在指令裡多給了一句話:「請先想出三種完全不同的策略方向,分析每個方向的優缺點,再給我你最終的建議。」
結果相差懸殊。
第一組收到的,是一份「四頁、十條列點」的行銷計畫。內容完整,沒有錯誤,但同樣的建議,你在任何一本行銷教科書上都能找到。評審給出的形容是:「合格,但不令人興奮。」
第二組收到的,是三套互相對立的思路,附帶清晰的邏輯比對,以及一個 AI 主動承認「這條路的風險在哪裡,但我認為值得」的最終建議。評審的形容是:「這看起來像顧問公司收費做出來的東西。」
在針對這兩組輸出稿「實用價值」的盲測評估中,第二組獲得了壓倒性地高分。
而這兩組的語言模型,是完全相同的版本。
差別不在於 AI 有多聰明,差別在於:你有沒有給它一個屬於你的思考框架。
或許,你現在就可以暫停一下、自己試試看:拿一個手邊正在煩惱的問題,在指令最後補上第二組的那句話,看看 AI 是否會給你截然不同的驚喜?
✎以上情境是根據 Chain-of-Thought(CoT)提示工程的多項學術研究所推論的示意性場景,並非一篇有具體作者與連結的可查閱論文。若您將此內容引用於正式場合,請以「研究推論示意」而非具名實驗來描述它。若後續找到與此情境高度吻合的真實研究,將會為您補入參考資料。
這正是本篇要解決的問題:你已經按照上一篇的步驟,讓 AI「認識你」了。但「認識你」,和「懂得替你深度思考」,是兩件不同的事。
接下來四個框架,就是用來跨越這道鴻溝的。
你問它「如何提升品牌辨識度」,它給你五個似曾相識的答案。 你要它幫你發想課程名稱,它提出的十個選項,總覺得在哪裡見過。
這不是 AI 的問題,也不是你的問題。這是一個「框架缺口」,背景設定告訴了 AI 你是誰,但沒有告訴它「怎麼思考這個問題」。
這就像你給了助理完整的個人檔案,卻沒有給他解題的思路。他知道在幫誰,但不知道從哪個角度切入。
以下的四個方向,是目前被廣泛討論的提示詞框架。它們只是一個起點,如何使用、要不要調整,還是得回到你自己的場景去決定。
思維鏈(CoT)× 思維樹(ToT)實戰提示詞範例
以下是你可以直接參考、引用的提示詞框架:
【思維鏈範例】 適用於分析型問題:
AI 的能力仍在快速演進。幾個月前需要精心設計提示詞才能做到的事,今天的模型可能已經可以直接理解你的意圖;而現在看似「進階」的技法,明年可能又有更直覺的替代方式出現。
這意味著:方法本身不是終點,思維方式才是。
如果你問 AI 一個問題,得到的答案讓你覺得「還不夠」,那個「還不夠」的感覺,就是最好的線索。試著換一個角度重新問——也許是翻轉問題、也許是限縮範圍、也許是給它一個反例——你會發現,提示詞的邊界其實是由你的想像力,而不是由工具的上限,決定的。
如果你想動手試試:
📺 參考影音與資訊來源
在一項針對 AI 提示工程與輸出品質的對照實驗中,研究人員進行了一項極具啟發性的測試。
研究人員找來兩組受試者,請他們用 AI 幫忙解決同一個複雜的策略問題:「如何在預算有限的情況下,為一款新產品設計上市行銷方案?」
第一組的受試者只給了 AI 標準的背景設定,內容為職位、產業、目標客群,大約就是上一篇我們談的那份「員工入職證」的完整版本。
第二組的受試者,除了相同的背景設定,還在指令裡多給了一句話:「請先想出三種完全不同的策略方向,分析每個方向的優缺點,再給我你最終的建議。」
結果相差懸殊。
第一組收到的,是一份「四頁、十條列點」的行銷計畫。內容完整,沒有錯誤,但同樣的建議,你在任何一本行銷教科書上都能找到。評審給出的形容是:「合格,但不令人興奮。」
第二組收到的,是三套互相對立的思路,附帶清晰的邏輯比對,以及一個 AI 主動承認「這條路的風險在哪裡,但我認為值得」的最終建議。評審的形容是:「這看起來像顧問公司收費做出來的東西。」
在針對這兩組輸出稿「實用價值」的盲測評估中,第二組獲得了壓倒性地高分。
而這兩組的語言模型,是完全相同的版本。
差別不在於 AI 有多聰明,差別在於:你有沒有給它一個屬於你的思考框架。
或許,你現在就可以暫停一下、自己試試看:拿一個手邊正在煩惱的問題,在指令最後補上第二組的那句話,看看 AI 是否會給你截然不同的驚喜?
✎以上情境是根據 Chain-of-Thought(CoT)提示工程的多項學術研究所推論的示意性場景,並非一篇有具體作者與連結的可查閱論文。若您將此內容引用於正式場合,請以「研究推論示意」而非具名實驗來描述它。若後續找到與此情境高度吻合的真實研究,將會為您補入參考資料。
這正是本篇要解決的問題:你已經按照上一篇的步驟,讓 AI「認識你」了。但「認識你」,和「懂得替你深度思考」,是兩件不同的事。
接下來四個框架,就是用來跨越這道鴻溝的。
❙ 設定完背景之後,還差什麼?
你已經按照上一篇的步驟,把自己的職位、受眾、偏好全都告訴了 AI。 它確實不再問你是誰了。但你可能會發現,它給出的建議依然太……安全。你問它「如何提升品牌辨識度」,它給你五個似曾相識的答案。 你要它幫你發想課程名稱,它提出的十個選項,總覺得在哪裡見過。
這不是 AI 的問題,也不是你的問題。這是一個「框架缺口」,背景設定告訴了 AI 你是誰,但沒有告訴它「怎麼思考這個問題」。
這就像你給了助理完整的個人檔案,卻沒有給他解題的思路。他知道在幫誰,但不知道從哪個角度切入。
以下的四個方向,是目前被廣泛討論的提示詞框架。它們只是一個起點,如何使用、要不要調整,還是得回到你自己的場景去決定。
策略一:系統化型態與多角色切換(Agent Skill)
Anthropic 推出的「Agent Skill」可以視為大師提示詞的「系統化與模組化」版本。它本質上就是給大型語言模型隨時翻閱的「專屬說明文檔」。如果你需要管理多個不同的專案或部門,這是極佳的切入點。- 自動對齊規範:你可以把你的專屬背景設定(也就是大師提示詞的基礎內容)寫入 Skill 中。例如設定「智能客服」時,規定遇到投訴必須先安撫情緒且不得隨意承諾;或設定「會議總結助手」時,規定必須嚴格按照「參會人員、議題、決定」的格式輸出。大模型只要讀取這個文檔,就知道該怎麼工作,不需每次重複輸入。
- 按需加載(省成本與專注技巧):AI 不會一口氣讀完所有設定,只會先看「目錄」,確認你的需求與哪個 Skill 匹配後,才讀取完整內容。這個機制能大幅節省 Token 消耗,並避免 AI 因為資訊過載而「幻覺」。
- 延伸應用(Reference 與 Script):除了文字指示,你還可以設定「Reference」(讓 AI 參考特定的外部文件,如集團財務手冊或法律條文)以及「Script」(讓 AI 執行特定的程式碼腳本)。
操作入口:在 Claude.ai 中,進入「Projects」功能後,點擊「Add content」即可上傳你的 Skill 文件作為專案知識庫,無需額外設定。小提醒,目前多種AI都有支援,並非Claude的專屬。
策略二:打造「協思夥伴」(Co-Thinker)的認知鷹架
當你將豐富的背景脈絡寫入大師提示詞後,可以進一步將 AI 設定為你的「協思夥伴」,透過以下四個步驟來引導高品質的策略對話:- 分派角色:詳細描述 AI 該扮演的角色(如:扮演一位嚴格的專家,或是具有多重思維的人格特質)。
- 界定場景:設定這是一對一的私密反思對話,還是 AI 作為主辦人帶領團隊工作坊的一對多場景。
- 規劃對話節奏:告訴 AI「在進行每一個步驟之前,請等我回饋後再繼續」,或要求 AI 主動提出後續問題,而非只讓你回答是或否。
- 善用「思維鏈」(CoT)與「思維樹」(ToT):
- 思維鏈 (Chain of Thought):遇到複雜的單一議題時,在提示詞中加入「請一步一步跟我推演你的思考過程」,要求 AI 模仿你的推理思路給出中間過程,而不是直接跳到最終答案。
- 思維樹 (Tree of Thought):當面對需要創意的策略發想或多重決策時,可以試著指示 AI:「請先想出 3 種完全不同的解決路徑,分別評估每條路徑的優缺點與可行性,最後綜合給出一個最佳建議。」這樣的提問方式,有助於引導 AI 進行發散之後再收斂,而不是直接跳向第一個浮現的答案。
以下是你可以直接參考、引用的提示詞框架:
【思維鏈範例】 適用於分析型問題:
你現在是一位資深的課程設計顧問,請幫我評估以下方案: 「我想把原本 6 小時的 AI 工具培訓,壓縮成 3 小時的精華版。」 請不要直接給我答案,而是:
- 先說明你在思考這個問題時,腦中浮現的「最重要的三個考量因素」
- 針對每個因素,分析「壓縮的利」與「壓縮的弊」
- 最後根據你的推演,給出你的建議與理由 每個步驟結束後,請暫停並等我確認,再進行下一步。
【思維樹範例】 適用於創意策略問題:
我需要為「AI 提示詞工作坊」設計一個 30 分鐘的開場暖身活動。
學員背景:中階主管,平均年資 8 年,對 AI 持觀望態度。
請先提出 3 種『風格完全不同』的開場設計方向:
- 方向 A:理性型(數據導向、快速說服)
- 方向 B:體驗型(讓學員親手操作,立刻感受差異)
- 方向 C:挑戰型(打破既有認知,製造思考衝突)
針對每個方向,列出:
① 核心做法(2–3 句話)
② 優點與風險
③ 適合的場景條件
最後幫我綜合推薦最適合上述學員的方案,並說明理由。
策略三:精準控制輸出的「束縛工程」(Constraint Engineering)
有了大師提示詞的背景後,你在下達具體任務指令時,搭配以下三個原則能讓產出更精準:- 少量樣本提示(Few-shots):在提示詞中提供 2 至 5 個具體範例,這能大幅幫助 AI 理解任務並生成符合你期望的格式。與其說「幫我寫一個吸睛的標題」,不如附上:「像這樣的標題風格:《你每天多浪費 40 分鐘,卻不知道原因》或《不是你不夠努力,是你沒讓 AI 替你努力》」。
- 善用強烈形容詞:在指令中使用如「最嚴謹的」、「最具吸引力」等強烈形容詞,有助於引導 AI 的輸出結果朝期望的方向發展。
- 設定明確範圍:告訴 AI 具體的工作範圍(例如:「請聚焦在中小企業的 AI 導入阻力」,而非籠統的「請談 AI 應用挑戰」),範圍越精確,AI 給出的分析就越貼合需求。
策略四:突破 AI 慣性答案的「故意想錯」指令術
如果你發現即使提供了大師提示詞,AI 給出的答案依然太過「中規中矩」,不妨試試「故意想錯」(Thinking Wrong)的提示詞框架。這個方法背後的邏輯是:AI 傾向走最高機率的路徑,而高機率,往往就是大家都想到的答案。刻意把問題「反過來問」,可以讓它繞開尋常的答案,往比較意外的方向走。- 「180 度翻轉」或「剝奪核心功能」:指示 AI 剝奪產品最核心的功能,或將服務流程的順序完全顛倒。
- 實戰範例 A:「我們正在研發一款新型烤箱。為了激發創意,請你『故意想錯』,幫我發想五種『完全無法用來烹調食物的烤箱』的創新用途與商業價值。」
- 實戰範例 B:「請幫我設計一個『餐廳在客人離開時才給菜單』的反直覺服務體驗旅程,並論述這種看似荒謬的流程能創造什麼獨特的顧客驚喜?」
》結語:這只是其中一條路
本文介紹的四個框架:Agent Skill、協思夥伴、束縛工程、故意想錯,是目前廣泛被討論的提示詞方向之一。它們有效,也有它們的邊界。AI 的能力仍在快速演進。幾個月前需要精心設計提示詞才能做到的事,今天的模型可能已經可以直接理解你的意圖;而現在看似「進階」的技法,明年可能又有更直覺的替代方式出現。
這意味著:方法本身不是終點,思維方式才是。
如果你問 AI 一個問題,得到的答案讓你覺得「還不夠」,那個「還不夠」的感覺,就是最好的線索。試著換一個角度重新問——也許是翻轉問題、也許是限縮範圍、也許是給它一個反例——你會發現,提示詞的邊界其實是由你的想像力,而不是由工具的上限,決定的。
如果你想動手試試:
- 挑一個你手邊正在煩惱的策略問題。
- 用上方的思維樹範例,把問題填入,試著送出。
- 觀察 AI 這次給你的回答——哪裡讓你訝異?哪裡還不夠?那個差距,就是你下一個提示詞可以調整的地方。
...關於分享者...
※連繫:FB 蔡興正
※電郵:jason@cpfs.com.tw
※證照:孫易新心智圖講師班﹙2014﹚ | GCDF全球職涯發展師 | Google全球教育家
※專長:心智圖法 | 數位工作 | 職涯紫微
- 來源影片:The Master Prompt Method: Unlock AI's Full Potential
- 對談講者:Tiago Forte(《打造第二大腦》作者)與 Hayden Miyamoto(Acquire.com 等多家企業創辦人)
- 本文開頭「一個實驗,揭露了背景設定的天花板」一節,其情境設計是根據以下方向的研究推論而來,目前尚未找到與此情境完全對應的具名論文:核心理論依據:Wei et al.(2022),Chain-of-Thought Prompting Elicits Reasoning in Large Language Models,Google Brain,arXiv:2201.11903。
- 此論文首次量化驗證了「給 AI 思考框架(逐步推演指令)」與「直接要求答案」在複雜任務表現上的顯著差距。



留言
張貼留言