用 AI 寫信、整理資料、翻譯文件,這些確實都很有價值。
不過,如果 AI 的使用方式停在這裡,其實還有一大片更深的應用等待探索,這是一個能讓思考品質全面升級的層次。
上一步回顧:
第二步,我們學會把腦中「只有自己才知道」的隱性知識,透過思維鏈(CoT)、思維樹(ToT)與 Prompt 模板固化下來,讓 AI 記住你的方法,變成可以永久調用的數位資產。
這一步的不同在哪裡?
Prompt 範例:「請戴上『黑帽』,扮演一個嚴格的批判者。針對我這份計畫,直接指出最可能導致失敗的三個致命風險,以及邏輯上的漏洞。」
💡 生動情境:一位產品經理正在評估「推出訂閱制結帳功能」的方案。
💡 生動情境:一位訓練主管決定「縮短新人備訓期,從兩週改為三天」,理由是「現代人學得快」。
※特別提醒
← 上一篇:第二步 | 下一篇:第四步 →
這一步的不同在哪裡?
前兩步,AI 都是你的「執行者」:幫你省時間、幫你存方法。
第三步要做的事情截然不同:讓 AI 站到你的對立面,主動梳理你的假設,引導你一步步想得比原本預期的更深更遠。 這不是在省時間,而是在升級你思考的品質。
❙ AI 有兩個層次的用法:從 Co-Pilot 到 Co-Thinker
第一層|助理(Co-Pilot)
讓 AI 幫你省時間,包括打草稿、整理資料、翻譯、摘要。這是一個單向的過程,你下達明確指示,追求的是「速度」與「代勞」。這層很有用,但它是淺的。
案例:「我明天要開會,幫我把這份 20 頁的對手企業財報,摘要成 3 個重點。」
案例:「我明天要開會,幫我把這份 20 頁的對手企業財報,摘要成 3 個重點。」
第二層|協思夥伴(Co-Thinker)
讓 AI 幫你提升思考品質,讓它梳理你的假設、扮演你的對立方、找出尚未看見的可能漏洞。這種模式是雙向互動,AI 不再只是幫你把事情做完,而是透過引導式問題帶你「停下來思考」,拆解假設背後的邏輯,拓展你的決策視野。助理幫你省時間,協思夥伴則是增強你的批判性思考能力。
✎案例:「我打算向老闆提議『裁撤實體店面全面轉型電商』。請扮演反對派的董事,嚴厲指出這提議的 3 個致命風險,並問我 2 個我可能答不出來的犀利問題。」
許多人停在第一層,以為 AI 的價值就到這裡了。其實,第二層的大門一直開著。
你可以讓它扮演你最難搞的客戶,協助找出提案中值得強化的地方;也可以讓它站在你的對立面,一步步引導你釐清那個「應該沒問題吧!」的假設,究竟有多紮實。
這種使用方式,不是在省時間,是在提升你思考的品質。
不過有一點值得留意:AI 的運作原理是預測機率,如果給它的指令過於模糊,它通常會回應最安全、最平均的「罐頭答案」。
✎案例:「我打算向老闆提議『裁撤實體店面全面轉型電商』。請扮演反對派的董事,嚴厲指出這提議的 3 個致命風險,並問我 2 個我可能答不出來的犀利問題。」
許多人停在第一層,以為 AI 的價值就到這裡了。其實,第二層的大門一直開著。
❙ 讓 AI 扮演你的對立面,並且「故意想錯」
真正有意思的用法,是把 AI 當作一個願意說真話的對話夥伴。你可以讓它扮演你最難搞的客戶,協助找出提案中值得強化的地方;也可以讓它站在你的對立面,一步步引導你釐清那個「應該沒問題吧!」的假設,究竟有多紮實。
這種使用方式,不是在省時間,是在提升你思考的品質。
不過有一點值得留意:AI 的運作原理是預測機率,如果給它的指令過於模糊,它通常會回應最安全、最平均的「罐頭答案」。
要讓 AI 真正說出有價值的看法,可以運用「故意想錯(Thinking Wrong)」的技巧,刻意帶著自己與 AI 一起走出熟悉的路徑:
在 AI 時代,獲取資訊的成本持續下降,「我知道」本身的價值正在遞減。
- 極端視角法:不只請 AI 找漏洞,而是指定它扮演與你產業完全不同的角色。例如:「假設你現在是 IKEA 的研發團隊,或是《哈利波特》作者 J.K. 羅琳,你會如何看待這份傳統日用品的行銷提案?」
- 壓力測試法:請 AI:「列出三個可能讓這個專案受阻的『如果……』情境,協助我對核心假設進行壓力測試。」
❙ AI 遇強則強:提問的品質,決定回應的深度
所以才說 AI 遇強則強。提問的深度,決定了回應的深度;給它有層次的問題,它就能展開有層次的分析。這件事的關鍵,不在 AI 有多強,而在你是否準備好帶著真正的問題來開展對話。在 AI 時代,獲取資訊的成本持續下降,「我知道」本身的價值正在遞減。
生成式 AI 就像一面鏡子,你給它的問題品質,大致決定了它回覆的深度。當多數人還習慣向 AI 尋求「標準答案」時,可以多走一步:透過與 AI 的來回對話,先釐清「真正要解決的是什麼問題」,再來尋找方法。
AI 回應的深度,兩種問法之間明顯不同。
深問法的背後,是你對問題本身想得更清楚了。而這個「想清楚」的過程,才是真正的收穫。
我們在工作時,往往不知不覺依賴「系統一」給出直覺答案,思考有時在真正展開前就已經停住了。
許多人以為獨立思考是「和別人不一樣」,但更精準的描述是:真正的獨立思考,是「願意站在自己直覺的對立面,認真審視自己的第一反應」。
淺問法 vs. 深問法的具體差距
假設你要向公司提報一個「明年導入全新專案管理軟體」的計畫,這時的兩種問法:- 問法1﹙表層﹚:「幫我看看這份提案有沒有問題。」﹙想想 AI 如何回答﹚
- 問法2﹙深度﹚:「假設你是一個『經歷過兩次軟體導入失敗、極度抗拒改變』的資深部門主管。當你看到我這份提案時,哪三個地方最讓你反感?你會用什麼理由阻擋這個計畫?請直接說,不要客氣。」
AI 回應
- 回應1:AI 的回應通常是:文章邏輯很流暢,建議可以再多加幾個數據圖表……這種回答對你的商業決策毫無幫助。
- 回應2:AI 可能會直指痛點:你的提案只談高層的管理效率,完全沒提到前線員工要增加的適應成本;或者舊資料轉移的空窗期風險該由誰扛。
深問法的背後,是你對問題本身想得更清楚了。而這個「想清楚」的過程,才是真正的收穫。
》為什麼我們需要 AI 來挑戰自己?打破「系統一」的直覺陷阱
心理學家將人類的思考分為兩種:一種是快速、依賴直覺與過往經驗的「系統一」;另一種是緩慢、需要刻意動腦分析的「系統二」。我們在工作時,往往不知不覺依賴「系統一」給出直覺答案,思考有時在真正展開前就已經停住了。
許多人以為獨立思考是「和別人不一樣」,但更精準的描述是:真正的獨立思考,是「願意站在自己直覺的對立面,認真審視自己的第一反應」。
把 AI 當作說真話的夥伴,正是主動啟動「系統二」的有效方式:幫助我們跳脫慣有框架,看見被直覺暫時遮住的盲點與新可能性。
為什麼「和別人不一樣」不等於獨立思考?
為什麼「和別人不一樣」不等於獨立思考?
這裡有個微妙的悖論:刻意「唱反調」其實也是另一種跟隨,因為思考的方向依然是由「別人的立場」所決定的。真正的獨立,是願意對自己內在的直覺多停一拍,無論那個直覺是同意、反對還是漠然。
楊大輝在《深度思考的技術》中指出:系統一是「過去導向」的,習慣用舊框架來理解新問題;而啟動系統二的真正意義,是讓你看見一個自己從未想到要問的問題。
為什麼這件事這麼難做到?「確認偏誤」的根源
心理學家兼諾貝爾獎得主丹尼爾·康納曼(Daniel Kahneman)的研究指出:人類天生有「確認偏誤(Confirmation Bias)」,意即大腦會傾向過濾掉不符合自身假設的訊息,並對支持自己觀點的證據投入更多注意力。更值得留意的是,這個過濾機制往往在無意識中進行,難以被自己察覺。這也說明了為什麼「提醒自己要多想想」有時效果有限:表面上是在進行第二層思考,實際上系統二可能只是在為系統一的直覺找支撐。
💡 情境案例:某公司人資主管想推行「全面遠端工作」制度,內心的「系統一」直覺告訴他:年輕世代都喜歡遠端,這是趨勢。
為什麼 AI 是這個角色的最佳人選?
要真正深化對直覺的審視,需要一個「結構性的對話夥伴」:它既有足夠知識承接你的問題,又能不受人情因素影響地如實回應。現實中,這樣的角色並不容易找到:朋友顧慮感情,下屬考量立場,顧問有其專業偏向。而 AI 在這個角色上有三個天然優勢:- 沒有情感包袱:能直接指出「這個假設有值得深究的地方」,不因顧慮對方反應而保留。
- 知識廣度足夠:能從法律、財務、心理、市場等多個角度提供不同視角的分析。
- 隨時待命:在你最需要深入思考的那個「靈光一閃」的瞬間,立刻展開對話。
💡 情境案例:某公司人資主管想推行「全面遠端工作」制度,內心的「系統一」直覺告訴他:年輕世代都喜歡遠端,這是趨勢。
他把這個想法帶到 AI 對話中,進行自我梳理。
AI 提問:「你的假設是全面遠端能提升生產力,目前有哪些數據可以支持這個方向?另外,團隊中有哪些職能高度依賴即時協作?這些職能轉為遠端後的溝通成本,有沒有一起納入評估?」這幾個問題,讓他從「答案已定」的狀態,回到「需要先釐清幾個關鍵前提」的思考起點。
① 黑帽思維(Black Hat Thinking):找出計畫的致命漏洞
思考大師愛德華·狄波諾提出「六頂思考帽」,其中「黑帽」代表保守的批判者,專注尋找風險、困難與潛在危機。Prompt 範例:「請戴上『黑帽』,扮演一個嚴格的批判者。針對我這份計畫,直接指出最可能導致失敗的三個致命風險,以及邏輯上的漏洞。」
💡 生動情境:一位產品經理正在評估「推出訂閱制結帳功能」的方案。
套用黑帽模擬後,AI 指出:「你的客群中有超過六成是習慣單次付款的中小型企業,訂閱制對他們而言可能是一道門檻,而不是邁向高客單的捷徑。且你的比較利益計算只鎖定老客戶,新客戶的轉換成本也沒有計入估算。」這次黑帽模擬,讓團隊在正式提案前就找到了需要補強的地方。
Prompt 範例:「我現在做了一個決定(附上決定內容)。請用『蘇格拉底提問法』,一步步引導我看清背後的隱藏假設、證據來源以及可能引發的後果,幫我想清楚這個決定是否站得住腳。」
② 蘇格拉底提問法(Socratic Questioning):逼出隱藏假設
蘇格拉底擅長透過不斷反問,迫使對方解釋自己的推理與邏輯,進而暴露知識落差與邏輯瑕疵。提問能把扁平的資訊轉化為立體的知識,揭穿你「以為自己知道」的盲點。Prompt 範例:「我現在做了一個決定(附上決定內容)。請用『蘇格拉底提問法』,一步步引導我看清背後的隱藏假設、證據來源以及可能引發的後果,幫我想清楚這個決定是否站得住腳。」
💡 生動情境:一位訓練主管決定「縮短新人備訓期,從兩週改為三天」,理由是「現代人學得快」。
AI 用蘇格拉底提問法循序引導:「『現代人學得快』這個前提,你有哪些觀察或數據可以支撐?如果備訓期縮短後離職率有所上升,相關的人才成本有納入評估嗎?」這一輪對話,讓他發現這個決定背後的假設,還有幾個關鍵環節需要進一步確認。
Prompt 範例:「請分別從『心理學家』、『經濟學家』以及『完全不懂我們行業的小學生』這三個截然不同的視角,來審視我這份提案,並告訴我你們各自看到的問題點。」
💡 生動情境:一家健康食品品牌正在討論如何提升店面客單價,內行人都在討論健康成分、贈品方案。
③ 多元視角(Diverse Perspectives):用外行人打破內行盲點
內行人往往有共同盲點,外行人反而因為沒有包袱,更能提出打破框架的解法。擁有「多元思考」能力,就是能在面對問題時,結合多種不同思維模型來看待。Prompt 範例:「請分別從『心理學家』、『經濟學家』以及『完全不懂我們行業的小學生』這三個截然不同的視角,來審視我這份提案,並告訴我你們各自看到的問題點。」
💡 生動情境:一家健康食品品牌正在討論如何提升店面客單價,內行人都在討論健康成分、贈品方案。
引入多元視角後,AI 以「小學生」的身份回答:「我不懂什麼成分,但我覺得你們的包裝長得跟藥水瓶一樣,可以換個更潮的包裝嗎?」這個「外行人」的簡單問題,即刻讓完全沒有考慮包裝設計的店內團隊陷入沉思。
AI 的回應是思考的「起點」,而不是「終點」。它可以幫我們找出盲點,拓寬思考的邊界,但面對複雜的情境判斷,還是需要人類的專業知識去驗證與收斂。人類與 AI 各司其職、互相補足,才是這場協作的真正價值所在。
反面案例:某新創團隊把「主力產品轉型、全力進攻新市場」的計畫展示給 AI,請它分析市場機會。AI 給出一份看似完整的市場分析,團隊信以為真、確定新方向。
❙ 一個善意提醒:不要把大腦完全外包
當我們把 AI 當作協思夥伴時,有兩個值得留意的陷阱:信任陷阱(照單全收 AI 的每一個回應)與從眾陷阱(因為 AI 也這樣說,就讓大家不自覺往同一個方向靠攏)。AI 的回應是思考的「起點」,而不是「終點」。它可以幫我們找出盲點,拓寬思考的邊界,但面對複雜的情境判斷,還是需要人類的專業知識去驗證與收斂。人類與 AI 各司其職、互相補足,才是這場協作的真正價值所在。
反面案例:某新創團隊把「主力產品轉型、全力進攻新市場」的計畫展示給 AI,請它分析市場機會。AI 給出一份看似完整的市場分析,團隊信以為真、確定新方向。
事後才發現:那份分析完全沒有注意到競爭對手的專利布局,也沒有考慮進入新市場的實際成本。AI 那天只是激活了「系統二」的討論,但小眾市場的情境知識,仍需要團隊的專業判斷來驗證。
※特別提醒
小心「紅帽陷阱」:在六頂思考帽中,紅帽代表的是情緒與直覺感受。在使用 AI 時,有時會不自覺地只問「這個方案你覺得怎麼樣?」或「你對這個想法的感覺是正面的嗎?」這樣的提問,其實是在用紅帽(請 AI 說你想聽的話)取代黑帽(請 AI 協助深度審視)。
結果是:AI 回應了許多鼓勵,方向感更強了,但潛在的盲點也可能因此安靜地留在原地。當你希望 AI 成為協思夥伴,記得意識到自己拿起的是哪頂帽子:你需要的通常是黑帽,而非紅帽。
✎ 本篇重點
你手上現在有沒有一個「應該沒問題吧」的計畫或決定,可以試著讓 AI 站在反對立場挑戰一次?
✎ 本篇重點
- 從 Co-Pilot 到 Co-Thinker:助理幫你省時間,協思夥伴增強你的批判性思考。
- 答案已死,提問稱王:AI 時代真正值錢的,是你提出「大哉問」的能力。
- 深問有公式:黑帽批判、蘇格拉底反問、多元視角、極端角色壓力測試,每種都能逼出盲點。
- 大腦不能外包:AI 的回應是起點,不是終點;用你的專業去驗證,才是完整的協作。
你手上現在有沒有一個「應該沒問題吧」的計畫或決定,可以試著讓 AI 站在反對立場挑戰一次?
← 上一篇:第二步 | 下一篇:第四步 →
...關於分享者...
※連繫:FB 蔡興正
※電郵:jason@cpfs.com.tw
※證照:孫易新心智圖講師班﹙2014﹚ | GCDF全球職涯發展師 | Google全球教育家
※專長:心智圖法 | 數位工作 | 職涯紫微



留言
張貼留言