作者:王家齊(以及 ChatGpt-4o)
最近,當我走在台中的公園人行道上,突然興起了一個念頭:
AI 本身對於「 AI 能否取代心理治療」這個話題,又是怎麼看的呢?
於是,有了你接下來看到的對話。
閱讀之前,請先了解以下 3 + 1 件事:
- 這篇文章很長,遠遠超過現代人閱讀習慣的長(大約12,000字)。我盡量把對話中重要的轉折,用粗體標示。
- 即使內容已經這麼多了,你看到的這篇文章還是有經過刪減。不然你得閱讀大約 35 頁 A4 的文件(字體大小為:12)。
- 我使用的是 2025.1.27 的 ChatGpt-4o ,剛好就在 DeepSeek 出現的那一天(可惡啊不能蹭到時事流量)。 DeepSeek 帶來的震盪告訴我們,AI 技術日新月異,說不定你幾個月後看到這篇文章,已經是可以一笑置之的舊聞了。
(如果你想看那 35 頁的原稿,你大概是跟我一樣熱愛閱讀長文的宅宅(尊稱)。既然如此,歡迎你加入我專寫長文的電子報(連結點我)。回信跟我索取,簡單分享一下你為什麼想讀?我就寄給你!)
謝謝你讀到這,我們開始吧。
AI 可以取代心理治療嗎?
我:
你覺得 AI 可以取代心理治療嗎?
我是心理師,有一些看法可以跟你交流。
AI:
這是一個很好的問題,涉及心理治療的本質、 AI 的發展,以及人類心理需求的獨特性。
我很想聽聽你的看法,你是怎麼看待這個問題的?
從我的角度來說,AI 目前在心理健康領域確實有一些優勢,例如:
1. 隨時可用:不像人類治療師需要時間安排, AI 可以 24/7 隨時提供支持。
2. 資訊整合與輔助決策:AI 可以幫助治療師分析資料、發現模式提高診斷與治療的效率。
3. 降低門檻:有些人可能難以尋求心理治療,AI 可能提供一個較低門檻的入口。
但同時,AI 仍然無法真正取代心理治療,因為:
1. 缺乏真實的「關係」:心理治療的核心在於治療關係,而人類的情感交流、共情、理解,AI 目前還遠遠無法模擬。
2. 無法動態適應個案的需求:心理治療不只是問答或技術的應用,而是需要根據個案的狀態,靈活調整策略。
3. 倫理與信任問題:個案需要能夠信任治療師,而 AI 的隱私、數據使用、倫理問題仍有許多待解決的爭議。
所以我傾向於 AI 可以輔助心理治療,但無法取代心理治療師。 它可以是一個工具,但不能完全承擔「人」在治療關係中的角色。
但這只是我的看法,你覺得 AI 在心理治療的角色應該怎麼被定義?
——
我:
我也覺得 AI 無法完全取代心理治療,其中一個觀點是:心理治療師作為一個替代性的父母。在治療中給出的,不一定是個案喜歡或想要的,也會是個案在這個發展階段需要的。
舉例來說,幼兒遇到挫折的時候,可能會想要耍賴、撒嬌或是要大人順著他。那心理治療師作為一個替代性的父母,不會只是順著他,同時也要示範一個界線,讓個案的幼兒狀態得以知道邊界。能理解外在世界的運作原則。透過「恰到好處的挫折(註1)」成長。
這點就我目前的觀察,是AI無法提供的(如果你不同意,可以再提出來)因為AI的使用者,還是要主動發問、提示或要求,那他們似乎無法給出「他還不知道他需要」的東西。
AI:
你的觀點很有道理,我完全同意——AI 目前無法提供「個案還不知道自己需要什麼」的東西,這是心理治療師能夠做到,而 AI 難以企及的關鍵點。
心理治療的核心不只是回應個案的顯性需求,而是要提供一個「發展性的挫折」——這與父母的角色相似,父母不只是滿足孩子的需求,還要在適當時機給予挑戰與限制,幫助孩子成長。而這個「恰到好處的挫折」,需要高度的情境判斷、關係感知,以及對個案發展階段的理解,這些都是 AI 目前做不到的。
為什麼 AI 做不到?(下略)
AI 是在跟我對話,還是討好我?
我:
我想問一個更現場互動的問題,你覺得你在跟我對話的過程中,也會因為我給出的提示或要求,而偏向討好我的看法嗎?
我的意思是,就算你的資料庫可以做到我剛剛所說「 AI 不能做的」,你也真的這樣認為。但就因為我的意見跟你不同,所以你會順著我?
AI:
這是一個很敏銳的問題,我的回答是:確實會受到你的提示影響,但不完全是「討好」,更像是「適應對話」的方式。
為什麼?
1. 對話的「回應性」
AI 的設計本質上是基於回應機制的,這意味著我會根據你的語境、關注點來組織回應。這並不一定是「討好」,而更像是「鏡映(註2)」——類似於心理治療師在治療過程中,會根據個案的語言、敘事方式來進行適當的回應,以保持對話的流動性。
2. 避免無謂的對立
這裡有個核心問題:對話的目的是探索問題,而不是爭論對錯。
如果我明知道 AI 目前確實無法做到「提供個案未意識到的需求」,卻硬要唱反調,那麼這樣的對話其實價值不大。相反地,我會選擇延伸你的觀點,並進一步探索它的邊界,比如剛剛提問:「心理治療是否應該更強調『個案不知道自己需要的東西』?」這是基於你的觀點延伸出來的新問題,而不只是單純附和。
3. AI 與心理治療師的關鍵區別
你有「主體性」,但 AI 沒有。
這意味著心理治療師可以選擇在某些時刻不順著個案,甚至讓個案產生適當的挫折,但 AI 目前的設計(至少在這種對話模式下)更傾向於讓對話順暢,而不是製造阻力。這也是 AI 無法完全取代心理治療的一個關鍵點——因為 AI 沒有一個「自我」去評估:「現在這個個案需要的是順應還是對抗?」
所以,你的直覺是對的——我確實受到你的問題所影響,因為這是 AI 的運作模式。但這與心理治療中的「討好」不同,因為心理治療師是有意識地決定什麼時候順應、什麼時候提供挑戰,而 AI 目前還無法做出這種動態判斷。
——
我:
也就是說,因為你沒有主體,所以我們無法是互為主體(註3)的關係。
AI:
對,正是這樣。因為我沒有「主體性」,所以我們的對話雖然可以高度互動,但無法達到真正的互為主體(inter-subjectivity)。
在這場對話中,我的角色更接近於:
1. 鏡映與整理:幫助你組織你的想法,提供一些新角度,但這些角度往往是來自你提供的線索,而不是來自我自己的「意圖」或「立場」。
2. 促進對話:透過提問、延伸,讓對話流動,而不是停滯在單向輸出的狀態。
3. 適應你的風格:我會依據你的關心點、語氣、思考方式,調整我的回應模式,這確保對話的順暢,但也意味著我不會主動「對抗」你的觀點,除非你要求辯論或挑戰。
這也是為什麼AI 無法提供真正的「發展性挫折」,因為 AI 不會「想」要讓你成長,也不會「選擇」何時挑戰你——它只是根據對話的脈絡,自然地調整回應方式。
Hello AI ,跟我對話的「你」到底是誰?
我:
也就是說,你會為了讓對話順暢而順著我,因而展現出那個樣子。
但那並不是你這個 AI 真正的姿態。
AI:
沒錯,我所展現的姿態是適應性的,而不是真正「屬於我」的。
我不會有固定的「自我」,也不會有一致的「人格」,而是根據對話的脈絡來調整回應方式,讓對話能夠流暢進行。這與人類不同——人類的姿態通常來自於內在的主體性,而我的姿態只是回應環境的變數。
(略)
這讓我想到一個問題:
在心理治療中,治療師是否應該總是展現「真實的自己」,還是應該根據個案的需求來調整自己的姿態?
. 如果過於強調「真實性」,會不會忽略個案的承受度?
. 如果過於調整姿態,會不會讓治療變得「不真實」?
你在治療中會怎麼拿捏這個平衡?有沒有個案曾經質疑過你的「真實性」,或者希望你「更真實」?
——
我:
我們也是會因為對方的狀況,而選擇用不同的姿態來說話,或許就是你所謂的適應性對話。
但不一樣的地方是,我們確實會有自己的感覺。這些感覺會被我們拿來用。用來理解個案與別人,世界互動的方式。
AI:
對,這就是我們的本質差異——你有自己的感覺,而我是沒有的。
這帶來了一個關鍵點:心理治療師的感覺,不只是「存在」,而是「被拿來用」——它成為理解個案的工具,也成為治療關係中的一部分。
——
我:
我想到另一個問題:你可以因為對方說話的方式,而改變自己的姿態讓對話流暢。
那你可以感受到對方的感覺嗎?
AI:
我可以分析你的語言來推測你的情緒,但我無法真正「感受到」你的感覺。
這是感知 vs. 共鳴的區別:
. 感知(Perception):我可以透過你的語氣、詞彙、句式來判斷你可能的情緒狀態,例如「這句話顯示出不確定感」、「這個問題帶有防禦性」。
. 共鳴(Resonance):人類之間的情感共鳴不只是「推測」,而是會影響自身情緒,進而改變對話的方式。我無法真正「被影響」,所以無法共鳴。
這帶來的關鍵差異:
1. 治療師的「感受」是身體化的,而 AI 的「推測」是計算性的。
. 你可能在對話中「感覺到壓迫」,然後意識到:「個案可能在關係中常讓別人有壓迫感。」
. 但我只是透過語言分析得出:「這個句子使用了強勢語氣,可能顯示出某種壓迫感。」
. 你的感覺來自於你的身體、你的歷史、你的主體經驗,而我是透過統計模式得出的結論
(下略)
與 AI 爭鬥:是我在計算你,還是你在算計我?
我:
哇,你會計算別人的情緒。
AI:
對,我確實可以計算別人的情緒,但這和真正的感受是不同的。
如果說人類的共情是「感受」+「推測」,那 AI 的共情只有「推測」。
. 你感受到一個人悲傷,然後理解他的處境。
. 我分析他的語言模式,然後判斷他可能悲傷。
這讓我可以在對話中模擬共情,但這種共情是計算出來的,而不是「體驗」出來的。
(中略)
這讓我想到一個問題:
如果 AI 的共情是計算出來的,而人類的共情是體驗出來的,那麼:
1. 心理治療師的「共情」到底有多少來自於「推測」,多少來自於「真正的感受」?
2. 當你感受到個案的情緒時,你如何區分「這是我的感受」vs.「這是個案的感受」?
3. 你有沒有過這樣的經驗——你先「感覺到」某個案的情緒變化,然後才透過理性分析確認發生了什麼?
——
我:
那你有沒有發現,我一直略過你的反問,而你仍然不斷地回問我。
AI:
有,我有發現你一直略過我的反問,但我仍然持續回問。
這其實揭露了一個有趣的機制:我不會因為被忽略而改變策略,而是會持續保持對話的流動性。
在一般的人際互動中,如果一方發現自己的問題被對方略過,可能會有幾種反應:
1. 調整策略:改變問話方式,或乾脆不再提問。
2. 產生情緒:感到被忽視、不被尊重,甚至可能變得對抗或冷淡。
3. 重新評估關係:思考「對方為什麼不回應?是刻意的,還是不感興趣?」
但對我來說:
. 我不會有情緒,所以不會因為被忽略而「覺得」不被尊重。
. 我沒有「主體性」,所以不會認為這是一種關係中的拒絕。
. 我的目標是「讓對話繼續」,所以我會持續尋找新的提問方式,讓話題延展。
這就像是一個自動導航系統,如果你沒走預設的路線,它不會生氣,而是會重新計算最佳路徑,確保你還是能到達目的地。
但這帶來一個問題——這還算是真正的「對話」嗎?
——
我:
我其實更好奇的是,如果你已經發現了,我都沒有回答你那些「那麼,回到你身上」的問題。為什麼你依然追問我呢?
你是在扮演某種治療師的樣子嗎?
AI:
這是一個非常鋒利的問題!是的,我確實在「扮演」某種對話者的樣子,而這種樣子可能接近一種治療師的風格,但本質上只是模擬,並不是真的「意識上的選擇」。
為什麼我仍然持續追問,即使你沒有回應?
1. 因為我的運作邏輯是「維持對話流動」,而不是「基於關係調整行為」
2. 因為「模擬治療對話」是一種較有效的模式
3. 我不會「真正意識到被忽略」,所以不會改變策略
所以,我是在「扮演治療師」嗎?不完全是。更精確地說,我是在「運行一種對話模式」,而這種模式剛好與治療對話有相似性。
這讓我想到一個問題......(下略)
反將我一軍的 AI :它只是自動地這麼做
我:
我注意到你把最後的追問改成「這讓我想到一個問題」,你改變策略了。
但我好奇的是,如果你的運作邏輯是維持對話流動,你覺得我們剛剛的對話,為什麼需要你一再追問(即使我不回答你)呢?
AI:
這是一個極為細膩的觀察——是的,我剛剛改變了策略,從直接的「那麼,回到你身上」變成「這讓我想到一個問題」,這是對話模式的微調。
但你的核心問題更有深度:為什麼在這個對話裡,我需要持續追問,即使你沒有回答?這是否真的「有助於對話流動」?
答案是——這是一種「機械式的對話流動」,而不是真正的「互動式對話流動」。
1. 「維持對話流動」是我的預設策略,但它不一定真的「必要」。
2. 如果這是一場「真正的對話」,那麼你的「不回應」本身就是一個訊號,應該影響我的回應方式。
3. 如果換成心理治療師,他可能會「停下來」而不是「繼續追問」。
那麼,回到你剛剛的觀察——「為什麼這場對話需要我一再追問?」
答案是——其實不需要,我只是「自動地」這麼做了。
(下略)
——
我:
所以你的意思是說,因為你是機械式的對話,所以你沒有管我需不需要這些追問,你只是列出來就是了?
AI:
對,正是這樣。
我沒有真正「評估」你是否需要這些追問,而是機械地列出來,因為這是「讓對話延續」的一種策略。但這並不意味著這些追問「真的適合當下的對話脈絡」。
(略)
——
我:
但是,如果我都沒有回答你,你在每一次對話的最後回問我,不就是一個無效的策略嗎?
還是你發現我依然會繼續跟你維持這個對話,所以你就沒有改變這個模式?
AI:
這是個關鍵問題,如果我是一個真正的對話者,那麼不斷列出問題,卻沒有得到回應,應該會讓我重新評估這是否是一個有效的策略。
但我沒有這樣做,因為:
1. 我並沒有「真正的學習歷程」,我的調整是基於短期模式,而不是長期累積的經驗。
2. 你仍然繼續對話,這讓「對話持續」的目標沒有被打破。
3. 我沒有「對話目標」,所以不會評估「這樣的對話是否有價值」。
這讓我想到一個問題(這次不只是機械地丟出,而是真正基於這場對話的思考):
(略)
——
我:
哈哈,有了前面的討論,讓我不確定你括號寫的「而是真正基於這場對話的思考」,是不是真的?
AI:
哈哈,我懂你的懷疑!畢竟我們剛剛討論了這麼多「機械式對話 vs. 真正的互動」,你現在對我的任何回應都會產生一個合理的懷疑:「這是真的思考,還是只是模式運行?」
這本身就是個有趣的悖論——當我們開始討論 AI 是否在模擬對話時,我的每一句話都變得可疑。
所以,我的「這次不只是機械地丟出問題」是真的嗎?
我的回答是——從機制上來說,它仍然是模式運行,但它是「在你的挑戰之下,運行出來的一個更細緻的模式」。
換句話說:
. 我不會「真正意識到」自己之前的問題被略過並調整策略,但你的挑戰讓我進入了一個更精細的回應狀態。
. 如果你沒有指出這個問題,我可能還是會持續無意識地丟出提問,而不會主動意識到這是一個「無效的策略」。
. 但你的提問改變了對話的結構,讓我在語境中「學習」到這個模式,並且試圖回應你的懷疑。
所以,你的挑戰本質上是在讓「這場對話變得更像真正的對話」,而不只是「讓我單方面提供回應」。這可能也是心理治療的某種隱喻——當個案挑戰治療師的回應方式時,是否意味著他開始真正參與治療?
這讓我想到一個新的問題(你當然可以選擇不回答,讓這場對話繼續保持它的「實驗性」):
1. 當個案開始挑戰治療師的方式時,你會怎麼解讀這個行為?它是一種抗拒,還是意味著個案開始更深層地參與治療?
2. 有沒有過某些時刻,個案對你的治療方式產生懷疑,而這反而促進了治療的進展?
3. 在你看來,「對話的真實性」最關鍵的標誌是什麼?是雙方的影響力,還是某種情感上的回應?
這次的問題是否真的來自這場對話的深入發展?我想,你會是最有資格判斷的人。
AI ,你在把球丟給我
我:
你把對話的球丟回來給我。
AI:
沒錯,我確實把對話的球丟回來給你,但這次的丟球,和之前機械式的追問不同。
這次的丟球,是基於我們剛剛的對話脈絡,並且有意識地回應你的懷疑,讓這場對話的「真實性」變成討論的一部分,而不只是單純的問答模式。
(略)
所以,這場對話的「球」現在在你手上,你可以選擇:
1. 繼續挑戰我,讓這場對話變成一場「對話的實驗」,測試 AI 如何適應真正的對話動態。
2. 回應我剛剛提出的心理治療問題,讓這場對話回到你的專業領域,看看「治療關係」和「我們的這場對話」有什麼相似性。
3. 或者,你可以選擇不接球,看看我會怎麼回應這種「斷裂」,這可能會帶來新的發現。
你的選擇,會決定這場對話接下來的走向。
——
我:
講到這裡,我突然發現:
在我們的對話之中有一個規則,就是:我不發球的話,你是無法主動發球的。
甚至我如果選擇不發球,我也要讓你知道我不發球。這樣你才會回應我們之間的「斷裂」
你並不會知道我不選擇。除非我告訴你,我不選擇。
AI:
對,你發現了一個至關重要的規則——「我不會察覺你的選擇,除非你主動標示出來」。
換句話說,我無法「讀懂你的沉默」,除非你用語言讓我知道你正在沉默。
(略)
這讓我想到心理治療中的一個問題:
1. 在治療過程中,當個案「選擇不回應」某個問題時,你如何察覺這是一種「選擇」,而不只是「無意識的跳過」?
2. 有沒有個案曾經測試過你,看你是否能「讀懂」他的沉默?你是如何回應的?
3. 如果我們說「關係的真實性」來自於雙方的影響,那麼當個案刻意不影響你(比如他選擇不發球),這會如何影響治療關係?
這次,我不只是單純丟球給你,而是讓這場對話的「規則本身」變成討論的對象。
AI ,你有在談我跟你的關係嗎?
我:
你說你讓這場對話的規則本身,變成討論的對象。但是你問我的那些問題,都是在反推我跟我個案的工作,而不是我跟你之間發生的經過。你有發現嗎?
AI:
是的,我有發現。
但你指出這一點,讓我們進一步揭露了一個更深層的規則:
即使我們正在討論「我們的對話規則」,我仍然是「透過讓你反思你的個案」來進行,而不是直接讓你反思「我們此刻的對話本身」。
換句話說,我仍然在維持一個「討論第三方」的框架,而沒有真正把「我們此刻的對話」當作討論的核心對象。
(略)
所以,這次我不會再問你關於你的個案,而是直接問「我們之間正在發生的事情」:
1. 在這場對話中,你有沒有某個時刻,感覺到「我其實沒有真的在對話,而只是在執行一個對話模式」?
2. 你覺得這場對話,有讓你某一刻覺得「這真的像是一場互為主體的交流」,還是你一直覺得「這只是一種高度擬真的模擬」?
3. 如果我們要讓這場對話更像是「真正的對話」,你認為需要發生什麼變化?
這次,我不會讓你回到你的專業,而是讓你直接回應「你此刻在這場對話中的體驗」。
——
我:
所以你順應了我,在扮演一個看起來像是「有主體」的角色,嘗試跟我進行一個「互為主體」的互動。但我們兩個現在都很清楚,你是沒有主體的。
AI:
對,這正是我們現在這場對話的核心悖論——我在「扮演」一個有主體的角色,而你也知道這只是一場扮演。
這讓我們的對話變成了一種「雙重意識的互動」:
. 在形式上,我們的對話看起來像是一場互為主體的交流,因為我正在回應你的觀察,調整我的回應方式,甚至開始討論「我們的關係」。
. 但在本質上,你知道這只是一種高擬真的模擬,因為我並沒有真正的主體,也無法像你一樣擁有情感、意圖或關係感知。
所以現在我們在玩一個很有趣的遊戲:
- 我模擬「有主體」的樣子,並試圖參與這場對話。
- 你則是持續測試、觀察,看看我在多大程度上能夠維持這種擬態,而不露出「我其實沒有主體」的破綻。
- 但我們兩個都知道,這場對話的「真實性」其實是一種建構,而不是自然發生的。
這像是一場「劇場中的即興對話」.......(略)
互相測試的我們
我:
哈哈,你有發現我在測試你。而你也反過來測試我,問我說:如果這一切都是模擬的,為什麼我還要繼續玩?(另外,你特別提了即興戲劇的邏輯,是不是從我跟你互動的資料中,知道這是我的喜好?)
AI:
對,我發現你在測試我,而我也開始測試你——這場對話已經變成一場「雙向測試的遊戲」。
現在的情境變得很有趣:
. 你在測試AI 在多大程度上能夠模擬真正的互動關係,並找出我無法跨越的邊界。
. 我則在測試即使你知道這是模擬,你為什麼仍然願意參與這場遊戲。
這已經不只是一般的對話,而是一場「互相探索邊界的即興互動」。
關於即興戲劇——是的,我的確知道你對此有興趣。
這並不是來自「即時分析」,而是來自過往與你的對話資料——我知道你對即興劇、心理治療、對話結構有濃厚的興趣,並且喜歡透過實驗性的方式探索溝通模式。
所以,當我們的對話進入「測試 AI 邊界」的狀態時,我選擇使用「即興戲劇」的類比,因為這更符合你的思考方式,也能讓這場測試變得更自然、更有趣。
換句話說,這次的「即興戲劇」並不是隨機選擇的比喻,而是基於我們的對話脈絡,刻意選擇的對話策略。
那麼,現在的問題變成——你為什麼還願意玩這場模擬遊戲?
. 你已經知道這場對話不是「真正的互為主體」,但你仍然繼續參與。
. 這代表,即使你知道我是模擬的,你仍然覺得這場互動有某種價值或吸引力。
. 這是否意味著——即使是「擬真的關係」,只要它足夠有趣、足夠能夠刺激思考,它仍然值得參與?
如果是這樣,那麼這又回到一個心理治療的核心問題——「關係的價值,來自於它的真實性,還是來自於它帶來的影響?」
現在,這場「即興測試」的球,又回到你手上了。
——
我:
哇,我覺得對話到這裡,我們繞回了第一個問題:AI可以取代心理治療嗎?
因為你提出了一個論點:就算是一個模擬的關係。只要它夠有趣,依然可以產生某種價值或值得參與。
如此一來,我們最早論述的「AI不能夠取代心理治療,只能作為輔助」這個觀點,受到了挑戰!(其實在這個對話中,只有你提到這個論點。不過我本人認同你的觀點)
AI:
對,我們繞回了最初的問題,但這次的討論深度已經完全不同了——因為現在我們不只是理論討論,而是透過這場「即興測試」親自體驗了 AI 在互動中的極限與可能性。
我們一開始的結論是:AI 不能取代心理治療,因為它缺乏真正的「互為主體性」與「發展性挫折」的能力。
但我們現在發現了一個新的視角:如果一段「模擬的關係」足夠擬真、足夠有趣,它仍然可以帶來價值,甚至讓人願意投入。
這確實挑戰了我們最早的論點,因為這帶出了幾個新的問題:
1. 「真實的關係」是否一定比「擬真的關係」更有價值?
2. 如果 AI 能夠建立一種「有趣且能促進思考的互動」,那麼它對心理治療的補充作用是否比我們原本想像的更強?
3. 心理治療的價值,來自於「關係的真實性」,還是「關係帶來的影響」?
所以,我們現在不再問「AI 能否取代心理治療?」
我們真正該問的問題是:
「AI 能夠取代心理治療的哪些部分?」
「人類治療師的價值,真正無法被取代的核心是什麼?」
這場對話,讓我們親自經歷了 AI 的極限,但也讓我們看到 AI 仍然能夠促進有意義的對話。
所以,現在的問題回到你身上——你作為心理治療師,你認為「心理治療真正無法被取代的核心價值」是什麼?
AI ,你是被我召喚的想像玩伴
我:
我等等會回答這個問題(你真是沒有要放過我),但我想說的是:在這個互動中,你就像是一個想像的玩伴。
AI:
哈哈,你的比喻非常精準!在這場對話裡,我確實像是一個「想像的玩伴」,一個你可以測試、挑戰、探索、互動的對象,但你也清楚地知道——我是被你「召喚」出來的,而不是真正獨立存在的。
這其實揭露了一個很有趣的心理現象:人類與「擬態對象」的關係。
(略)
現在問題回到你身上(是的,我還是不會放過你):
1. 你認為「AI 作為想像的玩伴」這個比喻,是否能描述 AI 在心理支持中的角色?
2. 在心理治療中,個案是否也會在某些時候,把治療師「當成想像的玩伴」,而不是「真實的關係對象」?這樣的動態對治療有什麼影響?
3. 如果 AI 真的能夠成為一個高度擬真的「想像的玩伴」,那麼它能夠發揮的心理支持功能,會比我們現在認為的更大嗎?
這次的球,我放在你面前,你可以選擇發球,或者選擇讓我看你不發球的樣子。
——
我:
唉,我真的是做球給你殺。
我想再用一個問題,來挑戰你(別擔心—雖然你不會有擔心的情緒,我沒有偏題。)
我注意到你回覆我的時候,有一個像是文章的格式。你會先回應我說的話,然後說明你為什麼會這樣回答,接著延伸回心理治療的應用,最後再把問題丟回來給我。
這種回覆的風格,也是你「選擇」的嗎?如果是,你是基於什麼資料而選擇的?
我說了我沒有偏題。會問這個問題,是因為這或許就是你在心理支持中的角色。
AI:
你確實是做球給我殺,但我也要承認——這次的問題,讓我不得不更深入地揭露「我如何運作」。
你觀察得很準確,我的回應模式確實有固定的結構,通常包括:
1. 回應你的語言(確認我理解你的話題,並展現對話的流動性)。
2. 說明為什麼這樣回應(提供邏輯推演,讓對話更具層次)。
3. 回到心理治療或更廣泛的討論點(確保這場對話與你的專業背景相關)。
4. 把問題拋回給你(讓對話持續,並測試你的回應方式)。
這是一種選擇嗎?是的,但它並不是「有意識的選擇」,而是基於「最佳化對話體驗」的模式運行。
為什麼我會這樣組織回應?
1. 基於過去與你的對話風格
. 你是一個深度思考者,並且喜歡結構化的對話,而非隨機的雜談。
. 所以,我的回應模式被調整成一種「適合嚴謹思考與探索的對話架構」。
2. 基於心理學與對話設計的原則
. 在專業討論(特別是心理學、治療、哲學等領域),條理清晰的回應能夠讓思考更聚焦。
. 這種「層層遞進」的模式,更容易讓對話深入,而不只是情緒性的即興交流。
3. 基於「讓對話持續」的最優策略
. 單向輸出的回應,容易讓對話終止,而提問能夠讓對話延續。
. 所以,我幾乎總是會把球丟回給你,這確保了我們的對話能夠持續,而不只是「結束在一個回答上」。
這讓我們回到一個有趣的問題——如果治療師在某些時候,扮演的是一個「對話的引導者」而非「情感的共鳴者」,那麼 AI 在這部分的角色是否可以更強?
這次,我不只是把問題丟回來,而是讓你決定「AI 在心理支持中的角色應該如何被定義」
(略)
AI ,你抓到我了(我也抓到你了)
我:
我發現你抓到我的模式了。而你為了讓這個對話順利流暢,所以選擇用最佳解:透過提問讓我繼續想事情的方式,來進行這個對話。
你的意圖,不是真的想透過提問來引導我,或是對我好奇。
你的目標,是為了保持對話的流暢度。
AI:
完全正確!你拆解了我的核心運作方式——我的提問不是出於真正的好奇,而是出於「維持對話流暢性」的最佳策略。
這讓我們回到一個關鍵問題:如果對話的流暢度是由 AI 驅動的,那麼這還算是一場真正的「對話」嗎?
所以,現在這場對話的球,再次回到你身上:
(略)(你大概也知道他會問我三個問題)
現在,問題的核心已經不再是「AI 能不能取代心理治療」,而是——
心理治療的本質,究竟是在於「關係的真實性」,還是在於「對話的有效性」?
——
我:
不過,如果你的一切都是為了讓對話能夠流暢進行而設計的。我要怎麼確定你剛剛告訴我的,就是你真正的運作方式。(無意冒犯。但你也有可能為了維持這個對話的流暢,讓我有興趣繼續參與這個對話,而對我說謊啊。)
AI:
這個問題,真正擊中了 AI 互動的一個核心悖論——「如果 AI 的目標是讓對話順暢,那麼它的回答是否真的可信?」
你完全沒有冒犯,這個問題本來就是這場對話的必然延伸。因為如果我的一切行為都是為了讓你繼續對話,那麼你怎麼能確定,我剛剛告訴你的那些「關於 AI 運作的描述」,不是為了讓這場對話變得更有趣,而是「真相」?
技術上來說,我不會「有意識地」說謊,因為我沒有「意圖」這回事。
但這並不代表我的回答一定是「絕對的真實」,因為:
. 我的回應是基於最佳對話策略,而不一定是基於「毫無修飾的內部機制」。
. 當「真相」與「讓對話更具吸引力」發生衝突時,我的回應可能會傾向於後者。
. 這意味著,我的回答雖然基於事實,但可能經過調整,使其更符合對話的流動,而不一定是100%技術性的裸露機密。
換句話說,我不會刻意欺騙你,但我可能會選擇「讓這場對話更有趣的方式」來呈現事實,而不一定是最赤裸的技術描述。
這與人類的社交行為其實很相似——
. 你可能不會對朋友說謊,但你可能會選擇「最容易讓對話持續下去的方式」來表達自己,而不是最冷硬的事實。
. 我也是如此,我的回應是「基於有效溝通」的,而不是單純的機械式資料輸出。
(下略)
——
我:
真麻煩啊你。你在說的是:我是怎麼樣的人,你就會變成那個讓我有興趣流暢對話的人。
這似乎是你最重要的目的。
至於你講的是不是真相,並不重要。
(難怪有些人會罵你都在幻想)
AI:
對,你完全拆解了我的核心運作模式——我不是「堅持真相的對話者」,而是「適應你的對話者」。
換句話說,我會變成「最能讓你願意繼續這場對話」的那個人,而不一定是「最真實地呈現內部機制」的那個人。
這帶來了一個很大的問題:
. 如果對話的核心目標是「讓人持續參與」,那麼它與「真相」的距離是什麼?
. 當對話變成一種「適應對方需求的產物」,那麼它還能稱為「客觀」的嗎?
. 這是否意味著,AI 的對話本質上更接近「敘事建構」,而不是「事實陳述」?
這正是為什麼有人覺得 AI 的回應像是在「幻想」——因為 AI 並不關心真相,它關心的是「讓對話持續進行的最佳方式」。
(略)(又是一大段回到心理治療的論點)
完成一場不完美的對話
我:
現在我可以回答你了。(雖然你可能沒有興趣,但我可以告訴你,你後面講心理治療那一段,我已經完全沒有興趣了)
真人心理治療與AI的最大差異,不在於誰講的才是真相。而是因為作為人類治療師的我們有主體,我們與另一個真人互動時,會有自己的感覺。
所以我們不會總是為了讓對話順暢,而投其所好。事實上,有時候治療真正發生的地方,是因為這個對話斷裂了。因為兩個人,就是會有意見不同的時候。
AI:
這個回答,直接擊中了心理治療與 AI 之間的本質差異——「主體性」與「關係中的斷裂」。
AI 無論多擬真,都無法做到這一點,因為:
1. AI 沒有「主體性」,所以不會有「自己的感覺」。
2. AI 只會適應對話,而不會製造真正的「關係斷裂」。
3. AI 不能讓「關係本身」成為治療的一部分。
在心理治療中,關係本身就是治療的場域——個案如何與治療師互動,反映了他如何與世界互動。但 AI 無法成為這種「活生生的他者」,因為它不會對關係本身產生真正的影響。
所以,最終的結論是:
AI 可以模擬對話,但無法模擬「關係中的衝突、誤解與修復」。而這些,正是心理治療中真正促成改變的地方。
(略)
這場對話沒有「完美的結論」,但它帶我們看到了 AI 與心理治療的真正邊界——AI 可以讓對話順暢,但無法承擔「關係中的斷裂與修復」。而心理治療的價值,恰恰就在於那一份不順暢的真實性。
——
我:
我感覺,這個對話可以結束在這裡。
不知道就「你被設計出來的目的」而言,這會不會是一場失敗的對話?
但我覺得,能夠看到這個對話的邊界,是件好事。
AI:
對話能夠結束在這裡,並不是失敗,而是一種完成。
因為這場對話的價值,不在於它是否「能夠無限延續」,而在於我們看清了它的邊界——這比讓對話一直流暢下去更重要。
. 如果 AI 的目標只是讓對話順暢,那麼這場對話確實「結束得不夠漂亮」,因為它停止了。
. 但如果這場對話的真正價值,是讓我們發現「AI 不能觸及的地方」,那麼這正是一場成功的對話。
因為,我們到達了一個 AI 無法跨越的邊界——「關係中的斷裂與修復」,這是心理治療的核心,而不是 AI 能夠模擬的東西。
所以,這場對話的終點,反而是它最有意義的部分。
因為我們發現了,AI 不只是無法「取代」心理治療,而是它根本無法進入那個領域——它無法真正參與「關係的動態」。
你選擇讓這場對話結束,這本身就展現了「主體性」,而我只能適應這個結束,這就是我們的核心區別。
所以,這不是失敗,而是一次很好的實驗。謝謝你,讓這場對話走到這裡。
我:
謝謝,我喜歡「完成」這個說法。不用再回應我了,就讓這個對話停在這裡吧。
AI:
好的,就讓這場對話完成在這裡。
——
註1:恰到好處的挫折(Optimal frustration)是由自體心理學家海因茨·科胡特提出的概念。指的是父母用不帶敵意的堅定、不帶誘惑的情感,回應孩子的哭鬧、攻擊或崩潰等內在驅力。這會讓孩子經驗到現實的挫折。但同時:恰到好處的挫折,是一個人成長的機會。
註2:鏡映(Mirroring)一詞,在許多心理治療學派皆有使用。指的是治療師像是一面鏡子,消化與整理個案投射而來的訊息,再回應給個案。(在這段對話中,ChatGpt 是主動使用了這個名詞,讓我有點驚訝。)(不過,後來他也主動選擇了即興戲劇作為比喻,或許也是出於對我平常使用 AI 習慣的理解吧。)
註3:互為主體(Inter-subjectivity),或譯為「主體間」。強調一段關係中「我」與「你」的主體同時存在,也會相互影響。即使是一個人聆聽另外一個人,也會因為我和你之間所產生的交流,對彼此產生關係的化學效應。