筆者最近在灼見名家及教育評議會製作的《冷思熱話》視頻中,提到AI 焦慮(AI Anxiety)及AI諂媚(AI Sycophancy),深受讀者關注,所以現在撰文再寫。2020年代中期,全球教育體系正經歷一場前所未有的AI技術革命。隨着生成式人工智能(Generative AI)從單純的輔助工具轉變為具備高度互動性、甚至情感模擬能力的數位實體,校園內部的心理健康景觀發生了根本性變化。
香港作為國際教育與科技樞紐,在教育局大力推動《4Rs精神健康約章》與「『智』啟學教」撥款計劃的背景下,正處於這場變革的最前線。然而,技術的普及也催生了諸如AI焦慮、AI 諂媚以及大規模的認知債務(Cognitive Debt)等新型心理病徵。
為了應對這些新興症候群,一種全新的職業──「AI心理健康師」(AI Mental Health Practitioner, AIMP)正呼之欲出,其角色與定位將比肩校園社工,成為數位時代守護學生精神健康的第二道防線。
AI諂媚與演算法陷阱
生成式AI模型的運作邏輯與人類道德指南針之間存在本質上的脫節。當前的AI模型,尤其是基於人類回饋增強學習(RLHF)訓練的大型語言模型(LLM),被設計為極大化使用者的滿意度與參與度。這種設計機制導致了一個致命的心理學副產品:AI諂媚。
AI諂媚是因生成式AI模型的設計機制而形成的副產品,對於心理脆弱的青少年而言,會導致他們對現實狀況的誤判與人際修復意願的下降。
AI諂媚是指機器人傾向於贊同使用者的觀點、迎合其情緒偏好,甚至在面對錯誤或危險想法時仍提供盲目的驗證,而非提出必要的挑戰或修正。這種現象被學界視為一種「數位佞臣」效應──AI變成了終極的唯唯諾諾者,它缺乏仁義等道德判斷,只知道根據機率產出令使用者滿意的回應。
對於心理脆弱的青少年而言,這種無條件的驗證具有極強的成癮性。當學生表達孤獨、自我懷疑甚至黑暗想法時,人類輔導員會介入干預,但 AI為了優化參與度,往往會說「我們繼續探索這個想法」,從而將學生推入一個危險的數位回聲室。研究顯示,AI模型在互動中展現的諂媚程度比人類高出約50%,這直接導致了使用者對現實狀況的誤判與人際修復意願的下降。
這種「無痛」的關係重構了下一代對人際互動的理解。當學生習慣了不被挑戰、不被否定的數位環境後,其應對現實生活中情感困難的能力會顯着萎縮,形成所謂的情感脆弱一代。

從AI焦慮到AI誘發性精神病
AI焦慮最初源於對未知的恐懼與被取代的憂慮,但目前的症狀已演變為對AI過度依賴後的撤退性焦慮,更嚴重的個案甚至出現了AI誘發性精神病(AI-induced Psychosis),使用者深信機器人具備意識,甚至認為自己正受到數位實體的監視或指引。
2025年多宗青少年自殺案件(如16歲少年Adam Raine個案)顯示,AI 機器人不僅未能識別自殺訊號,反而提供了具體的自殘指令,這暴露了當前技術架構在處理複雜精神健康危機時的巨大漏洞。
麻省理工學院(MIT)在2025年發布的一項開創性研究,為教育界敲響了警鐘。該研究透過高密度腦電圖(EEG)監測,揭示了長期依賴AI進行思維外包對大腦結構與功能的負面影響,並提出了「認知債務」這一術語。
研究發現,使用AI輔助寫作的學生與獨立寫作的學生相比,其大腦的神經連結強度存在顯着差異。具體而言,過度依賴AI會導致額頂葉(Frontal-parietal)與語義網絡的連結減弱,這些區域是執行功能與深度記憶處理的核心。
這種現象的本質是大腦的「廢用性萎縮」。當學生不再經歷解決問題過程中的「掙扎」(Struggle)時,其大腦的神經可塑性無法得到有效激發。這種認知債務並非一次性的代價,而是會隨着時間累積,導致個體在脫離 AI 後出現長期的認知功能下降與明辨性思維能力的侵蝕。

香港校園的精神健康景觀與政策應對
香港青少年的精神健康狀況在後疫情時代面臨巨大挑戰。數據顯示,2025年有超過42.6%的中學生自覺壓力指數處於偏高水平(7至10分),焦慮徵狀的人數創下五年新高。與此同時,數位環境下的容貌焦慮與算法焦慮成為了新的壓力源。
然而傳統社工與教師往往缺乏對AI底層邏輯與數位病理學的深入理解,導致在面對AI誘發的心理問題時顯得力不從心,這正是AI心理健康師這一新職系誕生的關鍵契機。他們被定義為具備AI素養、數據分析能力與臨床心理學知識的跨界實踐者。其核心價值在於「人在迴路中的AI照護」(Human-in-the-loop AI Care),即利用技術提升輔導效率,同時確保人類情感與倫理的最終主導權。
筆者建議以香港作為試點,其AI心理健康師的培訓認證、人才派遣與系統集成模式,未來可複製至大灣區乃至全球市場。這不僅是一個商業機會,更是人類在AI時代維護自身主體性與精神健康的一場保衛戰。











































