Fri Jan 03 2025 23:59:59

以人為本的AI數碼轉型:香港社福改革的方向與底線

AI在社福帶來的從來不是單向度的好處,它同時放大了治理能力的缺口,也測試着社會服務機構能否在數碼轉型中守住「以人為本」的專業底線,要求科技服從於社會工作的核心價值。
撰文:黃偉豪(香港中文大學政務與政策科學學院副教授)

社會服務機構身處人工智能(AI)浪潮之中,面對前線工作量長期高企、資源緊張、服務需求更趨複雜,自然希望透過AI改善管理和提升效率。然而,社福並非一般商業機構,它處理的是人的困難、人的脆弱與人的尊嚴。AI能否成為助力,關鍵不在於買了什麼系統、用上什麼模型,而在於改革是否以人為本,既尊重社工專業的判斷與倫理,也回應服務使用者作為「人」的需要與價值。

就以上問題,我與博士研究生、註冊社工佘雪婷近日於香港中文大學香港亞太研究所(HKIAPS)《研究專論》系列發表專題論文《人工智能與社會服務機構數碼轉型:效益、挑戰、促成因素及其在香港的實踐》(研究專論第245號)。建基於我們的論文內容,本文分析「AI+社會服務」的障礙和挑戰,為香港社福界在推進改革時提供參考的藍圖。

以人為本:不是口號 是治理原則

社會服務的核心不只是把資源「派到」某個人手上,而是透過專業關係、情境理解與價值判斷,支持個人與家庭走過困境。AI擅長處理資訊、生成文本、做模式識別,但它不會承擔關係的倫理責任,也無法代替社工在複雜處境中作出兼顧多方的專業判斷。因此,「以人為本」不是泛泛地說「要有同理心」,而是要在制度上回應:哪些工作可以交給AI協助,哪些決定必須由人承擔,並且要讓責任與可追溯性清晰可見。

以人為本首先是以服務使用者為本。當AI介入服務流程,服務使用者理應知悉資料如何被收集、用於什麼目的、會否被外判或跨機構流轉,以及系統輸出會否影響分流、優先次序或資源安排。

更重要的是,在高度權力不對稱的服務關係中,機構必須避免出現「不同意就可能影響服務」的隱性壓力,並在設計上提供可理解的解釋、合理的替代途徑與申訴渠道。人本的底線,是讓服務使用者不因數碼能力、語言能力或對科技的不安而被排除或被懲罰。

以人為本同時也是以專業工作為本。社工專業的價值在於倫理守則、價值承擔與判斷能力。若AI把評估簡化為分數,把一切服務機械化和指標化,最終可能出現「數據更漂亮,結果更不堪」的倒退。一旦制度鼓勵同工依賴系統輸出,或管理以「用得多」作為績效指標,AI就會由助理變成無形的裁判,並把責任壓回前線。真正的人本轉型,必須讓科技支援專業,而不是把專業壓縮成可計算、可監控、但難以回應人性需要的流程。

真正的人本轉型,必須讓科技支援專業。(Shutterstock)
 

從工具到制度:改革如何落地

香港不少機構推動數碼轉型時,容易從採購出發:先買平台、後想流程;先追KPI、後補治理。社福場景不宜如此,因為它牽涉敏感資料、弱勢群體與高度不對稱的權力關係。我們的論文在「成功因素」的整理中反覆指出,領導層投入、清晰目標、前線參與、跨專業合作、合適系統與可用介面、以及訓練與文化建設,都是成功推進的關鍵。這些因素背後其實是一個共同訊息:AI改革不是「加一件工具」,而是「改一套制度」。

制度化的第一步,是把治理放在應用之前。社福機構需要界定資料如何分類分級、用途如何審批、系統如何記錄與審計、外判與供應商如何管理、以及在高影響場境(如風險提示、分流、資格或資源分配)如何進行偏誤檢視、透明披露與問責安排。當制度先行,AI才不會以「效率」為名而不斷擴張用途,亦不會在出事後才手忙腳亂地補救。

制度化的第二步,是明確AI的角色是「增能」而非「取代」。在涉及可能對個案造成不利後果的決定上,必須保留人類專業覆核與裁量,並在流程上防止「因為系統顯示」就作出決定的慣性。這不僅是倫理要求,也是對專業責任的保護,避免機構在壓力下把責任「外判」給演算法。

制度化的第三步,是把能力建構視為改革核心。文獻指出社工教育對數碼科技裝備不足,亦有研究指出同工擔憂科技削弱關係工作與自主性。這些憂慮若得不到回應,改革只會停留在形式。機構需要的不只是操作訓練,而是AI素養與判斷框架,包括理解幻覺與偏誤、懂得核實與標示、明白何時應停止使用並升級處理。與此同時,機構也要建立能讓前線提出疑慮的心理安全與回饋渠道,讓「試錯」與修正成為改良的一部分,而非被視為「阻礙創新」。

制度化的第四步,是把服務使用者納入設計與評估。社福的創新轉型有別於商業界,科技運用的目的不應只是提升效率,更應支援互動與照顧。若把受惠者排除於設計之外,最終往往會在可及性、信任與公平上付出代價。人本改革需要把服務使用者的需要、顧慮與價值觀,變成系統設計的輸入,而不是上線後才處理的「使用者問題」。

明確AI的角色是「增能」而非「取代」。(Shutterstock)
 

結語:讓社福更人性化

AI可以提升行政與資訊處理效率,亦可支援部分決策,但它同時放大了私隱、偏見、數碼鴻溝與專業角色被稀釋的風險。社福數碼轉型若只追求可量化的產出,忽略關係、尊嚴與倫理,最終可能令服務變得冷硬、標準化,甚至對弱勢群體更不友善。加上機構資源不足、服務要求繁複、系統介面與資料質素不理想等現實問題,常令「提效」變成「加壓」。

換言之,AI在社福帶來的從來不是單向度的好處,它同時放大了治理能力的缺口,也測試着社會服務機構能否在數碼轉型中守住「以人為本」的專業底線,要求科技服從於社會工作的核心價值,而非本末倒置。

如希望進一步了解本文的分析,歡迎參閱佘雪婷、黃偉豪(2026)《人工智能與社會服務機構數碼轉型:效益、挑戰、促成因素及其在香港的實踐》,香港中文大學香港亞太研究所《研究專論》第245號,全文可免費下載:
https://www.hkiaps.cuhk.edu.hk/wp-content/uploads/2026/03/OP245.pdf

作者簡介:

黃偉豪教授,現任香港中文大學政務與政策學院數據科學與政策研究課程創科主任兼副教授,香港亞太研究所青年研究中心副主任。黃教授身兼多項國際學術職位,包括倫敦大學學院管理學院高級研究員、史丹福大學行為科學高等研究中心研究員、印第安納大學伯明頓分校奧斯特羅姆工作坊聯席學者,亦曾於布魯金斯學會及哈佛大學擔任訪問學者。其研究領域涵蓋人工智能與大數據、數字治理、資訊通訊技術與創新、顛覆性技術及比較公共政策。