Fri Jan 03 2025 23:59:59

全球人工智能治理為何需要重新審視現實

2026年聯合國科學、技術與創新論壇的講者指出,全球關於人工智能安全的辯論存在一個盲點:對數以十億計的人而言,問題不在於人工智能有多危險,而在於它未被設計成適合在不同環境下運作。

人工智能(AI)能夠從醫學影像中檢測疾病,將降雨數據轉化為河流流量模型,並加速過去動輒歷時數十年的研究進程。然而,目前仍未解決的問題是:圍繞AI所建立的治理架構,能否真正照顧到那些面對發展滯後人士的需求。

在紐約舉行的第11屆聯合國科學、技術與創新(STI)論壇上,外交官和研究人員指出,當AI治理討論仍執着於前沿模型(frontier models)的假設性風險時,結構性危機更為迫切:AI是為資源充裕的環境而建造的,而負責監管的機構至今仍未追問,這些技術是否適用於其他社會。

滯後並非中立

全球科技政策的核心矛盾,在於新興科技的發展速度與國際機構跟上步伐的能力之間存在錯配。

奧地利常駐聯合國代表、2026年STI論壇聯席主席格雷戈爾.科斯勒(Gregor W. Koessler),直言不諱地指出了由此產生的後果。他提到,AI、生物科技、量子運算和先進材料等領域的進步,「正以遠超我們治理體系演進速度的節奏,重塑經濟和社會。」其結果不僅僅是滯後,用他的話來說,更構成了「重大風險」。

「如果沒有適當的治理,新興科技可能會加劇不平等、削弱信任,並超越那些旨在保護大眾和公共利益的保障措施」,科斯勒在論壇上說。「事實上,若缺乏適當的治理,這些情況必然會發生。」

奧地利常駐聯合國代表格雷戈爾.科斯勒(Gregor W. Koessler)(奧地利政府)
 

科斯勒承認,近期邁向多邊AI治理架構的步伐,標誌着「一個重要的開端」。他描繪了一種以聯合國為基礎、植根於多邊主義、人權和可持續發展的路徑,並着重強調「以人為本」的原則。

但他同樣清楚各種宣言的局限性。「單靠框架是不夠的,」科斯勒說:「它們需要政治承諾、技術專長,以及跨國界、跨界別的持續對話。」

隨後,他提出了一個關聯性問題:AI本身的能源成本。隨着AI和數據系統的迅速擴張,科斯勒警告:「不斷增長的能源需求絕不能推高成本、令電網負荷過重,或加劇不平等。」他稱確保人人享有可負擔、可靠且清潔的能源,是「邁向2030年最後階段的一項決定性考驗」,並強調必須將數碼轉型與能源供應結合起來,讓AI為所有人推動可持續發展目標(SDG)的進展。

三大結構性缺口

如果說科斯勒勾勒了制度層面的挑戰,那麼會議的首位主題演講嘉賓、加拿大達爾豪斯大學教授麗塔.奧吉(Rita Orji)則重新界定了整個問題。她認為,對於世界上大多數人而言,主導AI治理的主流論述一直聚焦在錯誤的問題上。她指出,目前有三大結構性缺口正局限着AI服務可持續發展的潛力。

第一個是數據缺口(data gap)。「訓練大多數AI系統的數據庫,嚴重缺乏來自『全球南方』(Global South)的代表性」,奧吉說。

第二個是設計缺口(design gap)。「大多數AI都假設用戶具備讀寫能力、懂英語、且精通數碼科技」,她觀察道:「但這並非世界上大多數人的真實寫照。」

加拿大達爾豪斯大學教授麗塔.奧吉(Rita Orji)(達爾豪斯大學)
 

第三個,也是最直接針對國際治理對話的,是她所稱的治理缺口(governance gap)。「全球AI治理目前主要集中在前沿風險上」,奧吉說:「這些風險確實非常重要。但對大多數人來說,前沿風險並非主要問題。核心問題是『脫節』的AI──即使AI技術精湛,但對部分用家而言,在發展層面上卻毫無用處。」

這番話直接挑戰了當前AI治理討論的主流取向──這些討論一直集中在生存風險、安全基準和最強大模型的行為上。這些問題固然重要,但它們忽略了一個更為迫切的現實:數以十億計的人根本缺乏與AI系統互動所需的基礎設施、語言支援或數碼記錄。

為實驗室而建  而非診所

奧吉用具體事例闡述了她的論點。她描述了參觀北美一間資源充足的實驗室的經歷:強大的伺服器、穩定的電力供應、乾淨的數據集,以及一支由工程師和科學家組成的團隊正在訓練模型,從醫學影像中檢測疾病的早期跡象。然後她請代表們想像一間位於尼日利亞東南部農村的診所──靠近她成長的地方。只有一位醫生、電力時斷時續、使用紙本病歷,部分病人甚至為了到達那間診所就要步行兩個小時。 

「在第一間實驗室裏開發的AI,在該實驗室及類似環境中會運作得非常出色」,奧吉說:「但如果明天把它帶到那間農村診所,它注定會失敗。」

她指出,這種失敗不是科學上的,而是結構性的:「沒有可靠的電力來運行它,沒有數碼記錄供其處理,沒有互聯網來更新系統,沒有本地語言來解釋結果,也沒有與社區建立足夠的信任來讓人們接受和採納它。」

「沒有被採納的創新,充其量只是一項發明」,奧吉說。「而眼下,我們正在建造的東西,有太多從未真正送到它們本應服務的人群手中。」

底層規則 

任何公平的AI治理框架,其基礎都在於數據的管理和共享方式。聯合國經濟及社會事務部負責政策協調的助理秘書長比約格·桑德凱爾(Bjørg Sandkjær)強調了這一點,她指出《全球數碼契約》(Global Digital Compact)和「資訊社會世界峰會+20」(WSIS+20)審查的成果「彰顯了對開放、安全和包容的數碼未來的需要」,這需要利用數碼技術「在保護人權和確保問責的同時,推動可持續發展」。

她將論壇上關於數據治理、數碼公共產品和公平獲取的討論描述為「對實現該願景的重要貢獻」,並強調創新「不會孤立地發生。它在建基於信任、開放和共享價值的生態系統中蓬勃發展。」

聯合國經濟及社會事務部助理秘書長比約格·桑德凱爾(Bjørg Sandkjær)(非洲發展銀行)
 

桑德凱爾還特別提到了「技術促進機制」(Technology Facilitation Mechanism),該機制植根於《亞的斯亞貝巴行動議程》(Addis Ababa Action Agenda),並透過《塞維利亞承諾》(Seville Commitment)、《未來契約》(Pact for the Future)和《全球數碼契約》得到加強。她重點介紹了聯合國實現可持續發展目標科技創新機構間工作隊(UN Interagency Task Team on STI for the SDGs)的一項新評估,該評估審視了阻礙零排放和低排放技術在國際間普及的障礙,相關研究結果將彙編成一份公開文件,為未來的融資討論提供參考。

 演算法的盲區

治理問題的另一個維度來自會議的第二位主題演講嘉賓。維也納自然資源與生命科學大學(BOKU)水利工程與河流研究所教授兼所長、聯合國教科文組織綜合河流研究講座教授赫爾穆特·哈伯薩克(Helmut Habersack),肯定了AI在水文模型構建中日益強大的能力,但他警告不應將這些工具視為可以完全獨立運作的。

他指出,AI模型只能處理輸入其中的資訊。「如果我現在向ChatGPT或其他工具詢問關於水的問題,你會得到不錯的回答,這確實很好」,哈伯薩克說:「但問題是:它能預見未來嗎?它能捕捉那些偏離歷史軌跡的變化嗎?」

維也納自然資源與生命科學大學水利工程與河流研究所教授兼所長赫爾穆特·哈伯薩克(Helmut Habersack)(萊茵河流域水文國際委員會)
 

他的答案是AI必須與物理實驗相結合,而非取而代之。「我們仍然需要親自『把手指伸進水裏』」,他說:「AI並不總能解釋從地球觀測到的一切。我們必須做實驗,因為我們需要獲取新知識。」他強調,使用真實世界變數進行的實驗室研究是產生新方程式的必要條件,而AI可以在此基礎上協助加以完善。「我們首先需要實驗來獲得科學知識。這一點非常重要,必須強調。」

缺乏的是機會  而非能力

奧吉在主題演講的結尾分享了一段與其技術論點直接呼應的親身經歷。她描述了自己在尼日利亞東南部一個偏遠村莊長大的經歷,父母都是務農的農民,沒有受教育的機會。那裏沒有電力、沒有自來水,也沒有電腦。

「在我被大學錄取修讀計算機科學之前,我從未使用過電腦」,她說:「事實上,我甚至從未近距離見過一台。」她選擇這個專業不是因為了解它,而是懷着它能幫助她改變社區現狀的希望。

「我整個本科階段都在學習如何編寫程式、如何構建系統、如何運用計算思維──而這一切都是在沒有自己電腦的情況下完成的」,她說:「我借用別人的電腦,在大學的電腦室裏付費使用,有能力時就到商務中心購買電腦使用時間。儘管如此,我還是以一級榮譽畢業。」

她說分享這個故事,是因為這並非罕見現象。「現在整個全球南方,此刻就有無數擁有卓越才華的年輕人被拒之門外──不是因為他們缺乏能力,而是因為他們缺乏機會。」

這句話同時也是一個治理層面的論述。「如果AI只為那些已經擁有一切的人而設計」,奧吉說,「它將永遠無法觸及那些能將其發揮最大效用的人。」

為誰準備就緒?

在整場會議中,討論的深處始終隱藏着一條斷層線。一邊是在各國首都和多邊論壇中逐漸成形的治理對話,聚焦於前沿AI的規範、原則和制度機制。另一邊則是一個更為棘手的問題,在座談中一再浮現:這些框架最終究竟將為誰服務?

科斯勒透過能源需求的視角提出了這個問題。哈伯薩克透過現有工具的技術局限提出了這個問題。桑德凱爾透過數據問責的政治層面提出了這個問題。但最直接點出這個問題的,是奧吉。

她指出,傳統的提問框架是:發展中國家是否具備採納AI所需的基礎設施、技能和制度。奧吉認為這種提問方式本身就是問題所在。全球南方的創新者已經在大多數資金充裕的實驗室永遠不會遇到的約束條件下(如不可靠的電網、稀疏的數據集、數十種本地語言),構建AI系統。她說,這些約束條件催生出的工具,並非對其他地方現有技術的模仿,而是對當地實際情況的回應。

「也許今天放在我們面前的問題,不是全球南方是否已為AI準備就緒,」她說:「也許真正的問題是,全球AI的未來是否已準備好向全球南方學習。

楊立明