美國Google前總裁埃里克・施密特去年在多次訪談中指出,中美兩國在人工智能發展上遙遙領先,但跑道不同。美國着重尖端的通用人工智能(AGI),中國則更注重普遍應用。最近不斷聽到有人說,有了人工智能,人類就無需學習;人工智能智力將會超越人類,從而替代甚而統治人類。果真如此麼?
美國流行的觀點:AI的下一步是通用人工智能(AGI)。什麼是AGI?AGI是指具有人腦全部功能的智能系統。目前的AI都是有特定功能的機器設計,例如,引發全球熱議的中國春晚武術機器人,能全面模仿人體的肢體動作,對重心、平衡、筋絡與節奏的把握令人叫絕。同時也慨嘆:這些機械人卻不是設計來做其他事情的。同樣,工廠中可以拾起地上物品的機械人、協助警察追蹤嫌犯或進入火場的球形機械人,雖功能強大,卻不是全能的。AGI的目標,則是構建一個完整的人腦。
AI只是輔助工具
馬斯克引以為傲的腦機接口技術已取得巨大技術進步:漸凍症患者布拉德・史密斯四肢癱瘓、無法言語,但透過植入1024條纖細電極,捕捉微弱的腦電波來驅動計算機,實現了模擬言語、觀看球賽等功能。中國也有了幾十個類似的案例。
這類技術能幫助患者彌補缺陷,過上接近常人的生活。理論上,它還可以用於開車、唱歌等任何可由計算機驅動的活動。但歸根到底,這種能力建立在「病人」原有的知識基礎上,並非為「病人」注入知識,就像輪椅不能恢復腿部動作,只能輔助某些生活功能。
這也說明,「插個電極就能代替學習」只是一種幻想。從學理上看,學習是人類賦予外部世界意義的過程。人類的學習是透過感官積累經驗,逐步形成概念,這就是知識。學習是一個持續的過程。試想,若在孩子的腦中插入一本百科全書,孩子是否就不用學習了?顯然不是。成年人之所以能夠熟練使用AI,正是因為我們已有知識基礎,AI只是輔助工具。因此,「人類不用學習」的說法不過是風涼話。
斯坦福大學李飛飛創立的「以人為本的AI研究院」(HAI),就提出了三項原則。第一,AI的發展與研究必須對人類個體及社會有益;第二,AI的應用應以提升和輔助人類能力為目標,而非取代人類;第三,機器智能若要模仿人類智能的矛盾性和複雜性,就必須向腦科學和心理學學習。
HAI提出了2026年AI發展的三個任務。一是從「布道」轉為「評估」,即不再追問AI「能做什麼」,而是關注「做得怎樣、有什麼代價、為誰做的」;二是各國發展獨立的AI「主權」,擺脫對研發商和美國政府的依賴;三是明確指出「今年不會有AGI」。美國輿論認為,這些觀點使一些不切實際的幻想冷卻下來,也反映出AGI是一個熱點議題。關於「AI應不應該取代人類」,是時候要冷靜思考了。

真正實現AGI還有很長距離
OpenAI的CEO薩姆・奧爾特曼則相信「放大」(scaling)是一個方向,只要有更多的數據、更大的運算能力,AI就會成長為更大的「腦」,現在遇到的問題就會迎刃而解。
然而,同樣是Scaling領域的專家,另一位美國科學家、企業家吳恩達卻直言不諱:「AGI已失去明確的定義,目前更多被當作營銷術語使用,甚至誤導了公眾。」他強調:「在明確定義下,AGI在2026年不可能實現,真正實現AGI可能還需要幾十年、甚至更久。」
的確,人類的感官體驗(如味覺、疼痛),雖可被科學儀器測量,卻無法被機器生成,也就是說機器不可能有這些感覺,更遑論用精準的量度來代替人類主觀的感覺。也有科學家透過人的表情、血壓、腦電波、內分泌等變化測量人類的情感,如喜怒哀樂,但如何讓機器生成?一切主觀範疇的內容,機器如何掌握?
語言學泰斗諾姆・喬姆斯基曾說過:「機器的學習依靠統計學的關聯性,而人類的學習基於理解。」機器可以運用大量的數據快速運算,透過關聯性回答人類需要解決的問題,但是他們不需要理解問題本身。
因此,吳恩達說:「AI在持續學習和記憶系統方面與人類仍有巨大差距,目前尚未找到解決這些問題的正確路徑。」這裏面有兩層疑問:理論上是否可行?技術上是否可能?美國輿論已開始將AGI稱為假設性目標。
吳恩達還強調:「Scaling單純依靠獲取數據和擴大模型的路徑將愈來愈難,必須注入其他類型的知識。」這一點與李飛飛的觀點一致:當前從事AI研究的,多為自然科學家和工程師,應該有哲學家、社會學家及人文學科專家共同參與。
原刊於《中國教育三十人論壇》微信平台,本社獲作者授權轉載。













































