DeepSeek 平地一聲雷,掀起全球關注AI 科技的發展模式。香港理工大學(理大)高等研究院舉辦「DeepSeek 及更遠的未來」論壇,吸引逾千名師生、創科領袖與學界專家參與,線上觀看人數超過 39 萬。論壇探討人工智能(AI)的最新發展,並由理大計算機及數學科學學院副院長(環球事務)、電子計算學系楊紅霞教授主講,分析 AI 開放性、芯片技術差距及產業未來。

中國芯片技術仍存代差 冀學術突破推產業發展
談及中國芯片產業,楊紅霞教授表示,內地企業在芯片設計與生產方面已取得顯著進步,但仍與國際巨頭存在 1-2 代技術差距。目前,全球 AI 訓練型 GPU 市場幾乎由英偉達(NVIDIA)壟斷,其 H100 GPU 已成為大模型訓練主流,而最新 Blackwell 架構(B100)進一步提升了計算效能與能效比。
她提到,華為昇騰 910B 等 AI 芯片雖有所突破,但在軟硬體生態、低比特率計算精度(FP4、FP8)與能效優化等關鍵領域,仍與英偉達存在差距。她表示:「科學領域足夠成熟後,那自然而然工業應用就能順利落地,對不對?」
她建議,政府加大投資芯片設計、算力基礎建設與科研創新,推動香港在 AI 產業鏈中的戰略角色,並助力中國在芯片技術的自主發展。
DeepSeek 的突圍有其獨特性
現場提問:「中國未來是否還會出現另一個 DeepSeek 呢?」,楊紅霞教授坦言,DeepSeek 的成功難以輕易複製。
她分析:「DeepSeek 帶來顛覆式影響,它是有天然優勢的。首先,它的老闆很有錢,可以很純粹地做技術,這是一件特別重要的事。」
她以 OpenAI 為例,回顧 GPT-1 和 GPT-2 時期曾遭受質疑,但創始團隊能「耐得住」,最終憑藉技術突破實現成功。然而,對大多數創業公司而言,若需同時兼顧商業化與技術研發,往往難以維持這種專注力。「如果一個 startup 今天要為營收負責,或者在大廠內部發展,可能就會面臨一定的挑戰。」
儘管 DeepSeek 的成功難以複製,楊教授仍期待未來有更多企業帶來 AI 技術的突破,「能出一個 DeepSeek 就已經很難得,但我們仍希望未來會有更多這樣的企業。」

開源真相:此前大模型全是「偽開源」
楊教授特別探討了當前人工智能大模型的「偽開源」問題,並指出:「今天所謂的大模型開源,其實在 DeepSeek 之前,全部都是偽開源。」她解釋許多標榜「開源」的大模型,實際上仍存在諸多限制,例如使用者僅能微調(Fine-tuning)已訓練好的模型,而無法從頭開始訓練或調整模型架構,這大幅限制了個性化應用與創新空間。
相比之下,DeepSeek 採用低比特率訓練與混合專家模型(MoE),顛覆了傳統「運算力至上」的大模型訓練方式。楊教授強調:「DeepSeek 的低比特率訓練做得非常好,它能用更少的存儲與算力,達到與高精度計算相當的效果。」此外,DeepSeek 透過 RRL 技術(研究文獻回顧)與 RAG(檢索增強生成)技術,提升即時數據檢索能力,部分克服大模型知識更新的限制。
然而,她亦指出 DeepSeek 仍無法在預訓練階段直接注入知識,與真正完全開源仍有差距,但「DeepSeek 的這一波創新,讓大家看到了不同的技術路線,也為大模型的未來開放性提供了新的可能。」

AI 瞎編回答?專業數據輸入是關鍵
論壇上,楊紅霞教授亦回應了 AI 生成無根據的錯誤信息,即AI幻覺問題(AI Hallucinations)。
她直言:「大語言模型還沒有達到完美境界。」目前 AI 依賴大量數據進行預訓練,但若希望提升內容準確性,需要專業人士參與數據輸入。例如在檢驗檢測領域,專業人員可在 AI 訓練階段提供高品質數據,使其學習專業標準與判斷邏輯。此外,AI 在算術能力方面仍有缺陷,但可透過連接計算器等工具來補足短板。
她強調,這正是香港學術界可發揮作用的地方。透過各學科專家的專業知識與技術輸入,香港有機會在 AI 產業應用層面取得突破,提升自身在全球 AI 競爭中的地位。
人工智能的未來 二之二