「AI幻覺」(AI Hallucination)這個詞彙,近年隨着人工智慧技術的飛速發展而逐漸走進了公眾視野。就像人類有時會發夢及產生幻覺一樣,AI模型在生成文本時也會出現類似的情況,這就是我們所說的AI幻覺。這種現象不僅令人驚訝,也讓人擔憂,因為它可能會產生錯誤或誤導性的資訊。
AI幻覺的實際例子
2023年谷歌開發的生成式AI聊天機器人Bard就充分說明了這一問題的嚴重。它錯誤歸屬了詹姆斯韋伯太空望遠鏡的觀測成果,這不僅是一個技術上的失誤,更是對AI幻覺問題的警示。以下是一些AI幻覺的實際例子:
- 虛假資訊:ChatGPT在回答一名法律教授的問題時,將他列入一份不存在的曾犯性騷擾的法律學者名單中;一位澳大利亞市長發現ChatGPT虛構他因貪污受刑。
- 不存在的書籍:ChatGPT生成了一份關於社會認知理論的書單,其中有些書並不存在;ChatGPT在回答問題時,引述了一些虛假的學術論文和法律。
- 錯誤技術細節:ChatGPT有時會編造出一些不存在的技術細節,例如虛假的Linux系統功能或不真實的零售吉祥物。
- 錯誤歷史事實:當被問及誰是第一個在月球上行走的人時,模型可能會回答錯誤的名字,而非公認的岩士唐。
- 錯誤地理位置:如果訓練資料中經常並列提及加拿大和多倫多,模型可能會錯誤地將多倫多視為加拿大的首都。
- 醫療建議錯誤:在生成醫療相關建議時,AI可能會捏造錯誤的藥品劑量,對缺少專業醫學知識的用戶造成誤導。
AI幻覺的危害不容小覷
要了解AI幻覺,我們首先需要探究它的成因。數據偏見是其中一個重要因素,因為訓練資料的品質和多樣性對模型的性能至關重要。如果訓練資料存在偏見,模型就會學習了這些偏見,從而在生成文本時引入錯誤。此外,模型、任務的複雜、評估指標的局限以及人類語言的複雜,都是AI幻覺產生的深層原因。
AI幻覺的危害不容小覷,它可能會誤導公眾,造成社會恐慌或不信任,甚至影響經濟活動和公共安全。例如,假新聞的散播可能引起社會恐慌,而AI生成的虛假金融資訊可能導致市場波動。此外,AI幻覺還可能損害個人名譽,侵犯隱私,促進犯罪活動,阻礙科學進步,甚至加劇社會不平等。實際例子如建議用氣味粘附劑來粘合披薩,或者通過每天吃石頭來獲取營養。這些錯誤的建議不僅對用戶造成混亂,也對AI平台品牌和信譽造成負面影響。
有效的解決方案
面對這些問題,筆者認為沒有完全杜絕之計,但我們需要採取有效的緩解策略。首先,提供高品質的資料是關鍵,包括數據清洗與標注、增強和平衡資料、領域適配。其次,改進模型架構,例如引入注意力機制、預訓練模型、集成學習和對抗訓練,這些都能夠提高模型的性能和穩健。此外,增強模型的可解釋性,例如通過梯度類方法、注意力視覺化、LIME(Local Interpretable Model-agnostic Explanations)和SHAP(SHapley Additive exPlanations)等方法,以及知識圖譜,這些都能夠幫助我們更好地理解模型的行為。
人類回饋強化學習(RLHF)也是一個重要的策略,它通過獎勵模型和訓練偏好模型,來引導模型生成符合預期的輸出。多模態學習,如文本─圖像對齊和跨模態檢索,則能夠提高模型對世界的理解。知識圖譜的事實校驗和常識推理,以及上下文感知的建模和對話管理,這些都能夠使模型生成更符合語境的文本。最後,模型校準,如溫度參數和置信度估計,這些都能夠控制模型輸出的隨機性和提高準確性。
總之,AI幻覺是AI發展過程中一個不可避免的問題,但隨着研究的深入和技術的進步,我們有理由相信,我們可以找到更有效的解決方案。未來,我們需要從多學科的角度,結合電腦科學、語言學、心理學等領域的知識,共同推動AI幻覺問題的解決。AI幻覺的出現提醒我們,AI技術雖然發展迅速,但仍然存在諸多挑戰。只有深入理解其成因,並採取有效的緩解措施,我們才能充分發揮AI的潛力,為人類社會帶來更多的福祉。