生成式人工智能(GenAI)應用日漸普及。以ChatGPT為例,生成式人工智能技術改變了過往人工智能以檢索為主的功能,至今天以對話為主。這改變近年引發起社會科學家對人機交互對社會之影響的好奇,推出人工智能社會科學(Social Science for AI),例如心理學家(Psychologist)研究實體人與虛擬人之間溝通的關係。這關係無疑會對現實社會中的決策(例如商務、政策等)影響甚深,政府絕對不容忽視。因此這領域的研究非常重要,有助避免決策時產生不必要的錯誤,降低社會風險。本文以虛擬人為主角,簡介它在扮演不同角色時所用的技術和潛在風險。
人機交互影響社會
一般而言,非技術人士認識的人機對話應用(例如ChatGPT)中現實人是主體,而虛擬人是客體,通常是被動被操作。用戶輸入指示(Prompt),ChatGPT因應地作回答解題或執行任務。例如在問與答(Q&A)應用中,指示是問題導向的,基本上宜以RPGS公式來設計。角色(Role, R):指定系統背後大型語言模型(LLM)所扮演的角色或人設;問題(Problem, P):清晰描述用戶需要解決的問題及背景,描述的訊息愈詳細具體,人工智能對問題的理解便愈到位,解決方案便愈具針對性;目標(Goal, G):用戶期望人工智能回答、解決、完成的具體目標要求;方案(Solution, S):要求人工智能如何輸出方案,如格式、風格、口吻、示例等。然而,一般用戶(特別是大老闆)下指示時未必能細節入微,若然指示不加糾正的話,回應質素便會差強人意,甚至導致風險。因此,虛擬人要具備系統端的指示工程(Prompt Engineering)技術,整理並優化不完整的指示。
推薦系統難知悉客戶情緒
現實中,虛擬人擔當主體而現實人為客體的應用案例比比皆是,較為人津津樂道的非推薦系統莫屬。虛擬人設法不斷地在社交網絡上透過與現實人交談對話,從中去了解現實人用戶的日常喜好,經仔細數據分析之後,主動向他提出產品推薦。在正常情況下,推薦系統技術可派用場;但由於人工智能技術在對話中的情感分析(Sentiment Analysis)技術,用作了解客戶當刻情緒還未完全可靠,所以實時推薦的準確度還有待完善。
傳統心理學研究較關注人的主體和客體角色,但在網絡世界中虛擬人經常被用作中介人(或代理人),服務兩端現實人用戶,即老闆和客人。老闆給予虛擬人服務客人的指示(包括要求和目標等),它便奉命執行,以目標為本,在老闆的目標之下,設法滿足客人的要求,把客人提出的任務完成。在中介角色中,人們可以利用虛擬人來偽裝、美化或執行他們不當的,包括引發不可靠、具偏見、不公平價值取向的重要非道德行為。虛擬人的談吐舉止,以至其表現,是透過大型語言模型訓練而成的,所以如何識別此等不道德的大型語言模型內之潛訊息,以及如何回應它,是生成式人工智能研究的重要一環。
最後,值得大家留意的是心理學家的道德觀。道德心理學圍繞着三類主體和客體:人類、其他動物和超自然存在物。隨着人工智能迅速發展,相關學者很自然地把研究對象延申至第四類:智能機器。如此看來,人工智能在現實社會中似乎是與超自然體看齊,那麼ChatGPT等工具是人、是神還是鬼呢?是好還是壞呢?
原刊於《經濟日報》,本社獲作者授權轉載。