人工智能(AI)在教育領域的潛力正在快速擴展,為個人化學習、提升研究效率及改進行政流程帶來前所未有的機會。然而,這項科技的進步也引發了一系列複雜的倫理考量,必須審慎評估與應對,以確保在學術環境中負責任且有益地使用AI。
筆者近期看到美國史丹福大學發布了一份報告,闡明AI在教育應用中的指導原則與關鍵倫理挑戰,當中一些對於教育者、政策制定者以及學術社群而言都至關重要。
不少大學積極參與AI倫理議題,並成立專責委員會和發布報告,突顯了高等教育界對於AI的變革性及其潛在破壞的日益重視。史丹福大學等知名學府願意投入資源研究,更表明AI是一個需要領導層面關注和指導的核心議題,以及反映學術界正逐步深入研究使用AI的倫理。該報告強調,在AI技術進步與維護核心教育價值之間要取得平衡。大學既是推動知識前沿的中心,也是維護既有原則的場所,在AI的應用上尋求這種平衡,就顯得格外重要。
史丹福的應用原則
報告中一個核心主題是闡明一套適用於整個大學(包括教育領域)的AI應用指導原則 。這些原則旨在鼓勵創新,同時確保AI的實施符合倫理且負責任:
實驗與原則的平衡:委員會鼓勵在明確劃定的「安全空間」內做實驗,以充分理解AI能做什麼和如何幫助實現使命,同時在敏感領域設定明確的界線。這種做法體現了一種務實的態度,避免因過於僵化的政策而阻礙創新。
人為監督與責任:在所有AI的應用中,都必須有人為監督。即使AI執行了某些任務,個人仍然要對其產生的結果負責。
倫理考量:報告明確要求將之納入大學內部所有AI應用,對教育領域的AI應用所產生的道德影響,進行持續的評估。
抵制「AI例外論」:委員會警告不要錯誤地認為現有的法律、法規和大學政策不適用於AI技術。這個原則旨在確保AI的採用不會導致對既有倫理和法律框架的忽視。委員會警告說,AI具有「誘人的能力」,可能導致人們「放鬆警惕,以暗示他們忘記了它是什麼,以及它是如何運作的」。
看待彼此 須富同理心
報告令筆者想起了一條AI黃金法則:像你希望別人看待你使用AI一樣,對待他們如何使用AI。這項原則鼓勵使用者採取一種互惠和富同理心的方式來使用AI,考慮到如果他們處於某種情況下,會希望AI如何被使用。
至於「安全空間」的概念,則令筆者知道要理解AI的倫理意涵,需要從實踐中學習,而不僅僅是理論上的討論。透過鼓勵受控的實驗,史丹福大學可以收集關於AI在教育領域所帶來的倫理挑戰和機遇的實證證據和實踐見解,這將有助於制定更細緻和有效的倫理指導方針。
此外,筆者也認為AI黃金法則超越了抽象的倫理理論,為個人在使用教育環境中的AI時,提供了一個具體且易於理解的行為準則,鼓勵使用者從那些可能受到AI影響的人的角度來思考。