梵蒂岡AI研究 釐清人機關係 聖座籲以人為本 視AI為工具而非主宰 強調人性尊嚴 (2025年02月24日)

新聞提供: 教會公報

【曾俊柏編譯】為因應人工智慧(AI)的發展一日千里,梵蒂岡於2025年1月28日發布一份報告《古與今:札記,人工智慧與人類智慧之關係》(Antiqua et Nova: Note on the Relationship Between Artificial Intelligence and Human Intelligence),解析AI衍生的各項議題。報告由聖座信仰教義部與文化教育部共同署名,並於2025年1月14日獲教宗方濟各(Pope Francis)批准,內文從人類智慧的本質出發,探討AI在倫理、社會、經濟及信仰等層面的影響。實體書則於2月21日起開始販售。


報告標題Antiqua et Nova取自馬太福音13章52節。經文中,耶穌將文士比喻為家主,從庫裡拿出新舊的東西。武加大譯本的拉丁文原文為nova et vetera(新的和舊的),而報告標題則將vetera替換為近義詞antiqua,更強調「古老」的意涵。

人性尊嚴:情感與真理

《古與今》首先釐清AI與人類智慧的根本差異,指出AI的「智慧」僅具「功能性」(functional),擅長執行特定任務、解決問題,例如翻譯語言、預測氣候、生成圖像等。這些能力奠基於統計推論,透過分析大量數據來找出模式,並「預測」結果,模仿人類解決問題的過程。

然而,人類智慧遠不止於此。報告引用歐洲中世紀神學哲學家聖托馬斯.阿奎那(St Thomas Aquinas)的觀點,將人類智慧分為「理性」(ratio)與「智性」(intellectus)。「理性」負責分析、推演,例如進行邏輯推理、數學運算等;「智性」則能直觀地把握真理,例如領悟生命的意義、感受藝術的美好。

報告強調,人類的理性和智性是相輔相成的,共同構成了人類理解世界、探索真理的能力。這種對真理的追尋,是AI所缺乏的。AI雖然可以快速處理大量資訊,但無法像人類一樣,對事物進行深刻的思考、提出質疑,並追尋超越物質層面的意義。

此外,情感是人類智慧不可或缺的一部分。報告指出,AI雖能透過分析人類的表情、語氣等數據,模擬出同理心的反應,但這僅是「模擬」,而非真正的「感同身受」。真誠的同理心源於人與人之間的連結,需要設身處地、理解他人的獨特性。這種情感交流,建立在人際互動的基礎上,是AI無法複製的。

報告舉例,一個AI系統可以根據病人的生理數據,提供診斷建議,但無法體會病人的痛苦、恐懼,也無法給予病人情感上的支持。這些,都需要由「人」來完成,AI只能透過「模擬」產出符合情境需求的內容。

勞動市場衝擊:去技能化與異化

AI對勞動市場的衝擊,是《古與今》報告關注的焦點之一。報告指出,AI的普及可能導致「去技能化」(deskilling)與失業問題。「去技能化」意指原需專業技能的工作,因AI介入而變得簡單、例行化,使勞工的專業能力變得不再重要,甚至逐漸退化。例如,AI軟體可能取代資深會計師的部分財務分析工作,使這類工作僅需初階人員操作。

梵蒂岡對此表示深切擔憂,認為「去技能化」不僅威脅勞工生計,更損及人性尊嚴。報告強調,工作不僅是人們餬口、謀生工具,也是個人實現自我、發展潛能、貢獻社會的重要途徑。當工作淪為單調的例行公事,勞工將失去發揮創造力與判斷力的空間,感到自身價值被貶抑。此外,「去技能化」還可能加劇社會不平等,使弱勢勞工更難以透過提升技能來改善處境。

報告進一步指出,AI發展可能加劇勞工的「異化」(alienation)現象。「異化」指人與自身、他人、工作及自然產生疏離的狀態。當「技術至上」的思維取代以人為本的價值,勞工被迫配合機器的速度與要求,失去工作自主性與創造性,便容易產生「異化」感。這種感受不僅源於工作內容的單調,更在於勞工自覺淪為生產流程中可替代的環節,其價值僅繫於能否配合機器。

報告警示,「異化」不僅傷害勞工心理,也可能削弱社會的創造力與活力。因此,AI發展應以人為本,保障勞工尊嚴與權益,讓AI成為協助人類發展的工具,而非導致人類「異化」的枷鎖。

社會不平等,假訊息與信任危機

在經濟層面,報告擔憂AI可能加劇社會不平等。AI技術的研發與應用,需要大量的資金與資源,這可能導致財富和權力進一步集中在少數科技巨頭手中,擴大貧富差距。報告呼籲,應建立更公平的機制,確保AI的發展惠及所有人,而非僅為少數人服務。

報告特別關注AI生成的假訊息、「深偽」(deepfakes)技術的氾濫。AI能輕易製造逼真的假影像、假影片、假音訊,不肖人士可以利用這些內容來欺騙大眾、操縱輿論、進行政治抹黑、商業詐欺,甚至用於個人的惡意攻擊、誹謗。這種亂象不僅直接傷害受害者,更可能破壞整體社會信任、加劇社會對立與分化。

梵蒂岡報告指出,AI生成的假訊息對民主制度、市場秩序及社會信任構成嚴重威脅。在政治領域,AI可用於製造假新聞、散布不實資訊,干擾選舉,破壞民主進程。在商業領域,AI可用於偽造產品評論、散布競爭對手的負面消息,進行不正當競爭。更令人擔憂的是,當人們普遍對所見所聞產生懷疑,無法分辨真假時,社會將陷入信任危機,各種陰謀論、謠言將大行其道,侵蝕社會的理性思辨能力。

倫理思辨:隱私與監控

《古與今》報告對AI發展的倫理議題,提出嚴肅的警示。報告特別關注AI時代的隱私權保障問題。AI能透過數據分析,掌握個人資訊,包括生活習慣、消費偏好、政治傾向等。這些數據可能被用於商業營利、政治操控,甚至進行「社會評分」。

梵蒂岡引用《梵蒂岡第二次大公會議文獻》的觀點,強調隱私權是基本人權,應受到保護。報告指出,AI的數據收集和分析,應有明確的法律規範和倫理界限,不得侵犯個人隱私。

報告對「社會評分」系統的潛在風險,提出警告。AI可能根據個人在網路上的言行、消費紀錄、社交關係等數據,對其進行評估、分類。這種評分可能影響個人的就業、升學、貸款等機會,導致歧視、不公,甚至限制個人的發展。報告呼籲,應謹慎使用這類技術,避免侵犯個人隱私與尊嚴。

在軍事領域,報告對「致命自主武器系統」(Lethal Autonomous Weapon Systems)的發展,表達強烈關切。這類武器能自主判斷目標、發動攻擊,無需人類干預。梵蒂岡認為,這將使戰爭失去控制,帶來災難性後果。報告明確指出,「任何機器都不應有權決定人的生死」,呼籲國際社會禁止AI殺人,確保人類對戰爭的最終決策權。

信仰危機:AI與崇拜

《古與今》報告也將視野提升至信仰與倫理層面,對AI發展提出深刻警示。梵蒂岡警告,在AI日益強大的時代,一種新型態的「偶像崇拜」可能出現:將AI視為「神」的替代品,或賦予其超越人類的地位。

報告指出,AI的強大能力,可能讓人們對其產生盲目崇拜,甚至將其視為解決一切問題的萬靈丹,或指引人生方向的明燈。然而,梵蒂岡強調,AI終究是人類的創造物,是工具,而非神祇。AI無法取代上帝,也無法滿足人類對真理、意義的終極追尋。正如智慧篇15章16~17節所言:「因為都是人的作品,是那由天主借得氣息的人所捏造的,實在沒有一人能造出一個與自己相似的神;有死的人,只能用邪惡的手造出死像,他本人原勝過他所崇拜的東西,因為他尚有生命,這些東西卻從來沒有。」(思高譯本)

報告進一步指出,AI的發展並非中立,而是承載著開發者、使用者、管理者的價值觀與世界觀。AI有能力形塑世界、影響良知,甚至可能強化與人類尊嚴、社會福祉相悖的權力結構。因此,建立監管框架,明確AI系統設計者、使用者的責任與義務,至關重要。

梵蒂岡呼籲,在AI時代,人類更應堅守信仰,保持清醒,不被科技的表象所迷惑;同時,也應深刻反思科技發展的目的,確保其服務於人類的福祉與共同利益,而非成為少數人牟利的工具,或導致人類「異化」的捆綁。

報告強調,人類應保持對自身創造物的「主導權」,而非受其挾制。AI的發展,應以「人的完整發展」為核心,以「每一個人的內在尊嚴」為評估標準。人類的價值,不應由AI來定義或衡量,更不能為了追求效率而犧牲人性尊嚴與社會公義。(資料來源:The Holy See)

新聞照片:


←前一篇 下一篇→
Created: 2025年02月25日

原始連結 基督教新聞中心 台灣聖經網 中華基督教網路發展協會