Skip to Content Facebook Feature Image

AI倫理引關注 科技巨頭轉向宗教領袖尋求指引

大視野

AI倫理引關注 科技巨頭轉向宗教領袖尋求指引
大視野

大視野

AI倫理引關注 科技巨頭轉向宗教領袖尋求指引

2026年05月08日 08:02 最後更新:08:14

隨着外界對人工智能(AI)及其迅速融入社會的擔憂日益加劇,科技公司正日益轉向信仰領袖尋求指導,以塑造這項技術。這與矽谷長期以來對有組織宗教的懷疑態度形成驚人轉變。

上周,來自不同宗教團體的領袖與包括Anthropic和OpenAI在內的公司代表,在紐約舉行了首屆「信仰與AI盟約」圓桌會議,討論如何最好地將道德和倫理注入這項快速發展的技術。會議由總部設於日內瓦的跨信仰安全社區聯盟組織,該聯盟旨在應對極端主義、激進化和人口販賣等問題。預計這將是全球多場圓桌會議中的首場,其他會議將在北京、內羅比和阿布扎比等地舉行。

檔案圖片:2024年8月25日,瑞士琉森舊城聖彼得教堂的告解室內,一個名為《機器中的上帝》(Deus in Machina)的人工智能耶穌實驗藝術裝置。 (美聯社圖片/Urs Flueeler/Keystone) AP圖片

檔案圖片:2024年8月25日,瑞士琉森舊城聖彼得教堂的告解室內,一個名為《機器中的上帝》(Deus in Machina)的人工智能耶穌實驗藝術裝置。 (美聯社圖片/Urs Flueeler/Keystone) AP圖片

這項倡議的關鍵合作夥伴、喬安娜·希爾茲女男爵指出,科技高層需要認識到他們在做出正確決策方面的權力與責任。她曾在Google和Facebook擔任科技高層,其後轉投英國政界。

她表示:「法規無法跟上這項技術的發展。」但她認為,全球擁有數十億追隨者的世界宗教領袖,具備「引導人們道德安全」的專業知識。希爾茲強調,信仰領袖應該擁有發言權。

檔案圖片:2023年5月8日,非牟利組織「人道智能」(Humane Intelligence)聯合創辦人魯曼·喬杜里(Rumman Chowdhury)在德州凱蒂的家中拍照。該組織致力於開發負責任的人工智能系統。 (美聯社圖片/David J. Phillip) AP圖片

檔案圖片:2023年5月8日,非牟利組織「人道智能」(Humane Intelligence)聯合創辦人魯曼·喬杜里(Rumman Chowdhury)在德州凱蒂的家中拍照。該組織致力於開發負責任的人工智能系統。 (美聯社圖片/David J. Phillip) AP圖片

談及AI科技高層,她說:「這種對話、這種直接聯繫非常重要,因為那些正在構建這項技術的人明白他們所構建的潛力與能力,而且他們希望做得正確——他們中的大多數人。」

希爾茲指出,這項倡議的目標是最終形成一套由不同團體和信仰(從基督徒到錫克教徒再到佛教徒)所啟發的「規範或原則」,供各公司遵守。

檔案圖片:2026年2月26日,紐約的電腦屏幕上顯示安德羅匹克(Anthropic)網站頁面及公司標誌。 (美聯社圖片/Patrick Sison) AP圖片

檔案圖片:2026年2月26日,紐約的電腦屏幕上顯示安德羅匹克(Anthropic)網站頁面及公司標誌。 (美聯社圖片/Patrick Sison) AP圖片

出席會議的有多個信仰團體,包括北美印度教寺廟協會、巴哈伊國際社群、錫克教聯盟、美國希臘東正教總教區以及耶穌基督後期聖徒教會(廣泛稱為摩門教)的代表。

在這些公司主動接觸之前,一些傳統信仰已就AI的使用發布了自己的道德指引。耶穌基督後期聖徒教會在其手冊中對這項技術給予了有條件的認可。手冊中寫道:「AI不能取代神聖啟示的恩賜,也不能取代獲得啟示所需的個人努力。然而,AI可以成為增強學習和教學的有用工具。」

美國最大的新教教派美南浸信會於2023年通過一項決議:「我們必須積極參與並塑造這些新興技術,而不是在AI和其他新興技術已經影響我們的教會和社區之後,才被動應對其挑戰。」

紐約拉比委員會的副執行副主席、圓桌會議參與者戴安娜·格森拉比指出,制定一份共同原則清單的挑戰在於,全球信仰儘管有共同點,但在價值觀和需求上仍存在差異。她說:「宗教社群對優先事項的看法不同。」

這次合作突顯了信仰與科技之間日益壯大的聯盟,其源於創造道德AI的努力——這是一個備受爭議的概念,引發了關於其可能性及其意義的問題。

Anthropic在其為聊天機械人編寫的公開「Claude憲章」中指出:「我們希望Claude能夠像一個在Claude位置上,具備深刻且熟練道德的人那樣行事。」該憲章是在眾多宗教和倫理領袖的幫助下制定的。

在這個新興聯盟中,Anthropic至少在公開層面上,在爭取信仰領袖方面表現得最為積極。此舉發生在今年早些時候,Anthropic與五角大樓就人工智能的軍事用途發生公開爭議之後。當時Anthropic表示,將限制其技術用於開發自主武器或對美國人進行大規模監控。

非牟利組織生命未來研究所的美國信仰聯絡員布萊恩·博伊德表示:「這其中有公關的成分。他們的口號是『快速行動,打破常規』。但他們打破了太多東西,傷害了太多人。」他續指:「公司遲遲才認識到道德義務,同時我認為,對於公司的一些成員來說,這也是一種真誠的質疑。」

然而,其他AI監管和安全倡導者對這些努力是否真誠表示懷疑。

非牟利組織人道智能的行政總裁兼拜登政府AI科學特使魯曼·喬杜里認為:「往好處想,這是一種分散注意力。往壞處想,這是在轉移人們對真正重要事情的關注。」

喬杜里表示,她不傾向於相信宗教是幫助回答AI和倫理問題的最佳途徑,但她認為自己理解為何公司日益轉向宗教。

她說:「我認為矽谷幾年來對生成式AI抱持一種非常天真的看法,認為我們可以達成某種普遍的倫理原則。他們很快就意識到這根本不真實。所以現在他們可能將宗教視為處理倫理灰色地帶模糊性的一種方式。」

目前尚不清楚這些以不透明著稱的公司,在多大程度上將從信仰領袖那裡聽到的內容轉化為實際行動——以及這些行動可能呈現何種形式。但一些批評者擔心,關於創造道德版技術的討論,會分散人們對AI及其在社會中作用的更廣泛討論的注意力。

分散式人工智能研究所的首席研究工程師迪倫·貝克表示:「在『我們要建造所有這些東西。這是既定的。當我們以這些方式建造這些東西時,如何確保最終結果可能是好的』的幌子下,這就像是『等等,等等,等等。我們需要質疑我們是否應該建造這些東西。』」

(美聯社)

益普索最新調查顯示,半數歐洲年輕人寧願向聊天機械人傾訴自己的心聲,也不願告訴真實的人,因為聊天機械人永遠在線,並且不評判、不打斷、不疲憊、不匆忙。

6成受訪者將聊天機械人當做精神依靠

據外媒報導,報告指出,在11歲至25歲青少年受訪者中,51%認為通過數字智能介面溝通心理健康話題,比和專業醫護人員面對面交流更加輕鬆。僅有49%曾諮詢過真人從業者,37%求助過心理諮詢師。與此同時,60%的年輕人將聊天機械人當做精神依靠。

觀看影片

聊天機械人隨時待命

聊天機械人的核心魅力,在於模擬全天候傾聽:秒回信息、不會尷尬、不會讓人產生自卑壓力,更不用直面他人審視的目光。據意大利校園平台Skuola.net調查,46%的受訪者會向聊天機械人傾訴自我,近11%每天都這麼做。40.3%的青少年坦言,已經和數字助手建立起情感羈絆。

示意圖。設計圖片

示意圖。設計圖片

AI不再只是學校工具

AI不再只是用來學習、寫作、查資料的工具,而是闖入了脆弱的情感私密地帶。受訪青年中,60%覺得和AI傾訴的體驗十分治癒,核心原因就是永遠不會被評判。

示意圖。設計圖片

示意圖。設計圖片

專業人士有時也難以分辨AI與真人

研究作者之一弗蘭克坦言,即便是資深專業人士,有時也難以分辨哪些建議出自AI演算法、哪些來自真人專家。人工智慧24小時隨時待命、程式設定好安撫模式、能適配使用者的說話習慣與內心軟肋。這份研究最殘酷的結論,不是年輕人愛上和AI聊天,而是太多孩子已然覺得身邊再也找不到可以真心傾訴的人。

你 或 有 興 趣 的 文 章