Skip to Content Facebook Feature Image

AI教父證實離職Google 警告人工智慧將比人類聰明

AI教父證實離職Google 警告人工智慧將比人類聰明

AI教父證實離職Google 警告人工智慧將比人類聰明

2023年05月02日 18:58 最後更新:19:55

「AI教父」辛頓(Geoffrey Hinton)於5月1日證實,上周已經辭去Google的工作。辛頓接受外媒採訪時坦言後悔畢生心血,並且警告AI可能變得比人類更聰明。

雜誌《Die Aktuelle》使用人工智能生成對七屆一級方程式冠軍的模擬採訪時,引發了西方社會極大憤怒。網上圖片

雜誌《Die Aktuelle》使用人工智能生成對七屆一級方程式冠軍的模擬採訪時,引發了西方社會極大憤怒。網上圖片

台媒報道,75歲的辛頓在神經網絡領域取得開創性成就,因而深刻形塑現代科技使用的人工智慧系統。他在Google工作逾10年並且參與AI研發計劃,如今卻開始擔憂這項科技和自己在推動AI中扮演的角色。

更多相片
雜誌《Die Aktuelle》使用人工智能生成對七屆一級方程式冠軍的模擬採訪時,引發了西方社會極大憤怒。網上圖片

雜誌《Die Aktuelle》使用人工智能生成對七屆一級方程式冠軍的模擬採訪時,引發了西方社會極大憤怒。網上圖片

辛頓。資料圖片

辛頓。資料圖片

馬斯克與一群AI專家認為近月月人工智能實驗室陷入了一場失控的競賽。AP圖片

馬斯克與一群AI專家認為近月月人工智能實驗室陷入了一場失控的競賽。AP圖片

AP圖片

AP圖片

辛頓擔心AI可能削減工作機會,創造出一個許多人「再也無法分辨真相」的世界。他指出,AI驚人的發展速度已經遠超出他與其他人的預期,「有一種想法認為,這個東西真的會變得比人類更聰明,一些人這麼認為,但大多數人覺得差得遠了。我也曾覺得太離譜,我認為還差了30到50年,甚至更久的時間。顯然,我不再這麼認為了。」

辛頓。資料圖片

辛頓。資料圖片

辛頓坦言,以前「我用常見的藉口安慰自己,如果我沒有做,別人也會做的」,如今離職並不是為了批評Google,「我離開是為了談論AI的危險,又不用考慮這會如何影響Google。Google的行為非常負責任。」

2021年,辛頓在孟買印度科技學院演講時就曾表示,「我相信AI的快速發展將以一個我們不完全理解的方式改變社會,並非所有影響都會是好的。」他指出,AI將能促進醫療保健,同時也為致命自動化武器創造機會,「我認為,這個前景比機器人取代人類更直接也更可怕」,後者反而還有很長一段路要走。

馬斯克與一群AI專家認為近月月人工智能實驗室陷入了一場失控的競賽。AP圖片

馬斯克與一群AI專家認為近月月人工智能實驗室陷入了一場失控的競賽。AP圖片

2022年6月,Google工程師勒莫因(Blake Lemoine)在網路公開對話紀錄,宣稱AI聊天機器人LaMDA具備感知能力,甚至就像一個「7、8歲的孩子」,但此說法遭到許多AI界人士強烈反彈,他也因為違反員工及數據安全政策被開除。

外媒報道,ChatGPT熱潮進一步推動科技業的「軍備競賽」,OpenAI、微軟及Google處於趨勢前列,IBM、亞馬遜、百度及騰訊也在研究類似技術。不過,越來越多立法者、倡議團體及科技業人士警告,AI聊天機器人可能散播假消息及取代人類工作。2023年3月,特斯拉執行長馬斯克與逾千名科技巨頭連署發表公開信,呼籲停止訓練AI系統至少6個月,理由是「對社會及人類的深刻風險。」

AP圖片

AP圖片

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章