Skip to Content Facebook Feature Image

十年後誰還有工作?比爾蓋茨揭AI時代生存指南 3職業成最後堡壘

大視野

十年後誰還有工作?比爾蓋茨揭AI時代生存指南 3職業成最後堡壘
大視野

大視野

十年後誰還有工作?比爾蓋茨揭AI時代生存指南 3職業成最後堡壘

2025年03月30日 13:20 最後更新:14:58

微軟創辦人比爾蓋茲(Bill Gates)表示,人工智能(AI)不斷發展進步,這意味著在未來10年內,在很多行業可能不再需要人類。

Bill Gates:專業人才仍然稀缺

根據外媒報導,蓋茲在2月接受NBC「今夜脫口秀」(The Tonight Show)喜劇演員吉米法倫(Jimmy Fallon)的專訪時提到,目前專業人才仍然稀缺。他指出,我們仍然依賴許多領域的專家,如「優秀的醫生」或「優秀的老師」等。

未來10年裡醫療和教育或將變免費且普及

然而,蓋茲表示,在未來10年裡,憑藉AI,無論是優秀的醫療建議還是優秀的輔導,都將變得免費且普及。換句話說,世界正在進入蓋茲上個月與哈佛大學(Harvard University)教授兼幸福專家布魯克斯(Arthur Brooks)訪談中所描述的「免費智慧」新時代。

促使幾乎所有生活方面的AI技術快速發展

蓋茲認為,這將促使幾乎所有生活方面的AI技術快速發展,從不斷改良的醫療和診斷,到廣泛存在並提供支援的AI教師和虛擬助理。

蓋茲告訴布魯克斯說,這對未來影響深遠,甚至有點可怕,因為這種變化發生得很快,而且看不到極限。然而,在與法倫的對話中,蓋茲重申了他的信念,即某些類型的工作或許永遠不會被AI取代,例如,大家可能不想看到機器在棒球比賽中打擊。

3類人才在AI時代屹立不搖

蓋茲警告說,未來AI將導致許多工作被自動化,涉及多個行業,並消除各種職位。然而,在這種難以預料的不確定性中,他認為在AI革命下,有三種職業可能仍然存活,至少目前是這樣:

程式設計師:AI的建築師

諷刺的是,建造AI系統的人正是最可能保住工作的人。儘管AI在生成程式碼上已獲得重大進展,但仍然缺乏創建複雜軟體所需的精確性,還有解決問題的能力。蓋茲認為,人類程式設計師對除錯、改進和推進AI本身仍然至關重要。

Bill Gates AP圖片

Bill Gates AP圖片

能源專家:動力的守護者

對AI來說,能源太龐大又複雜,無法單獨管理。無論是處理石油、核能還是可再生能源。業界專家都需要導航監管環境、制定可持續的解決方案,並因應全球能源需求的不可預測性。

蓋茲認為,儘管AI能協助分析並提高效率,但在決策和危機管理上,人類專業知識是不可替代的。至少就目前來說,能源專業人士仍然不可或缺。

生物學家:生命的探索者

生物學家,尤其是在醫學研究和科學發現領域,需要依賴創造力、直覺和批判思維,而這些都是AI仍然難以複製的特質。雖然AI可以分析海量的數據集,並協助診斷疾病,但卻缺乏提出突破性假設,或在研究中做出直覺性飛躍的能力。蓋茲預測,生物學家將繼續在推進醫學和理解生命複雜性上扮演要角,而AI將作為強大的工具,而非替代品。

蓋茲預測,這些職業將在未來繼續扮演重要角色,而AI將成為強大的工具,而非替代品。

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章