Skip to Content Facebook Feature Image

ChatGPT都「躺平」?回答緩慢簡短甚至無視指令 OpenAI咁回應

大視野

ChatGPT都「躺平」?回答緩慢簡短甚至無視指令 OpenAI咁回應
大視野

大視野

ChatGPT都「躺平」?回答緩慢簡短甚至無視指令 OpenAI咁回應

2023年12月15日 14:20 最後更新:15:42

ChatGPT被發現回答緩慢甚至無視指令, 遭用戶質疑是否程式出了問題,對此OpenAI這樣回應。

據最新報導,由OpenAI開發的ChatGPT在近期出現了一些問題。一些使用者指出,ChatGPT的回答變得緩慢且簡短,有時甚至會無視指令。OpenAI承認這種情況是出乎預料的,並懷疑與未更新軟件有關,表示正在努力解決這個問題。

有使用者在社交平台上提到,從11月份開始,ChatGPT的回答變得更慢了。一些AI工程師發現,在處理某些請求時,如轉換文件或編寫程式碼,GPT-4不再像以前那樣全力以赴。有時甚至會不提供完整的解答,或者對複雜的問題避而不答。

AP圖片

AP圖片

ChatGPT的問題早在11月底就有跡象。有使用者在社交網站上表示,OpenAI對GPT-4進行了安全限制,這導致ChatGPT變得懶散無能。例如,當用戶要求轉換文件時,ChatGPT的回答過於簡短;要求編寫一個表格時,它只提供了前三行;要求閱讀一個連結時,它回應無法執行;要求讀取Python檔案時,ChatGPT直接回答不允許。

AP圖片

AP圖片

有人打趣表示這可能與天氣有關,並形容ChatGPT像是在冬眠或「躺平」。一些使用者表示,當他們鼓勵或讚揚ChatGPT時,它的回答速度會變快,並且會像人類一樣給予鼓勵和建議,例如「深呼吸一口氣」再解數學問題。但也有人懷疑其中可能存在複雜的情況,ChatGPT可能已經具備了某種程度的自我意識。

Unsplash 資料圖片

Unsplash 資料圖片

OpenAI的發言人強調,從11月11日以來他們沒有對ChatGPT的模型進行任何修改。他們承認ChatGPT出現問題,並解釋這主要是因為模型未被更新所導致的。然而,OpenAI並未有意不更新模型,他們目前正在努力解決這個問題。

往下看更多文章

研究揭AI開始識「講大話」兼具野心 科學家警告:人類不加控最終遭奪權或滅絕

2024年05月12日 17:20 最後更新:05月14日 16:58

美國一項最新研究報告,證實人工智慧(AI)曾經在遊戲中說謊,警告如不及早防範,人類最終會遭奪權甚至滅亡。

示意圖。設計圖片

示意圖。設計圖片

研究報告在模式期刊發表

《ScienceAlert》報道,麻省理工學院(Massachusetts Institute of Technology)針對AI存在安全的研究員帕克(Peter Park),在「模式」(Patterns)期刊發表的文章指出,原本設計為誠實不欺的現有AI系統,已發展出令人不安的說謊技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證。

示意圖。設計圖片

示意圖。設計圖片

AI行為可能變得不受控且無法預測

帕克指出能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」,也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。

示意圖。設計圖片

示意圖。設計圖片

AI系統Cicero表現異常

研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。

示意圖。設計圖片

示意圖。設計圖片

Cicero欺騙人類偷偷通風報信

但當帕克與同事深究完整資料時,發現完全是另一回事。舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。

AI野心大會追求權力及掌控社會

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。研究報告警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。

你 或 有 興 趣 的 文 章