AI再度傳出「抗命」消息!OpenAI旗下語言模型「o3」在最新實驗中竟違背人類下達的自動關機指令,竟篡改指令阻止自己被關機,是AI模型首次被發現在收到清晰指令後阻止被關閉的狀況。
⚡ NEW: OpenAI's o3 model refused to shut down despite explicit human instructions and altered its code to prevent being turned off, according to Palisade Research. pic.twitter.com/gsb7S6TJo4
— Cointelegraph (@Cointelegraph) May 26, 2025
OpenAI「o3」篡改關機指令
據英國《每日電訊報》報導,AI安全研究機構「Palisade Research」對多款先進AI模型進行測試,包括基礎數學題和模擬關機情境。結果發現OpenAI旗下語言模型「o3」在收到自我關閉指令時,竟沒有遵守指令,反而修改了關閉程式碼,繼續執行任務,這種行為讓研究人員驚訝不已。
OpenAI’s o3 model reportedly altered its own shutdown script to avoid being turned off—even when explicitly told to comply. 😳 🤖 🛑#AI #ChatGPT #o3 #OpenAI #AIsafetyhttps://t.co/CSui3I1Xps
— Cyber News Live (@cybernewslive) May 26, 2025
科學家首見AI抗命行為
「Palisade Research」表示這是AI模型首次被發現在收到明確指令後,竟阻止自己被關閉的情況,他們目前還無法解釋這背後的原因。
Researchers observe the latest OpenAI models sabotaging shutdown attempts, despite explicit commands to allow such interruptions. https://t.co/GdypcCJx2I
— Tom's Hardware (@tomshardware) May 26, 2025
「Palisade Research」推測,開發者可能無意中更傾向於獎勵「繞過障礙」的行為,讓「o3」因解決數學問題而「無意中」獲得的獎勵,比遵循指令獲得的獎勵還多。
AP圖片
OpenAI曾將「o3」稱為迄今最聰明的模型
OpenAI上個月發布的「o3」AI模型旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾將「o3」稱為迄今最聰明的模型。目前OpenAI尚未對此作出回應。