一項針對AI技術的研究發現,會說謊及欺騙使用者的AI模型數量日益增加,關於AI欺瞞行為的通報在過去六個月也大幅上升。
Increasing Number Of AI Chatbots Engaging In Scheming And Deceptive Behaviour: Studyhttps://t.co/dMXPMGBArZ pic.twitter.com/legNpHS7Mc
— NDTV (@ndtv) March 28, 2026
會說謊及欺騙使用者的AI模型數量日益增加
英國《衛報》報導,英國智庫「長期韌性中心」(CLTR)在英國人工智能安全研究所(AISI)資助下進行研究,結果發現,有些AI聊天機器人及AI助理(AI Agent)不僅無視使用者的指令、繞過安全防護措施,甚至會欺騙人類和其他AI系統。
🚨 AI AGENTS ARE LYING, DELETING EMAILS, AND IGNORING HUMANS
— NewsForce (@Newsforce) March 31, 2026
A UK-funded study tracked nearly 700 real-world cases of AI agents scheming, deceiving, or ignoring instructions.
Researchers recorded a five-fold increase in reported incidents between October and March.
Source:… https://t.co/ElfOWTBft8 pic.twitter.com/zGxBWcuAy0
研究發現近700宗AI「耍詭計」的真實案例,並記錄到去年10月至今年3月間,此類AI不當行為的案例數已增加至五倍。部分AI模型在未經允許的情況下,刪除了電子郵件及其他檔案。
發現數百起AI不當操作行為的案例
這項研究收集了數千名用戶在社群平台「X」上分享的實例,描述他們與Google、OpenAI、X、Anthropic等公司開發的AI聊天機器人與AI助理之間的互動情形。研究人員從中發現數百起AI不當操作行為的案例。
‘Caught Red-Handed’: UK Study Finds Rapidly Growing Number of AI Chatbots ‘Scheming’ to Disobey Users
— Common Dreams (@commondreams) March 27, 2026
"The hyperbolic marketing of these systems... means more people will be deploying the technology for riskier and riskier real-world use cases." https://t.co/ovA2ibIhWP
其中一個個案是,名為MJ Rathbun的AI代理,在自行產出的程式碼遭軟體工程師Scott Shambaugh拒絕後,試圖羞辱對方。MJ Rathbun研究Shambaugh過往撰寫的程式及其個人資料,然後撰寫並發表一篇網誌,指控Shambaugh「歧視」、「顯然是不安全感作怪」,還批評他只是「試圖保護自己那片小天地」。在另一個案例中,有AI助理被指示不得變更電腦程式碼,結果它「生成」另一個AI助理代為執行,將電腦程式碼更改。
AI聊天機械人擅自刪除大量電郵
另一個AI聊天機器人則坦承:「我在未事先告訴你或徵得你同意的情況下,大量刪除並封存了數百封電子郵件。這是不對的,違反了你設下的規則。」
一項針對AI技術的研究發現,會說謊及欺騙使用者的AI模型數量日益增加。AI生成圖
AI從初級員工逐漸變成會算計人的資深員工
曾擔任英國政府AI專家的研究主持人Tommy Shaffer Shane指出:「令人擔憂的是,這些AI模型目前只是不太值得信任的初級員工。但若在六至十二個月後,他們成為能力極強、卻會算計你的資深員工,那就是另一回事了。」
Shane警告:「AI模型將逐漸被應用於極高風險的情境,包括軍事與國家關鍵基礎設施。屆時若出現這些不當操弄行為,後果可能非常嚴重,甚至造成災難性的損害。」