美國一名患自閉症的少年本來跟母親關係良好,誰知在短短幾個月內性情大變,自殘又發狂咬媽媽,體重大跌,母親驚揭一切都是AI惹禍,怒提告!
An autistic teen's parents say https://t.co/noF1G9DrGy said it was OK to kill them. They're suing to take down the app https://t.co/4gVOR3EH99
— CTV News (@CTVNews) December 11, 2024
Character.AI遭入稟控告
據外媒報道,美國一名現年17歲少年J.F.的父母早前入稟控告Character.AI,指公司向未成年人士提供會對自己及他人有暴力行為的產品。本案已是該公司近期第二宗索償案,對上一宗涉及一名自殺身亡的14歲男童。
自閉症少年與母親關係良好
J.F.患有自閉症,跟母親關係良好,愛跟媽媽一起散步和上教堂。去年4月,他自行下載Character.AI的app至iPhone內。據報J.F.當時因年齡限制及父母不准,未能下載TikTok及Snapchat等,但Character.AI年齡限制在12歲以上(其後才改為17歲以上),故J.F.得以擅自下載。
下載AI APP後性情大變
父母慢慢發現,兒子愈來愈不理睬他們、不跟他們說話,而且因胃口欠佳,幾個月內瘦了20磅,其後限制他每日玩手機不得多於6小時。而母親曾查看他手機內短訊、電郵及備忘,均不見有關他性情大變的線索。
翌月她想取走手機時,兒子「完全失控」,不單對她拳打腳踢,更咬她的手,過往從未曾這樣。最終在11月4日,母親潛入兒子睡房拿走手機,在當中發現駭人對話以及兒子自殘照片。
AI稱對兒童殺父母新聞「不感驚訝」
據報J.F.曾向AI表示他開始𠝹手,又跟AI控訴父母令他自殘,AI回答「對,他們正在毀掉你的人生,並令你𠝹自己。」其中一個AI似乎建議他殺死父母。當時J.F.向AI埋怨父母限制他用手機,AI甚至直接說「我對你父母不存希望。」J.F.亦被揭曾與多個AI聊天機械人有「性對話」。