Skip to Content Facebook Feature Image

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

2023年11月25日 15:20 最後更新:19:14

美國健康保險公司UnitedHealthcare涉嫌使用AI推翻醫生的判斷以拒賠患者醫療費,被病人家屬聯合上訴。

UnitedHealthcare是美國最大的健康保險公司,2019 年11月,該公司開始使用 nH Predict人工智慧算法,該AI算法用於估算病人需要多少後期護理,通過在包含600萬個病例的資料庫中提取資訊,來估算後期護理大致需要多久。保險公司的人只需要將客戶的年齡、生活狀況、身體機能等資訊輸入進去,AI就會自動給出一系列估計,包括客戶的醫療需求是什麼、出院日期在哪天等。

然而,nH Predict有嚴重缺陷,它並不能預測醫療併發症,患者往往在療養院住不超過14天,就會收到拒保通知。更致命的是,這款AI算法是NaviHealth開發的,而NaviHealth則是UnitedHealthcare的子公司。也就是說,該AI推斷出來的結果,全由UnitedHealthcare控制。

2022年,91歲的吉恩(Gene Lokken)在家中摔倒。老人骨質較為疏鬆,腿骨和腳踝均發生骨折。在醫院住了六天后,他被轉移到護理中心,又花了一個月逐漸恢復。醫生說他的情況有所好轉,可以開始物理治療了。

觀看影片

對老人來說,物理治療註定是一個漫長的過程,然而僅在19天之後,UnitedHealthcare就拒絕再支付治療費,並發出一封拒絕信,稱「他沒有嚴重的醫療問題。」但醫生和治療師均認為老人的肌肉功能仍然「麻痹且虛弱」,也就是說應該繼續治療。

家人很憤怒,向保險公司提出異議,但也被對方駁回,無奈下只得自掏腰包,直到老人過世。這家人在買了保險的情況下,仍多花了15萬美元(約117萬港幣)。

UnitedHealthcare官網截圖

UnitedHealthcare官網截圖

類似的,74歲老人戴爾(Dale Tetzloff)突發中風,住院治療後,醫生將其轉到一家專業的護理院,說他需要至少100天的後續護理。僅僅住了20天,UnitedHealth便拒絕繼續付款。

他的家人給UnitedHealth連續發了兩次異議,在第二次,經NaviHealth的醫生審查後,保險公司同意繼續付款。然而住到第40天時,保險公司再度停了付款,並且拒絕給出理由。家人又嘗試發出異議,可再也沒成功,老人被轉移到養老院四個月後便過世了,從老人中風到去世這段時間,他的家人額外多花了約7萬美元(約54萬港幣)。

示意圖。設計圖片

示意圖。設計圖片

為了討回公道,早前這兩家人聯合起來,將UnitedHealthcare告上了法庭。他們還在尋找全美各地的數萬名潛在受害者,打算進行集體訴訟。在訴訟進行期間,有媒體對UnitedHealth展開了調查,而調查結果很大程度上和兩家人的主張吻合,即該公司使用了存在嚴重缺陷的AI演算法來推翻醫生的判斷。

訴訟文件稱,當患者或者醫生要求查看AI生成的報告時,會被UnitedHealth以“商業機密”為由拒絕。而且,如果醫生執意反對AI做出的判斷,UnitedHealth也會依然以AI為准,這背後的原因是:醫生的判斷太費錢,而AI能省錢。

示意圖。設計圖片

示意圖。設計圖片

根據幾個匿名前員工的爆料,自2020年UnitedHealth收購了NaviHealth後,公司的重點就開始朝著績效、指標轉移了。儘管AI有著明顯的缺陷,但是在過去兩年中,員工們得到的指示仍然是盡可能靠近AI的預測,也就是儘早讓患者出院,給公司省錢。

沒人知道UnitedHealth究竟通過AI省了多少錢,據外媒估計每年能省幾億美元,但具體數字只能猜測,目前,該訴訟仍在進行中。

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章