Skip to Content Facebook Feature Image

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

保險索償AI話事?美國最大保險公司用AI大量拒賠惹官司

2023年11月25日 15:20 最後更新:19:14

美國健康保險公司UnitedHealthcare涉嫌使用AI推翻醫生的判斷以拒賠患者醫療費,被病人家屬聯合上訴。

UnitedHealthcare是美國最大的健康保險公司,2019 年11月,該公司開始使用 nH Predict人工智慧算法,該AI算法用於估算病人需要多少後期護理,通過在包含600萬個病例的資料庫中提取資訊,來估算後期護理大致需要多久。保險公司的人只需要將客戶的年齡、生活狀況、身體機能等資訊輸入進去,AI就會自動給出一系列估計,包括客戶的醫療需求是什麼、出院日期在哪天等。

然而,nH Predict有嚴重缺陷,它並不能預測醫療併發症,患者往往在療養院住不超過14天,就會收到拒保通知。更致命的是,這款AI算法是NaviHealth開發的,而NaviHealth則是UnitedHealthcare的子公司。也就是說,該AI推斷出來的結果,全由UnitedHealthcare控制。

2022年,91歲的吉恩(Gene Lokken)在家中摔倒。老人骨質較為疏鬆,腿骨和腳踝均發生骨折。在醫院住了六天后,他被轉移到護理中心,又花了一個月逐漸恢復。醫生說他的情況有所好轉,可以開始物理治療了。

觀看影片

對老人來說,物理治療註定是一個漫長的過程,然而僅在19天之後,UnitedHealthcare就拒絕再支付治療費,並發出一封拒絕信,稱「他沒有嚴重的醫療問題。」但醫生和治療師均認為老人的肌肉功能仍然「麻痹且虛弱」,也就是說應該繼續治療。

家人很憤怒,向保險公司提出異議,但也被對方駁回,無奈下只得自掏腰包,直到老人過世。這家人在買了保險的情況下,仍多花了15萬美元(約117萬港幣)。

UnitedHealthcare官網截圖

UnitedHealthcare官網截圖

類似的,74歲老人戴爾(Dale Tetzloff)突發中風,住院治療後,醫生將其轉到一家專業的護理院,說他需要至少100天的後續護理。僅僅住了20天,UnitedHealth便拒絕繼續付款。

他的家人給UnitedHealth連續發了兩次異議,在第二次,經NaviHealth的醫生審查後,保險公司同意繼續付款。然而住到第40天時,保險公司再度停了付款,並且拒絕給出理由。家人又嘗試發出異議,可再也沒成功,老人被轉移到養老院四個月後便過世了,從老人中風到去世這段時間,他的家人額外多花了約7萬美元(約54萬港幣)。

示意圖。設計圖片

示意圖。設計圖片

為了討回公道,早前這兩家人聯合起來,將UnitedHealthcare告上了法庭。他們還在尋找全美各地的數萬名潛在受害者,打算進行集體訴訟。在訴訟進行期間,有媒體對UnitedHealth展開了調查,而調查結果很大程度上和兩家人的主張吻合,即該公司使用了存在嚴重缺陷的AI演算法來推翻醫生的判斷。

訴訟文件稱,當患者或者醫生要求查看AI生成的報告時,會被UnitedHealth以“商業機密”為由拒絕。而且,如果醫生執意反對AI做出的判斷,UnitedHealth也會依然以AI為准,這背後的原因是:醫生的判斷太費錢,而AI能省錢。

示意圖。設計圖片

示意圖。設計圖片

根據幾個匿名前員工的爆料,自2020年UnitedHealth收購了NaviHealth後,公司的重點就開始朝著績效、指標轉移了。儘管AI有著明顯的缺陷,但是在過去兩年中,員工們得到的指示仍然是盡可能靠近AI的預測,也就是儘早讓患者出院,給公司省錢。

沒人知道UnitedHealth究竟通過AI省了多少錢,據外媒估計每年能省幾億美元,但具體數字只能猜測,目前,該訴訟仍在進行中。

一項最新調查顯示,人工智能(AI)技術在職場迅速普及,但企業在應對其潛在風險方面,治理及安全措施卻未能同步跟上。根據ISACA《2026年AI脈搏調查》的初步結果,逾半數數碼信任專業人士坦言,他們不清楚在發生安全事故後,能多快關閉AI系統。

這項全球性調查收集了逾3,400名數碼信任專業人士的回應。結果發現,儘管企業對人工智能的應用日益增加,但AI決策過程中的人為監督似乎有限,AI使用情況的披露亦不足,同時,對於AI安全事故的應對及AI系統造成損害的問責制,業界普遍存在不確定性。

ISACA《2026年AI脈搏調查》的初步結果顯示,在全球企業AI應用日益增加的背景下,AI決策的人為監督有限,AI使用披露不足,且AI安全事故應對及AI系統損害問責制存在不確定性。該調查收集了逾3,400名數碼信任專業人士的回應。 AP圖片

ISACA《2026年AI脈搏調查》的初步結果顯示,在全球企業AI應用日益增加的背景下,AI決策的人為監督有限,AI使用披露不足,且AI安全事故應對及AI系統損害問責制存在不確定性。該調查收集了逾3,400名數碼信任專業人士的回應。 AP圖片

逾半數受訪者(56%)表示,他們不清楚在需要時,能多快因應安全事故而即時停止AI系統運作。32%的受訪者認為他們可在60分鐘內停止系統,而7%則指需要逾60分鐘。

此外,不足半數受訪者(43%)對其機構在AI系統發生嚴重事故時,能夠調查並向領導層或監管機構解釋的能力抱有高度信心,而27%的受訪者則表示信心不足或全無信心。

Tiro Security的虛擬首席資訊安全官(vCISO)兼首席技術官(CTO)、GRCIE聯合創辦人兼董事會主席,以及ISACA新興趨勢工作組成員珍妮瑪連高域(Jenai Marinkovic)指出:「儘管機構可能感受到迅速採用AI技術以保持競爭力並利用其功能的壓力,但在實施前,必須確保有適當的保障措施和治理機制。企業需要確保具備合適的人員、政策、流程和計劃,不僅能有效且負責任地使用AI,還能在危機來臨時避免潛在的重大混亂。」

至於若AI系統在機構內造成損害或嚴重錯誤,最終應由誰負責,受訪者大多指向其董事會或高層管理人員(28%)。18%的受訪者認為應由首席資訊官(CIO)或首席技術官(CTO)負責,13%將責任歸咎於首席資訊安全官(CISO),而20%則承認他們不清楚責任歸屬。

機構內許多由AI生成的行動似乎在缺乏人為監督下進行,僅36%的受訪者表示,人類會在執行前批准大多數AI生成的行動,而26%則指出人類會在執行後審查選定的決策或模式。11%的受訪者稱,人類只會在收到潛在問題警報時才介入,另有20%承認他們不清楚機構內人類如何監督AI決策。

此外,只有18%的受訪者表示,若AI已被用於創建或實質性協助工作產品,則必須披露並強制執行,而20%的受訪者則稱披露是必需的,但未有持續執行。近三分之一(32%)的受訪者指出,根本沒有披露要求。

為滿足數碼信任專業人士在AI時代尋求培訓、知識和最佳實踐的需求,ISACA近期推出了一系列AI課程和資源,以及三項新證書:人工智能審計進階證書(AAIA)、人工智能安全管理進階證書(AAISM),以及即將推出的人工智能風險進階證書(AAIR)。

ISACA《2026年AI脈搏調查》的完整報告將於2026年5月發布。如欲了解更多相關發現,可瀏覽其網誌。更多AI資源可查閱ISACA網站,或於2026年RSAC會議的ISACA S-2167號展位,或在太平洋時間3月26日周四上午9時40分,參與珍妮瑪連高域的RSAC會議環節「從承諾到實踐:AI如何重塑網絡安全」。

關於ISACA:ISACA®(www.isaca.org)逾55年來一直為其全球逾190個國家、逾230個分會的逾195,000名成員提供所需的知識、證書、培訓和網絡,助他們在資訊安全、治理、保證、風險管理、數據私隱和新興科技等領域取得成功。透過ISACA基金會,ISACA亦擴展資訊科技和教育的職業發展途徑,為培養下一代科技專業人才創造機會。

(美聯社)

你 或 有 興 趣 的 文 章