Skip to Content Facebook Feature Image

500億的創科 土炮的AI

博客文章

500億的創科 土炮的AI
博客文章

博客文章

500億的創科 土炮的AI

2018年03月06日 14:29 最後更新:14:30

2015年,時任美國總統奧巴馬於國情諮文中提出 「精準醫療計劃」(Precision Medicine Initiative)。精準醫療強調透過分析個人的生物醫學資料(如基因、身高體重、 血壓血糖、過去病史、家族病史),在傳統的病患症狀描述及常規檢查之後,更精準的提出最適合病患者的個人化治療方法及藥物。2016年,我國發表十三五國家科技創新規劃,其中醫療器械科技是重點的創新專項,目標是推進醫療診斷技術,優化醫療服務,為健康保障體系奠下穩固的基礎。

2018年我城的財政預算案,政府預留500億支持創科發展。筆者於本地人工智能醫療影像初創企業工作,看到政府「會預留一百億元支持建設醫療科技創新平台和人工智能及機械人科技創新平台」,本應十分高興,但繼續閱讀下去發現政府重點為「吸引世界頂尖的科研機構和科技企業來港,與本地大學及科研機構合作進行更多中下游研發項目」,心情則有點複雜。筆者絕對認同基礎研究及吸引科研人才的重要性,但正如立法會議員莫乃光於報導中所形容,似乎政府在支持非牟利機構毫不手軟,但面對私營科研機構就相當卻步,因害怕被指官商勾結,因此令所花的錢不能夠落地。

其實,本地土炮的人工智能科研的水平絕對不能小覷,早前香港中文大學工程學院舉辦了一個人工智能的論壇,展示了工程學院在人工智能方面的科研項目與科研成果。

論壇由香港首隻AI 獨角獸商湯科技的創辦人湯曉鷗教授以《人工智能的中國式文藝復興》為題主講,指出以頂尖期刊發表的論文數量來看,中國科技企業目前在AI發展的貢獻仍是不及歐美企業,而商湯正一直在這個領域上努力作出貢獻。

   26758176_10159734348105462_5960399236555966209_o   

在醫療科技方面,由歐國威教授介紹「外科手術與機械人結合的下一波醫療創新」,歐教授於中文大學機械與自動化工程學系本科及碩士畢業,於美國麻省理工學院完成博士學位,然後加入加州醫療器械公司Intuitive Surgical,參與研發達芬奇(da Vinci) 單創口手術平台。歐教授指出目前手術用機械人的開發遇到最大的技術瓶頸,在物料上如何做到既有彈性而不失堅硬,在導航上如何因應自己的位置與體內的變化做到精準的定位。歐教授以無人駕駛汽車比喻,路本身是大概不會改變的,但身體內的環境是會改變的,而且,手術用的機械人是會與身體有互動,大大提高了定位的技術難度。

26850417_10159734534505462_762428297452340126_o   26840659_10159734534550462_4329559591847304460_o

另外,生物醫學工程的湯啟宇教授介紹了人工智能如何應用於醫療保健之上,除了上述提到手術機械人可以幫助外科醫生做手術之外,還介紹了應用人工智能分析磁力共振醫療影像可以協助早期檢測認知障礙症。湯教授主力研究的是機械手與腳,偵測人類移動意圖,協助腦神經病者復康訓練。另外,湯教授亦提及穿戴式裝備能搜集大量的生物醫學數據,以人工智能去分析此等生物醫學數據,有助疾病的預防與治癒。

IMG_5667   IMG_5662

在另一個訪問中,歐國威教授指出其中一個吸引他從美國回流母校任教的原因,是希望透過「教授進階機械人學以及機械電子學,幫助大學彌合研究樣本與商業產品之間的鴻溝。」歐教授並指出他「在業界工作了接近十年,深知這道鴻溝非同小可,在醫療器械研發領域尤甚。有了好主意,也未必能研發出好的產品。」歐教授此言,正正回應了我城目前在基礎科

研之外,在科研商品化、以致在商品化之後的持續研發與推廣正欠缺關鍵的支持。

 

筆者曾經聽過申請國內科研基金的講座,講者指出國內的科技企業由國家、省、市,層層都有資助,他們的概念是希望裁培出成功的企業,未來在稅收上可以收回這筆投資之餘,並帶來可持續的收回。筆者不知道此等「官商勾結」的想法在政治或經濟學的嚴謹分析下是否站得住腳,但在我城這個房地產與金融獨大的經濟體系之下,總覺得值得我們深思。




YM Chan

** 博客文章文責自負,不代表本公司立場 **

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章