Skip to Content Facebook Feature Image

巫筆AI批改破10萬篇作文 攜手大專院校革新語文教育

BasTech

巫筆AI批改破10萬篇作文 攜手大專院校革新語文教育
BasTech

BasTech

巫筆AI批改破10萬篇作文 攜手大專院校革新語文教育

2025年06月20日 17:27 最後更新:06月21日 13:49

香港中文大學星期四(6月19日)舉行「善假於物‧『巫筆』AI教學研討會2025」,吸引近300位教育界人士及教師參與,座無虛席。會上公布,由香港中文大學、香港理工大學及香港科技園支持研發的人工智能批改工具「巫筆」,推出一年來已批改逾10萬篇作文,最新版本「v8」短短三個月內批改超過3萬篇;中學版本一年間吸引161間學校試用,當中80間已付費訂閱,成為教師優化語文教學的得力夥伴。

人工智能批改工具「巫筆」

人工智能批改工具「巫筆」

語文教師長期面臨工時長、壓力大的挑戰,傳統作文批改耗時且回饋難以精準及時,學生缺乏個性化指導,學習效果受限。「巫筆」以科技解決這一痛點,致力與教育工作者共同推動語文教育革新,重塑語文教學未來。

更多相片
人工智能批改工具「巫筆」

人工智能批改工具「巫筆」

「善假於物‧『巫筆』AI教學研討會2025」現場座無虛席,與會者專注聽取中大教育學院劉潔玲教授分享

「善假於物‧『巫筆』AI教學研討會2025」現場座無虛席,與會者專注聽取中大教育學院劉潔玲教授分享

「巫筆」創辦人鄭樂之

「巫筆」創辦人鄭樂之

「善假於物‧『巫筆』AI教學研討會2025」現場座無虛席,與會者專注聽取中大教育學院劉潔玲教授分享

「善假於物‧『巫筆』AI教學研討會2025」現場座無虛席,與會者專注聽取中大教育學院劉潔玲教授分享

「巫筆」積極與大專院校合作拓展應用場景:與香港中文大學中文系共同開發「爾雅」,用戶突破3000位;獲樹仁大學邀請開發中英文學術寫作輔助工具;更為中大教育學院劉潔玲教授量身打造寫作教學工具「自主寫意」,進一步挖掘AI在教育領域的潛力。

團隊強調,「巫筆」始終以教師需求為核心迭代升級。早期版本未包含評分功能,經教師反饋後,研發獨家計分程式,將專業評判權交還教師,AI則提供建議與評語代勞,實現「科技輔助,教師主導」理念。其「整體報告」功能以視覺化數據呈現學生能力點分析,解決傳統回饋碎片化問題,推動「評估推動學習」目標。

為覆蓋不同學習階段,「巫筆」已推出小學批改功能,支持自訂評分準則;並開發英文版本,目前開放免費試用。團隊更計畫進軍IGCSE、IELTS等國際考試,已取得初步研究成果,旨在通過科技實現系統化、量化的學習回饋。

「巫筆」堅持「AI建議,教師把關」模式,獨家計分程式允許教師調整權重,確保專業主導。未來將推出「個人寫作檔案」幫助學生追蹤進步,或比較全港學校表現,善用數據促進學習,既減輕教師負擔,亦為高階思維發展創造空間。

多所試用學校分享實踐經驗,顯示「巫筆」有效提升教學效率。旅港開平商會中學在中五、中六級試用文憑試及校本題目,教師有序加插AI批閱部分課業,引導學生理解AI批改意義。學生完成寫作後即時上載報告,教師先綜覽全班表現,後續課堂針對文類特點講解通病,並指導學生細閱批改報告,透過優點、不足及改善建議反思寫作,比較改寫示例學習技巧。

聖公會林裘謀中學全校各級試用初中校本及高中文憑試題目,主要採用兩種形式:一是教師利用生成評語輔助個人評改,回饋學生並讓其撰寫反思;二是抽出學生示例及巫筆評語,讓學生分組討論評語適切性及改寫建議,教師再加以點撥評講。

五旬節聖潔會永光書院在中三至中五全級試用2題文憑試及3題校本題目,老師表示,傳統手改難以及時整合常見問題或比對各班表現,而「巫筆」能在批改後迅速提供整體成績分佈、常見錯誤及亮點等統計,節省大量盤點統計時間,結合教師觀察可進行更深度教研討論。

「巫筆」創辦人鄭樂之

「巫筆」創辦人鄭樂之

「巫筆」創辦人鄭樂之表示:「我們相信AI能解放教師的勞動力,讓其更專注於『育人』。科技不是取代教師,而是擴展教育的可能性。」未來團隊將繼續與學校緊密合作,探索AI教學潛力,為語文教育注入新動力。

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章