人工智能技術逐漸普及,最近流行的聊天AI機械人「ChatGPT」成為熱話。由香港理工大學的人工智能設計研究所(AiDLab)主辨的「Fashion X AI : 2022/23 國際匯展」,展示人工智能與設計所產生的協同作用,計劃由理工大學黃偉強教授和陳芊瑞博士主導,繼去年12月在M+博物館舉行時裝滙演後,今次國際匯展推出一連串活動,揭開序幕的是由即日起到2月26日於荃灣南豐紗廠的展覽。
本地設計師利用AI時裝設計助理(AiDA)設計的時裝
國際設計師利用AI時裝設計助理(AiDA)設計的時裝
人工智能設計研究所 (AiDLab) 是首個結合人工智能和設計的研究所,由理工大學及英國皇家藝術學院共同建立。黃偉強希望,透過計劃推動香港成為世界首屈一指的創科中心,並以AiDLab平台國際領導的地位,促進行業發展,為社會帶來正面影響,因此計劃強調「落地」和「帶入社會」,冀望將科研成果帶離實驗室,進到市民的日常生活。
點擊看圖輯
本地設計師利用AI時裝設計助理(AiDA)設計的時裝
國際設計師利用AI時裝設計助理(AiDA)設計的時裝
Fashion X AI : 2022-2023 國際匯展
二維的頭部掃描器收據數據,再利用人工智能構建3D模型,根據對象的頭型量身定做眼鏡 (AiDLab提供)
黃偉強教授示範使用AI時裝設計助理「AiDA」
黃偉強教授示範使用AI時裝設計助理「AiDA」
荃灣南豐紗廠的展覽展示不同科研成果,包括互動性人工智時裝設計助理(AIDA)、能發光的人工智能光纖布、可識別不同布料的人工智能等。陳博士與團隊研發的「發光光纖布」已在社會應用,在黃大仙地區健康中心的治療師,利用光纖布共同為認知障礙病人設計多感官刺激療程,當病人做出手勢時,光纖布接收其手勢後轉變顏色並移動位置,而設計上亦富有黃大仙特色,希望令病人更加投入。
研究團隊介紹能發光的人工智能光纖布
研究團隊介紹能發光的人工智能光纖布
AI亦在人體工程學發揮作用,團隊利用二維的頭部掃描器收據數據,再利用人工智能構建3D模型,根據對象的頭型量身定做眼鏡和頭盔等,協助兒童健康成長,甚至有矯型AI能設計裝備協助脊椎側彎患者糾正問題。
光纖布能隨意拉伸
可識別不同布料的人工智能
AI時裝設計助理「AiDA」是首個以設計師上載的個人設計意念和靈感來產生多幅創新設計圖,整個過程只需十秒。AiDA已於去年12月M+展覽後開始商業化,開設了訂閱服務,已經吸引了多位知名時設計師使用。
香港理工大學黃偉強教授(左)和陳芊瑞博士(右)
Fashion X AI : 2022-2023 國際匯展
黃偉強指,將人工智能引入時裝行業絕非想取代人類設計師,而是擔任一個輔助和啟發的角色,只提供模板供設計師參考或作出微調改善設計,協助設計師更有效率地完成作品。他以與國際著名時裝品牌Antrprima合作例子,他們在AiDA協助下,只用了4日就將傳上需要數個月時間才能繪製的3000張設計圖完成,並篩選出現在展出的的8件設計。
二維的頭部掃描器收據數據,再利用人工智能構建3D模型,根據對象的頭型量身定做眼鏡 (AiDLab提供)
香港理工大學黃偉強教授(左)和陳芊瑞博士(右)
作為人工智能(AI)領域的新興技術,圖神經網絡(GNN)是一種專門處理圖結構數據的深度學習模型。目前,GNN 主要擅長處理數據中節點與邊之間的關係,但往往忽略了高階的複雜連結,香港理工大學(理大)研究團隊研發的新型異構圖注意力網絡成功解決這一挑戰,革新了圖結構數據的複雜關係建模,有望突破 AI 在神經科學、物流、電腦視覺、生物學等多個領域的應用限制。
研究團隊將 HL-HGAT 應用於功能性磁振造影數據分析,在神經科學與醫療診斷上有顯著應用價值。
簡單來說,傳統 GNN 主要考慮「A 連接 B」、「B 連接 C」這樣的成對關係,卻難以理解 A、B、C 三者的群體互動。由理大醫療科技及資訊學系教授、傑出創科人教授仇安琪教授及其研究團隊設計的新型「霍奇-拉普拉斯異構圖注意力網絡(Hodge-Laplacian Heterogeneous Graph Attention Network,HL-HGAT)」,能夠學習和分析不同層次的異質信號,捕捉多種圖結構間的複雜關聯。
在數學上,k-單體是高維幾何的基本元素,能夠捕捉多個節點之間的高階關聯:0-單體為單一節點,1-單體為連接兩個節點的邊,2-單體為三個節點構成的三角形,如此類推。HL-HGAT 模型將圖形解釋為單體複形,可同時捕捉節點、邊、三角形等多層次結構間的複雜互動,全面提升模型對數據複雜關係的理解能力。
HL-HGAT 的核心為霍奇-拉普拉斯(Hodge-Laplacian,HL)算子,它提供了一個可在單體複形上建模及傳播訊號的數學框架,使該網絡能夠突破成對關係的限制,為結構數據中的複雜、多層次的交互作用建構更精確的模型。在動態圖領域,HL-HGAT 的重大突破則在於它能將高階拓樸表徵擴展至時域,並結合高效的 HL 濾波、自適應注意力機制及異構訊號分解,揭示傳統靜態 GNN 無法捕捉的複雜時變模態。
理大醫療科技及資訊學系教授、傑出創科學人教授仇安琪教授設計了一種新型的「霍奇-拉普拉斯異構圖注意力
網絡」(HL-HGAT),革新了圖結構數據的複雜關係建模,有望突破 AI 在神經科學、物流、電腦視覺、生物學等多個領域的應用限制。
仇教授表示:「HL-HGAT 模型在各種基於圖的場景,包括是理論優化問題,或實際生物醫學應用等方面,皆展現廣泛效用及豐富功能。該模型已在各種圖應用中進行了全面評估,結果證明其作為統一框架的適應能力,能夠跨學科地處理優化、分類、回歸及多模態學習等任務。」
研究團隊在多個領域進行了全面測試:在物流領域,HL-HGAT 有效解決經典的「旅行商問題」(如何規劃最短配送路線),為物流公司節省大量時間和成本;電腦視覺領域,HL-HGAT 將影像轉換為圖形結構進行分析,其表現在 CIFAR-10影像分類測試中超越了傳統的 GNN,能更精準地捕捉影像中的細節特徵;在化學領域,HL-HGAT 在預測分子特性方面取得卓越準確度,有助加速新藥開發進程。
在神經科學與醫療診斷上,HL-HGAT 亦展現出極高的應用價值。團隊將其用於功能性磁振造影(fMRI)數據分析,能準確預測智力表現與大腦年齡,更能在抑鬱症患者的腦網絡中發現預設模式網絡和邊緣系統中異常的「三方神經區域互動」——這些細微變化是傳統方法無法察覺的。此外,在 HL-HGAT 也可檢測出阿茲海默症患者早期的皮質變薄與神經連接中斷,有助更及時發現病徵。
此創新的 HL-HGAT 模型不但在科學及工業應用中針對各種基於圖的複雜任務展現了卓越成果,更標誌着圖神經網絡技術的重要進展。該研究名為「HL-HGAT:霍奇-拉普拉斯算子的異構圖注意力網絡」,已發表於《IEEE 模式分析與機器智能學報》(IEEE Transactions on Pattern Analysis and Machine Intelligence)。