數字辦公室早前公布《生成式人工智能技術及應用指引》,數字政策專員黃志光表示,人工智能AI發展潛能大,既要促進AI科技應用,亦要留意帶來的風險,因此要有相關指引,針對三大持份者,包括技術開發者、應用提供者及用家,關注當中的安全風險及道德倫理,平衡科技創新和應用。
數字政策辦公室數字政策專員黃志光。巴士的報記者攝
黃志光接受港台節目訪問形容,這是一個「活的指引」,需要定期更新,初步認為每年甚或短過一年就要以風險為本進行更新,視乎程度有多高,再建議三大持份者加強相關的關注。
生成式人工智能技術及應用指引
有關指引建議危害及影響市民安全的用途、潛意識操控等屬於「不可接受風險」,建議全面禁止。被問到是否要立法,黃志光認為,香港自由市場容許發展不同科技應用,對於有較高風險的行業,已有專責的法例規管,舉例說,醫療有很的規管框架,如有額外風險,就再加強。
他指出,相關技術發展得太快,如果在模型開發時,提供一些「黑箱數據」,當中可能帶有歧視性,如果用家接受模型提供的內容,就會變成事實的全部。
一項最新調查顯示,人工智能(AI)技術在職場迅速普及,但企業在應對其潛在風險方面,治理及安全措施卻未能同步跟上。根據ISACA《2026年AI脈搏調查》的初步結果,逾半數數碼信任專業人士坦言,他們不清楚在發生安全事故後,能多快關閉AI系統。
這項全球性調查收集了逾3,400名數碼信任專業人士的回應。結果發現,儘管企業對人工智能的應用日益增加,但AI決策過程中的人為監督似乎有限,AI使用情況的披露亦不足,同時,對於AI安全事故的應對及AI系統造成損害的問責制,業界普遍存在不確定性。
ISACA《2026年AI脈搏調查》的初步結果顯示,在全球企業AI應用日益增加的背景下,AI決策的人為監督有限,AI使用披露不足,且AI安全事故應對及AI系統損害問責制存在不確定性。該調查收集了逾3,400名數碼信任專業人士的回應。 AP圖片
逾半數受訪者(56%)表示,他們不清楚在需要時,能多快因應安全事故而即時停止AI系統運作。32%的受訪者認為他們可在60分鐘內停止系統,而7%則指需要逾60分鐘。
此外,不足半數受訪者(43%)對其機構在AI系統發生嚴重事故時,能夠調查並向領導層或監管機構解釋的能力抱有高度信心,而27%的受訪者則表示信心不足或全無信心。
Tiro Security的虛擬首席資訊安全官(vCISO)兼首席技術官(CTO)、GRCIE聯合創辦人兼董事會主席,以及ISACA新興趨勢工作組成員珍妮瑪連高域(Jenai Marinkovic)指出:「儘管機構可能感受到迅速採用AI技術以保持競爭力並利用其功能的壓力,但在實施前,必須確保有適當的保障措施和治理機制。企業需要確保具備合適的人員、政策、流程和計劃,不僅能有效且負責任地使用AI,還能在危機來臨時避免潛在的重大混亂。」
至於若AI系統在機構內造成損害或嚴重錯誤,最終應由誰負責,受訪者大多指向其董事會或高層管理人員(28%)。18%的受訪者認為應由首席資訊官(CIO)或首席技術官(CTO)負責,13%將責任歸咎於首席資訊安全官(CISO),而20%則承認他們不清楚責任歸屬。
機構內許多由AI生成的行動似乎在缺乏人為監督下進行,僅36%的受訪者表示,人類會在執行前批准大多數AI生成的行動,而26%則指出人類會在執行後審查選定的決策或模式。11%的受訪者稱,人類只會在收到潛在問題警報時才介入,另有20%承認他們不清楚機構內人類如何監督AI決策。
此外,只有18%的受訪者表示,若AI已被用於創建或實質性協助工作產品,則必須披露並強制執行,而20%的受訪者則稱披露是必需的,但未有持續執行。近三分之一(32%)的受訪者指出,根本沒有披露要求。
為滿足數碼信任專業人士在AI時代尋求培訓、知識和最佳實踐的需求,ISACA近期推出了一系列AI課程和資源,以及三項新證書:人工智能審計進階證書(AAIA)、人工智能安全管理進階證書(AAISM),以及即將推出的人工智能風險進階證書(AAIR)。
ISACA《2026年AI脈搏調查》的完整報告將於2026年5月發布。如欲了解更多相關發現,可瀏覽其網誌。更多AI資源可查閱ISACA網站,或於2026年RSAC會議的ISACA S-2167號展位,或在太平洋時間3月26日周四上午9時40分,參與珍妮瑪連高域的RSAC會議環節「從承諾到實踐:AI如何重塑網絡安全」。
關於ISACA:ISACA®(www.isaca.org)逾55年來一直為其全球逾190個國家、逾230個分會的逾195,000名成員提供所需的知識、證書、培訓和網絡,助他們在資訊安全、治理、保證、風險管理、數據私隱和新興科技等領域取得成功。透過ISACA基金會,ISACA亦擴展資訊科技和教育的職業發展途徑,為培養下一代科技專業人才創造機會。
(美聯社)