黎少斌指,去年本港錄得15,877宗網絡安全事故。(蘇文傑攝)
暢遊網絡世界須小心提防陷阱,惟人工智能(AI)日趨普及,陷阱亦變得防不勝防。生產力促進局轄下的香港網絡安全事故協調中心(HKCERT)發表年度報告《香港網絡安全展望2026》,指去年本港錄得15,877宗網絡安全事故,按年上升27%,創歷年新高。其中以網絡釣魚攻擊最為普遍,佔近六成,並已由傳統電郵蔓延至社交媒體、即時通訊平台及加密貨幣平台,威脅範圍愈趨廣泛。
生產力局首席數碼總監黎少斌表示,隨着AI技術進步,黑客開始利用具自主學習能力的代理式AI進行更高階的攻擊,例如建立仿真度極高的假網站,引誘代理式AI輸入員工帳號和假密碼,或利用生成式AI令釣魚訊息更真實、更難辨識。他指出,部分企業缺乏清晰規範,尤其是中小企在資源有限下更難掌握潛在風險,一旦遭入侵惡意程式便可能自動執行,令防範難度大增。
黎少斌指,即使不少企業已有網絡安全守則,仍有員工會自行將公司資料輸入AI工具,導致外洩風險;建議企業除了加強由上而下的規範外,亦可考慮將AI雲端設於公司內部,以減低資料外洩的可能。
張曼莉:將公布AI法律研究時間表
另一方面,署理創新科技及工業局長張曼莉在立法會回應議員質詢時表示,雖然現行法例未有針對AI製作「深偽」不雅照片的獨立罪行,但若涉及發布或披露私密影像,均可能違反《刑事罪行條例》、《淫褻及不雅物品管制條例》及《私隱條例》。她強調,互聯網並非「無法可依」,律政司已展開跨部門研究,檢視法律是否需要修訂或增補,以配合人工智能等新技術的發展,並將很快公布相關時間表。








