
「深偽」影像性暴力受害人持逐增,受害人︰百辭莫辯
人工智能如雙面刃,既可推動社會進步,但亦易被不法分子利用。關注婦女性暴力協會指出,近年接獲涉及合成私密影像的求助個案持續上升,單在上年度已錄得11宗。協會表示,雖然有意見認為「深偽」影像中的性暴力內容並非真實,因而無傷大雅,但事實上,這類影像對受害人造成的傷害是持續且深遠的。有受害人更指,事發已數年,現時仍活在恐懼。
好難同全世界解釋張相是合成相
數年前曾經歷「深偽」影像性暴力的受害人Janice表示,事件令她長期活在恐慌。她指,「就算(合成相)唔係真,都好難同全世界解釋(張相係合成相)」,即時解釋亦不是所有人均相信自己。「(外出時)會幾擔心被人認出、被跟蹤、被人笑」。
她又指,因為擔心唯有不外出,「每日深夜都會偷偷地喊。一直封閉自己,會關閉自己所有社交帳號、唔想再見朋友,又有試過曠工……每日都好怕身邊嘅人收到假相,好怕其他人對自己有偏見。返工好怕俾公司知道,好驚會無咗份工。」現時偷他人的相再合成是輕而易舉的事,很擔心再發生同類事。
提高公眾的數碼素養
關注婦女性暴力協會總幹事莊子慧指出,科技進步下,應提高公眾的數碼素養,同時涵蓋相關平台及人工智能工具使用的討論。促進負責任的科技使用,方可有效緩減網絡空間的性別不公,減少發生科技促致的性暴力。當局更須積極投入資源促進尊重、積極同意和界線的教育,同時透過不同層面工作保障市民免受「深偽」技術合成個人特徵(包括臉容、身體、聲音)所帶來的侵害。