AI技術發展迅速,騙徒也利用AI進行詐騙。
接聽電話和視像電話時,即使是熟識親朋的樣子及聲音,也可能是有人運用AI技術的詐騙。 以前,我們經常說「有圖有真相」,但在人工智能(Artificial Intelligence,簡稱AI)時代,即使有圖、有聲音、有影片、甚至視像電話都未必可信。
AI技術發展迅速,騙徒也利用AI進行詐騙,例如通過深偽技術(Deepfake)和語音克隆 (Voice Cloning),複製他人的樣貌及聲音,製造幾可亂真的虛假影片或聲音。語音克隆是一種常見的AI技術,騙徒可以透過短時間的錄音樣本便能模仿某人的聲音,而Deepfake則透過AI合成技術偽造人物的面部表情與聲音,製作出幾可亂真的假影片。
常見的AI詐騙手法包括假扮受害人的親友或上司,要求轉帳或提供機密資料,或假扮名人或投資專家誘騙投資虛擬資產。由於影像及聲音都極度逼真,令人難辨真偽,受害人一不留神便很容易墮入騙徒陷阱。
大家必須提高警覺,特別是一些看似吸引的投資機會,以及是任何涉及金錢的請求,都必須三思及查證事實真假,可參考以下Deepfake防騙貼士:
1. 若是熟人或同事要求轉帳、匯款或提供個人資料,應另行致電當事人進行確認
2. 進行視像通話時,可要求對方於鏡頭前做特定動作,留意影像是否有異
3. 以不同語言與對方交談,試探對方真偽
4. 使用事先約定的暗號或問題,確應對方身份
5. 凡是涉及金錢的要求,必須作多方面核實
6. 避免接聽陌生視像來電
7. 善用「防騙視伏器」作詐騙風險評估
8. 若有懷疑,立即致電香港警方「防騙易熱線18222」尋求協助
投委會理財教育宣傳活動「理財始於現在 未來始於理財」
投委會推出全新理財教育宣傳活動,一系列短片以青年人作為主角,透過生活化情節引起共鳴,並加入防範AI騙局的教育訊息,鼓勵青年人善用投委會的理財工具和資源,裝備自己以應對未來挑戰。網址﹕https://www.ifec.org.hk/web/common/static/youth-campaign-2025/tc/index.html








