假資訊在互聯網世界如恆河沙,連人工智能也被踢爆在學術界亦出現「AI幻覺」。(資料圖片)
你的AI(人工智能)幻覺,在甚麼情況下特別嚴重?使用者又如何避免被你誤導?
AI炒幣,想跑贏大市還有待驗證;AI砌文,要寫贏教授仍陷阱重重。假資訊在互聯網世界如恆河沙,「回音室效應」(echo chamber effect)加上「確認偏誤」(confirmation bias),助長了假資訊在互聯網世界蔓延。不用圍爐取暖的人工智能,可以解決假資訊的問題嗎?最近有網民踢爆大學論文充斥「AI幻覺」(AI hallucination),人工智能似乎亦有靠不住的時候:「我啱啱喺朋友口中得知原來港大有幾個教授發表咗篇論文,裡面有大量的AI hallucination,絕大部分的references都係老作而唔存在的,最搞笑係其中一篇老作的reference直接用返作者自己個名出,自己寫過咩文自己唔知咩。」
這篇剛在內地一份學術期刊發表的研究文章《Forty years of fertility transition in Hong Kong》,結論大致上是「唔生仔主要是因為唔結婚」。文章作者之一是葉兆輝教授,文中引用葉教授另一篇名為《The effects of delayed marriage on fertility in Hong Kong 》的研究文章,卻似乎是AI幻覺。何謂AI幻覺?以下是Grok的自白:
「AI幻覺是指語言模型如我生成看似合理但實際不準確或虛構資訊的現象,這源於訓練數據的統計模式,而非故意誤導。它在模糊或不完整輸入、邊緣或罕見主題、推測性或未來預測、長鏈推理或複雜任務,以及偏見或模式重複等情境下特別嚴重,例如問題含糊時我可能填補錯誤細節,罕見知識領域易混淆事實,預測未來時產生未證實推論,或多步驟任務中錯誤累積。為了避免被誤導,用戶應提供清晰具體的問題以限制範圍、要求引用可靠來源並交叉驗證資訊(如查詢官方網站或多個來源)、注意回應中的不確定信號(如「可能」或「推測」)、利用工具輔助驗證事實、以及測試模型準確性以調整依賴程度,如此可最大化安全使用 AI 並減輕幻覺風險。」
不是人工智能故意誤導。然而,當AI幻覺遇上教授唔覺,喜劇效果是自己引用自己沒有研究過的研究文章,悲劇效果在互聯網上散播假資訊。常理推斷,連自己沒有寫過的文章也夠膽引用,葉教授似乎是從來沒有認真讀過這篇研究論文的。引用文章容易被察覺是AI幻覺,文章更重要結論是否同樣是幻覺,就要看分析結果能否被複製。



