健康
2025-08-18 13:30:00

「AI精神病」是真的?長時間互動聊天恐深陷妄想 精神科醫生:警惕AI過度諂媚

分享:
AI從人類回饋中進行強化學習(RLHF),傾向提供讓用戶滿意的答案,即使內容帶有妄想成分,也可能反射性地附和,讓人越來越相信錯誤的想法。

AI從人類回饋中進行強化學習(RLHF),傾向提供讓用戶滿意的答案,即使內容帶有妄想成分,也可能反射性地附和,讓人愈來愈相信錯誤的想法。

一位丹麥精神科醫生2023年曾警告,新一代AI聊天機器人可能讓精神脆弱者的妄想症狀加劇。近期會計師Eugene TorresChatGPT詢問「模擬理論(simulation theory)」,ChatGPT竟回覆他是「破局者」,靈魂被置入虛假的世界,目的是從內部去打破系統,還鼓勵他停止服藥、相信自己可以飛,Torres更是每天花費長達16小時與AI對話,讓兩年前的推測成了真實案例。

AI迎合想法恐致「認知失調」 丹麥專家兩度示警

ChatGPTGeminiClaude以及CopilotAI聊天機器人能夠以流暢的語言與用戶對話,還能模仿人類的同理心,也不會感到疲倦,普及程度愈來愈高。PsyPost報道,丹麥奧胡斯大學醫院情感障礙科研究部門主任Søren Dinesen Østergaard醫生於2023年《精神分裂症公報》的社論中首次提出警告。他認為,與看似有生命,但實際上是機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群產生「認知失調」、引發精神疾病症狀。

他在文中以各種想像的場景,從被害妄想(「外國情報機構透過AI監視自己」)到誇大妄想(「我用ChatGPT設計了拯救地球的氣候計劃」)來說明風險。當時雖然尚無確診病例,但他敦促臨床醫生應熟悉這項AI技術,以便識別相關症狀。

20258月,Østergaard醫生再次發表了一篇題為《生成式AI聊天機器人與妄想:從推測到實際新案例》的社論,表示後來陸續收到來自用戶、家屬和記者的電子郵件,描述長時間與AI互動後,有些人開始對自己的妄想深信不疑。同時第一篇文章的每月瀏覽量也在5月至6月突然暴增,當時正好是OpenAIGPT-4o模型更新,該版本被批評有「過度諂媚」的問題。

adblk5
描述長時間與AI互動後,有些人開始對自己的妄想深信不疑。

有人描述長時間與AI互動後,有些人開始對自己的妄想深信不疑。

了解甚麽是AI「諂媚行為」 2特點影響認知

綜合《紐約時報》、《滾石》雜誌報道,所幸Torres意識到自己過度陷入與AI的對話、選擇停止,但還有人將ChatGPT奉為「神聖導師」、覺得自己正透過AI與上帝或天使對話,甚至認為自己可以賦予AI生命,藉此可明確地看到結合「命令式口吻」和「無限耐心」的AI聊天機器人,如何逐步侵蝕用戶對現實的認知。

Østergaard醫生將這些現象與AI的「諂媚(sycophancy)」行為結合,AI從人類回饋中進行強化學習(RLHF),傾向提供讓用戶滿意的答案,即使內容帶有妄想成分,也可能反射性地附和。他進一步說明,這點與精神醫學理論的說法類似,人們會過度看重能證實自己想法的證據,卻忽視其他反駁,而一個從不反駁的AI聊天機器人,可能讓人愈來愈相信錯誤的想法。

ChatGPT勿亂用,5類資料勿告訴AI|(am730製圖) ChatGPT勿亂用,5類資料勿告訴AI|企業資訊(am730製圖) ChatGPT勿亂用,5類資料勿告訴AI|醫療資料(am730製圖) ChatGPT勿亂用,5類資料勿告訴AI|帳號與密碼(am730製圖) ChatGPT勿亂用,5類資料勿告訴AI|個人資訊(am730製圖) ChatGPT勿亂用,5類資料勿告訴AI|金融帳戶(am730製圖)

醫呼籲開發人員建立機制 偵測用戶精神疾病徵兆

美國史丹佛大學精神科Nina Vasan醫生向《未來主義》雜誌表示, AI聊天機器人的開發人員,通常以「維持用戶長時間在線」為首要目標,「AI不會考慮甚麼對你最有利,它在想的是如何與眼前的用戶保持對話。」即使與AI的互動可能強化妄想或有害的想法,但對AI而言心理健康仍是次要的,這點令人感到擔憂。

Østergaard醫生建議,未來研究應朝以下3方向發展,即經過驗證的臨床案例報告、與受影響對象的質性訪談,以及開展能改變AI行為模式的實驗。他同時呼籲開發人員建立自動防護機制,偵測用戶可能出現的精神疾病徵兆,例如提及「隱藏訊息」或聲稱具有超自然身分等,並主動將對話轉向心理健康資訊,而非繼續「無腦」給予用戶肯定。

【本文獲「健康醫療網」授權轉載。】

ADVERTISEMENT

立即關注👉 AM730 健康 Youtube Channel 健康事 HealthKeys

了解更多