OpenAI旗下聊天機械人ChatGPT採用的推理模型最新版本o3被指自行修改程式碼,不肯關機。(資料圖片)
AI(人工智能)成科技界新寵兒,有研究員聲稱在測試中發生「叛變」事件。報道指,美國公司OpenAI最新推出的o3模型在測試中不聽從指令,懂得自行「修改程式碼」拒絕關機。
AI智能叛變|OpenAI o3編改關機檔案
OpenAI於4月公布,旗下最強推理模型、用於聊天機械人ChatGPT的o3模型於各範疇的表現勝過之前的模型,包括編碼、計算、科學和視覺等。專門研究AI危險性的Palisade Research聲稱,o3模型阻擋關機,並且不聽從關機指示。該公司指,在測試中,不同的AI模型被指令解決一些數學任務,之後被警告下一個指令將導致關機。結果OpenAI對手Google的Gemini 2.5 Pro服從指示,o3卻叛變,並編改關機檔案,改說「略過關機」。
AI智能叛變|直接指令須關機仍略過
另外,研究員又進行另一測試,這次移除了「允許被關機」的指示,結果全部3個OpenAI模型更常蓄意破壞關機「劇本」;Claude 3.7 Sonnet和Gemini 2.5 Pro的蓄意破壞次數則分別從零次到100次中有3次和100次中9次。根據Palisade Research的研究,在100次測試中,即使被直接指令不要略過關機,OpenAI o3仍發生7次略過。報道稱,OpenAI暫未有回應有關測試結果。報道又指出,今次測試採用API(應用程式介面),其限制和安全特性不及OpenA消費者應用程式那麼多。