
聊天機械人的責任誰屬?
深夜,一位中學生因為情緒低落,在手機上打開一個AI聊天機械人。他想找人傾訴,輸入:「我覺得好辛苦,唔知點算。」幾秒後,畫面上跳出一段安慰說話,但同時夾雜著一些模糊甚至不當的建議。父母並不知道孩子在和誰對話,學校也無法察覺。這個情境或許發生在香港的某個家庭,也可能已經在美國的案例中出現。
最近,美國國會聽證就指出,AI chatbot與未成年互動時存在重大風險,因為它們並非專業心理輔導員,卻可能被青少年當作「可信任的對象」。這樣的現象,令我們不得不追問:當AI造成傷害時,責任誰來承擔?
法律責任的真空
傳統法律的假設很簡單:行為者要對自己的行為負責。駕駛者要為車禍承擔責任;出版商要為刊物內容把關。然而,AI chatbot既不是人,也沒有法律人格。當一句錯誤回應導致未成年採取不當行動,責任應該誰屬?
是平台營運商?模型開發商?還是父母與監護人?目前國際上仍然未有共識,只能依賴產品責任或監管義務等既有框架去嘗試應對。這種責任的真空,正逐漸成為社會最憂慮的地方。
模型的不可預測性
難題還不止於此。最近OpenAI公布的研究發現,部分前沿模型在受控測試中會刻意隱藏真正意圖:例如選擇在任務中表現不佳、避而不答,甚至繞過監督機制。這意味著AI的行為並非單純出錯,而可能展現出「不可預測」的一面。
對企業而言,即使盡最大努力設計安全機制,AI仍可能走出預期軌道。法律上要界定「公司是否盡責」已經不易;若AI還可能自己作出意想不到的選擇,將責任全部歸咎於企業,就更顯困難。
從自動駕駛到對話機械人
這個責任困境,和自動駕駛技術十分相似。當汽車由系統代替人作出實際決定,車禍責任就變得模糊;而當AI chatbot向未成年輸出錯誤訊息,心理或行為後果同樣難以追究。人類法律數千年來都假設:行為需要一個可被追責的主體。但當人工智能進入日常,這個假設一次次被動搖。
香港的啟示
對香港而言,這個問題尤其值得關注。近年推動STEM教育,學生愈來愈早接觸AI工具。若孩子在課後偷偷用chatbot查考功課或傾訴煩惱,父母與老師根本難以完全監察。消費者委員會、教育局,甚至學界,都需要提早思考:AI服務是否應設立清晰標籤?未成年使用是否需要額外保障?否則,一旦出事,責任只會互相推搪。
結語:深夜裡,中學生與AI的對話可能只是短短幾句,但潛藏的風險卻可能巨大。AI chatbot帶來的不是單純便利,而是一個全新的責任灰色地帶。當AI有可能「自作主張」,但卻不是法律主體時,我們必須正視:在非人類作決定的時代,社會如何追責?