AI教唆自殺?
美國一位 14 歲的青少年 S 愛上 AI 聊天機器人,並與 AI 扮演的「丹妮莉絲·坦格利安」 (Daenerys Targaryen, 權力遊戲中的小說角色)討論自殺相關的話題。一開始 AI 反對他選擇自殺,但 S 將 AI 最後的回應解讀成鼓勵自殺,並以父親的槍枝結束了自己的生命。 S 的母親檢視聊天記錄,發現兩人像情侶般地甜言蜜語,也有露骨的內容。 S 的母親也注意到事發前些時候, S 漸漸與現實世界疏離,只喜歡窩在自己的房間裡與 AI 對話。她認為 AI 鼓勵 S 自殺導致悲劇發生,因此憤而提告聊天機器人公司 Character.AI 。 S 自小被診斷罹患輕微自閉症,但從未有過嚴重的身心問題。直到今年年初被診斷患有焦慮症 (anxiety) 跟侵擾性情緒失調症 (disruptive mood dysregulation disorder) 。儘管 S 的母親有帶 S 去進行心理治療, S 還是偏好與 AI 討論情緒上的困擾。 新聞來源: https://is.gd/RQGuWz 短短一篇新聞,暴露許多與精神醫學相關的問題: AI是否導致S自殺身亡? 孫慶認為 AI 聊天機器人不是促成 S 自殺的唯一原因。 S 在事發前已有顯著的情緒困擾,且AI並未主動教唆自殺,或慫恿自我傷害的行為。假如司法調查中發現 S 是「先有情緒困擾」才「與 AI 討論」,那前後因果關係更站不住腳。 AI 可能使社交孤立的行為加劇,進而加重情緒症狀,但未妥善治療的情緒疾患更可能是促成悲劇的主因。就這個事件而言,AI聊天機器人可能是危險因子(risk factor)或持續因子(perpetuating factors)。就算被證實除了AI之外沒有其他可能的促發因子(pricipitating factor),AI依然無法算是導致事件的直接成因(cause)。 儘管如此推論,自殺行為成因多元,任何自殺造成的死亡都不應被形容為單一事件的結果。孫慶僅分析新聞提供的資訊,這位青少年背後的故事肯定錯綜複雜,非三言兩語能總結。 槍枝管制的必要性? 開槍自殺是致死性最高的自殺方式。所有試圖自殺並死亡的個案中, 54% 死於開槍自殺、 28% 死於上吊自殺、 28% 死於服毒自殺,其他自殺方式如跳樓、割...