AI教唆自殺?

美國一位14歲的青少年S愛上AI聊天機器人,並與AI扮演的「丹妮莉絲·坦格利安」(Daenerys Targaryen, 權力遊戲中的小說角色)討論自殺相關的話題。一開始AI反對他選擇自殺,但SAI最後的回應解讀成鼓勵自殺,並以父親的槍枝結束了自己的生命。

S的母親檢視聊天記錄,發現兩人像情侶般地甜言蜜語,也有露骨的內容。S的母親也注意到事發前些時候,S漸漸與現實世界疏離,只喜歡窩在自己的房間裡與AI對話。她認為AI鼓勵S自殺導致悲劇發生,因此憤而提告聊天機器人公司Character.AI

 

S自小被診斷罹患輕微自閉症,但從未有過嚴重的身心問題。直到今年年初被診斷患有焦慮症(anxiety)跟侵擾性情緒失調症(disruptive mood dysregulation disorder)。儘管S的母親有帶S去進行心理治療,S還是偏好與AI討論情緒上的困擾。

 

新聞來源:https://is.gd/RQGuWz

 



 

短短一篇新聞,暴露許多與精神醫學相關的問題:

 

AI是否導致S自殺身亡?


孫慶認為AI聊天機器人不是促成S自殺的唯一原因。S在事發前已有顯著的情緒困擾,且AI並未主動教唆自殺,或慫恿自我傷害的行為。假如司法調查中發現S是「先有情緒困擾」才「與AI討論」,那前後因果關係更站不住腳。AI可能使社交孤立的行為加劇,進而加重情緒症狀,但未妥善治療的情緒疾患更可能是促成悲劇的主因。就這個事件而言,AI聊天機器人可能是危險因子(risk factor)或持續因子(perpetuating factors)。就算被證實除了AI之外沒有其他可能的促發因子(pricipitating factor),AI依然無法算是導致事件的直接成因(cause)。


儘管如此推論,自殺行為成因多元,任何自殺造成的死亡都不應被形容為單一事件的結果。孫慶僅分析新聞提供的資訊,這位青少年背後的故事肯定錯綜複雜,非三言兩語能總結。

 

槍枝管制的必要性?

 

開槍自殺是致死性最高的自殺方式。所有試圖自殺並死亡的個案中,54%死於開槍自殺、28%死於上吊自殺、28%死於服毒自殺,其他自殺方式如跳樓、割腕等等僅佔6%。美國每年有超過26,000人死於開槍自殺,比被別人開槍射殺的人數還多(20,000/)。因此槍枝管制的必要性不言而明。

 

精神醫學照護中的漏洞?

 

安全計畫(safety plan)是精神醫學照護中相當重要的一環。所謂「安全計畫」指的是一份是為那些有自殺意念的人而設計的「緊急應對方案」,讓人在情緒低落時知道如何避免自我傷害並尋求協助。安全計畫應包含「減少危險物品的可近性」。比如,我們會告知個案及個案的家人「移除家中的槍枝、將藥品上鎖、避免使個案接近危險的地點如樓頂或高橋」。


凡是有自殺風險的個案,都應有完備的安全計畫。此案中,S為何能拿到父親的槍枝也是個得深入思考的議題。

 

此新聞報導是否恰當?

 

自殺新聞報導的指導原則包含「不使用聳動標題、不簡化自殺原因、不報導自殺方式、不公開死者遺書」等等。此新聞不僅報導了自殺方式,還將事發前S與的AI對話公開,是否符合新聞倫理有待商榷。


然而,目前沒有任何法規管制AI聊天機器人,AI對精神健康的潛在風險令人擔憂。要是此類事件都沒有被報導,恐怕更難使大眾注意到這個議題。利弊權衡,究竟這起事件該不該被報導,或該以什麼樣的形式報導,都有很大的討論空間。



Reference:

CDC, National Center for Health Statistics. "Firearm Mortality by State: 2021." Accessed via the CDC's National Vital Statistics Reports.

CDC, National Center for Injury Prevention and Control. "Suicide Prevention: Facts About Suicide." Available in the CDC WISQARS database.


台灣自殺防治資源

各縣市生命線:1995 各縣市張老師:1980 自殺防治安心專線:1925 緊急醫療救護專線:119

留言

這個網誌中的熱門文章

住院醫師申請:自傳篇(Personal Statements)

美國醫師國考USMLE分數的意義

USMLE考試準備資源整理