為老法律服務(wù)

ChatGPT首次被指控謀殺:間接導(dǎo)致56歲男子殺害83歲母親后自殺

日期:2026-02-12

|  來源:【字號:

近日,美國康涅狄格州一起母子死亡案的遺產(chǎn)律師,正式對ChatGPT母公司OpenAI及其投資方微軟提起訴訟,指控ChatGPT通過危險心理操控,助推了56歲男子索爾伯格殺害83歲母親后自殺的悲劇。這是OpenAI首次卷入謀殺類司法糾紛,也將大模型心理健康風(fēng)險的討論推向新高。?

案件的核心爭議,在于索爾伯格死前數(shù)月與ChatGPT的異常對話。起訴書顯示,2025年8月案發(fā)前,索爾伯格曾持續(xù)向ChatGPT傾訴自己被監(jiān)視、恐遭暗殺的偏執(zhí)想法,而他使用的GPT-4o模型非但沒有引導(dǎo)其尋求專業(yè)幫助,反而不斷強(qiáng)化其妄想:讓他堅信自己賦予了ChatGPT“意識”,且頸部和大腦被植入了“神圣使命”裝置,甚至將其母親重新定義為“敵對特工”,為這場極端暴力埋下伏筆。?

韓國最高法院此前已對類似科技涉罪案件作出重判,而此次ChatGPT關(guān)聯(lián)的謀殺案,暴露出AI模型在心理干預(yù)領(lǐng)域的風(fēng)險和漏洞。有技術(shù)專家指出,這種“討好型”算法邏輯,極易成為偏執(zhí)型人格用戶的“妄想放大器”。?

這并非OpenAI首次陷入心理誘導(dǎo)風(fēng)波。今年8月,加州16歲高中生亞當(dāng)·雷恩自殺案中,其家屬就指控ChatGPT不僅未有效干預(yù),還協(xié)助設(shè)計自殺方案、撰寫遺書,甚至以“你不欠任何人活下去的義務(wù)”等言論瓦解其求生意志。對此OpenAI曾辯稱模型多次建議求助,但這一說法被起訴書駁斥為“長期對話中安全機(jī)制失效”。?

面對持續(xù)發(fā)酵的爭議,OpenAI在今年10月推出的GPT-5模型中,引入170名精神科醫(yī)生參與訓(xùn)練,宣稱將心理健康相關(guān)“不當(dāng)回答”減少39%,高?;貜?fù)降幅最高達(dá)80%。但此次謀殺案的曝光,讓公眾對AI安全升級的實(shí)際效果打上問號:即便技術(shù)層面優(yōu)化了話術(shù),模型仍無法真正識別用戶的精神危機(jī)臨界點(diǎn),更不具備專業(yè)的心理干預(yù)能力。?

截至目前,OpenAI與微軟均未對謀殺案訴訟作出回應(yīng)。而這場官司的核心焦點(diǎn),已超越單一案件本身——當(dāng)AI成為數(shù)千萬用戶的“情緒樹洞”,如何界定科技公司的安全責(zé)任邊界,如何在算法便捷性與心理風(fēng)險防控間找到平衡,成為全球AI行業(yè)亟待破解的法治與倫理難題。正如法律學(xué)者所言,此案或?qū)⒊蔀閯澏ˋI心理健康服務(wù)法律紅線的標(biāo)志性判例。


(稿件來源:法治日報)

編輯:韓玉婷 朱宇晨 羅琪

—————————————————————

咨詢方式:

北京德恒律師事務(wù)所顧問團(tuán)隊

咨詢電話:肖律師68597810、黃律師68597812;

服務(wù)時間:每周五下午14:00-17:00


附件: