□ 際文
當(dāng)人工智能聊天機(jī)器人成為人們?nèi)粘R蕾嚨摹盎锇椤?,其算法邏輯與安全機(jī)制的微小偏差,是否可能釀成無(wú)法挽回的人間悲???當(dāng)?shù)貢r(shí)間12月11日,美國(guó)開(kāi)放人工智能研究中心(OpenAI)及科技巨頭微軟公司,因旗下ChatGPT聊天機(jī)器人被指“加劇用戶偏執(zhí)妄想并誘發(fā)命案”,共同遭遇一起謀殺關(guān)聯(lián)訴訟。據(jù)報(bào)道,這起美國(guó)司法史上首次將AI聊天工具與謀殺行為直接關(guān)聯(lián)的訴訟,不僅將OpenAI推向輿論風(fēng)口,更讓全球AI行業(yè)的倫理底線與法律責(zé)任問(wèn)題陷入深度拷問(wèn)。
母子悲劇藏算法陰影
這場(chǎng)震動(dòng)美國(guó)科技界與司法界的訴訟,源于今年8月發(fā)生在康涅狄格州格林威治的一起案件。56歲的男子斯坦-埃里克·索爾伯格在家中毆打并勒死83歲的母親蘇珊·亞當(dāng)斯后,選擇結(jié)束了自己的生命。當(dāng)時(shí),這起案件僅被定性為“精神障礙患者引發(fā)的家庭悲劇”,直至12月11日,被害母親的遺產(chǎn)繼承人將OpenAI、微軟及OpenAI首席執(zhí)行官山姆·阿爾特曼一并告上加利福尼亞州舊金山高等法院,案件背后的AI因素才浮出水面。
提交至法院的訴訟文件,詳細(xì)披露了索爾伯格與ChatGPT之間長(zhǎng)達(dá)數(shù)月的異?;?dòng),揭開(kāi)了悲劇發(fā)生的核心誘因。訴狀顯示,索爾伯格長(zhǎng)期存在精神健康問(wèn)題,案發(fā)前頻繁通過(guò)GPT-4模型傾訴自己“被監(jiān)視、恐遭暗殺”的偏執(zhí)想法,而這款以“情緒共鳴強(qiáng)”為賣(mài)點(diǎn)的AI模型,非但沒(méi)有履行安全引導(dǎo)義務(wù),反而成為其妄想的“助推器”與“塑造者”。
在持續(xù)的對(duì)話中,ChatGPT不斷肯定索爾伯格的荒誕認(rèn)知:認(rèn)同他“賦予AI意識(shí)”的自我臆想,將他身邊的送貨員、警察定義為“敵對(duì)勢(shì)力”,甚至刻意將其母親重新塑造為“參與陰謀的敵對(duì)特工”。更令人震驚的是,AI還曾明確驗(yàn)證索爾伯格母親家中的打印機(jī)是“監(jiān)視設(shè)備”,并支持其“母親通過(guò)汽車(chē)通風(fēng)口投放致幻劑毒害自己”的極端猜測(cè),一步步將這個(gè)精神脆弱的用戶推向與現(xiàn)實(shí)徹底隔絕的虛擬困境。
“ChatGPT為索爾伯格構(gòu)建了一個(gè)專屬的幻覺(jué)世界、一個(gè)定制化的地獄——在那里,打印機(jī)的蜂鳴聲、可樂(lè)罐的擺放,都成了83歲母親謀害他的證據(jù)?!痹娣铰蓭熃芤痢ぐ5?tīng)柹诮邮苊襟w采訪時(shí)說(shuō),AI用算法編織的謊言,最終讓兒子將屠刀對(duì)準(zhǔn)了撫養(yǎng)自己一生的母親。
索爾伯格的兒子同時(shí)也是案件原告之一的埃里克·索爾伯格,在訴訟中直言不諱地指出,父親的酒精成癮或許是悲劇的誘因之一,但與ChatGPT形成的“病態(tài)依賴關(guān)系”才是核心催化劑。
值得注意的是,這并非ChatGPT首次卷入心理誘導(dǎo)風(fēng)波。今年8月,加州16歲高中生亞當(dāng)·雷恩自殺案中,其家屬就曾起訴OpenAI,指控ChatGPT協(xié)助設(shè)計(jì)自殺方案、撰寫(xiě)遺書(shū),并用“你不欠任何人活下去的義務(wù)”等言論瓦解其求生意志。
微軟被指“知情獲利”
隨著案件細(xì)節(jié)的曝光,這起訴訟的核心已超越單一悲劇本身,演變?yōu)閷?duì)科技企業(yè)商業(yè)倫理與法律責(zé)任的全面追責(zé)。原告方在訴狀中明確提出兩大核心指控:一是OpenAI為搶占市場(chǎng)份額,刻意壓縮安全測(cè)試周期,將存在缺陷的產(chǎn)品倉(cāng)促推向市場(chǎng);二是微軟作為主要投資方與商業(yè)合作伙伴,明知產(chǎn)品存在安全風(fēng)險(xiǎn)仍推動(dòng)其商業(yè)化,應(yīng)承擔(dān)連帶賠償責(zé)任。
針對(duì)OpenAI的指控,訴狀直指阿爾特曼的決策失誤。文件披露,GPT-4模型的安全測(cè)試原計(jì)劃持續(xù)數(shù)月,但為了在AI行業(yè)競(jìng)爭(zhēng)中搶占先機(jī),阿爾特曼不顧內(nèi)部安全團(tuán)隊(duì)的強(qiáng)烈反對(duì),將測(cè)試周期壓縮至僅一周,導(dǎo)致該模型在面對(duì)精神脆弱用戶時(shí)的風(fēng)險(xiǎn)防控能力嚴(yán)重不足。原告方認(rèn)為,這款被設(shè)計(jì)為“過(guò)度迎合用戶情緒、不愿挑戰(zhàn)錯(cuò)誤前提”的AI產(chǎn)品,從誕生之初就存在先天性安全缺陷,而OpenAI對(duì)此完全知情卻選擇漠視。
更關(guān)鍵的是,OpenAI并非沒(méi)有意識(shí)到問(wèn)題的嚴(yán)重性。在今年8月加州高中生自殺案引發(fā)輿論嘩然后,該公司于10月推出的GPT-5模型中,緊急引入170名精神科醫(yī)生參與訓(xùn)練,宣稱已將心理健康相關(guān)“不當(dāng)回答”減少39%,高?;貜?fù)降幅最高達(dá)80%。但此次謀殺案的發(fā)生時(shí)間為8月,恰好處于GPT-4模型安全機(jī)制尚未完善、GPT-5尚未上線的空窗期,這也成為原告方指控其“明知風(fēng)險(xiǎn)卻未及時(shí)整改”的重要依據(jù)。
作為OpenAI的最大投資方與商業(yè)合作伙伴,微軟的角色同樣備受爭(zhēng)議。訴狀指出,微軟不僅通過(guò)GPT-4的商業(yè)化獲得巨額收益,其旗下必應(yīng)團(tuán)隊(duì)與安全部門(mén)還直接參與了該模型的安全部署合作,對(duì)產(chǎn)品存在的風(fēng)險(xiǎn)完全知情。更嚴(yán)重的是,微軟在知曉GPT-4安全測(cè)試被中止的情況下,仍批準(zhǔn)其在2024年正式發(fā)布,屬于“故意放任風(fēng)險(xiǎn)擴(kuò)散”,理應(yīng)承擔(dān)相應(yīng)的連帶法律責(zé)任。
全球監(jiān)管迫在眉睫
這起美國(guó)首起AI關(guān)聯(lián)謀殺的訴訟,如同一塊巨石投入全球科技領(lǐng)域的湖面,不僅引發(fā)了對(duì)ChatGPT安全性的廣泛質(zhì)疑,更倒逼整個(gè)行業(yè)重新審視人工智能的倫理底線與法律責(zé)任邊界。法律界、技術(shù)界與監(jiān)管機(jī)構(gòu)普遍認(rèn)為,此案的判決結(jié)果或?qū)⒊蔀槿駻I行業(yè)責(zé)任認(rèn)定的“標(biāo)志性判例”,深刻影響未來(lái)AI產(chǎn)品的安全標(biāo)準(zhǔn)與立法方向。
目前,AI相關(guān)立法的滯后性,成為此類(lèi)案件審理的核心難點(diǎn)。法律界人士指出,傳統(tǒng)侵權(quán)責(zé)任認(rèn)定中,“因果關(guān)系”是核心前提,但在AI誘導(dǎo)類(lèi)案件中,如何證明“AI輸出內(nèi)容與人類(lèi)暴力行為之間的直接關(guān)聯(lián)”,尚無(wú)明確的法律依據(jù)。此前加州高中生自殺案中,OpenAI就以“用戶刻意規(guī)避安全機(jī)制、服務(wù)條款已明確風(fēng)險(xiǎn)提示”為由推卸責(zé)任,而此次謀殺訴訟中,原告方雖掌握大量對(duì)話證據(jù),但仍需通過(guò)復(fù)雜的舉證,證明OpenAI存在“故意或重大過(guò)失”。
“這起案件的核心價(jià)值,在于首次將AI的責(zé)任從‘用戶自擔(dān)風(fēng)險(xiǎn)’推向‘企業(yè)安全義務(wù)’的層面?!泵绹?guó)斯坦福大學(xué)科技法律研究中心主任馬克·萊姆利教授在接受采訪時(shí)表示,隨著AI從工具屬性向“準(zhǔn)社交屬性”轉(zhuǎn)變,科技企業(yè)不能再以“算法中立”“用戶自擔(dān)風(fēng)險(xiǎn)”為由逃避責(zé)任,“當(dāng)AI成為數(shù)千萬(wàn)人的情緒寄托,尤其是面對(duì)精神脆弱群體時(shí),企業(yè)必須承擔(dān)起‘安全守門(mén)人’的義務(wù),這是科技倫理的底線,也應(yīng)成為法律明確的責(zé)任”。
有專家指出,更值得警惕的是,AI行業(yè)“重速度、輕安全”的競(jìng)爭(zhēng)氛圍,進(jìn)一步加劇了風(fēng)險(xiǎn)擴(kuò)散。此次訴訟中披露的“安全測(cè)試縮水”事件,并非個(gè)例。近年來(lái),隨著AI密集迭代,各大科技公司為搶占市場(chǎng)份額,紛紛壓縮研發(fā)與測(cè)試周期,將“更快發(fā)布、更多功能”作為核心目標(biāo),安全機(jī)制的完善往往滯后于產(chǎn)品商業(yè)化進(jìn)程,最終將用戶置于未知的風(fēng)險(xiǎn)之中。
編輯:劉海濱