□ 孫萬懷
目前,人工智能刑事責(zé)任的探討是在人工智能的主體性問題尚未充分論證的前提下展開的。僅僅因為其智能展現(xiàn)了自發(fā)性乃至自覺性,理論就開始嘗試完成穿越和貫通,直接討論主體性歸責(zé)可能或標(biāo)準(zhǔn)。實際上,最為關(guān)鍵的仍然是主體是否可以轉(zhuǎn)換、人工智能是否具有自由意志以及自由意志的基礎(chǔ)意義。只有解決了這些問題,歸責(zé)才成為可能。
人工智能責(zé)任主體性的哲學(xué)辯證前提
(一)主奴辯證法何以實現(xiàn)
黑格爾提出的主奴辯證法理論,成為主體間性的理論支撐。主體雖然在形式上強(qiáng)調(diào)主體性,但實質(zhì)上不再具有主體地位,成為被絕對理念所操縱的偽主體,由此形成了主奴地位的辯證關(guān)系。于是,筆者言及的第一種類型的三重關(guān)系悄然出現(xiàn),即主人、奴隸與作為欲望對象的物。主人有欲望,但必須通過奴隸對物的“加工改造”才能滿足。而奴隸則因感覺到對物的支配而實現(xiàn)了所謂的自由,從而“自由”地接受了對關(guān)系地位的認(rèn)可。據(jù)此似乎可以論證人工智能的獨立性。但是,拉康則提出了鏡像階段論:通過客體的反饋,主體才能感覺到主體自身的存在。在一個特定的奴役關(guān)系中,他者的存在正是為了反射性地反指主體的建構(gòu)。鏡像理論給予的啟發(fā)在于人工智能只不過是一個作為鏡像的工具。工具的迭代不過是一種現(xiàn)象,并不能表達(dá)為脫逸主體而獨立。當(dāng)然,對于客體的獨立性也存在另外一種方式的解讀,即靈肉辯證法?!耙驗橹髋p方在其非對稱性承認(rèn)中不具有彼此過渡到對方之中的辯證關(guān)系,取而代之的是主奴雙方各自在其自身的‘自由’(靈魂)和‘生命’(肉身)訴求之間的悖反機(jī)制。發(fā)生于主奴關(guān)系中的雙重‘靈肉辯證法’,因為一方面未導(dǎo)致主奴雙方地位的反轉(zhuǎn),另一方面未導(dǎo)致主奴關(guān)系的解體,所以只是一種‘弱悖反’?!边@一思考同樣存在于人與人工智能的交互關(guān)系中。
(二)人工智能是一種強(qiáng)悖反還是弱悖反
在討論人工智能具有或?qū)⒕哂凶杂梢庵緯r,人們不自覺中已經(jīng)完成了對人工智能從工具到理性的轉(zhuǎn)變。這與主奴辯證法并無二致。在主奴辯證法的爭議中,奴隸是否能夠成為真正的主人?對應(yīng)到人工智能的法律地位,作為主體的人類同樣也面臨著如何理解作為“奴隸”的人工智能的覺醒。筆者認(rèn)為,基于創(chuàng)造與被創(chuàng)造的關(guān)系,其實質(zhì)上還是一種弱悖反,需要說明的有以下幾點:第一,悖反客觀存在。傳統(tǒng)的主客體關(guān)系似乎發(fā)生了互換,最直接地表現(xiàn)為完成了機(jī)器的替代性和人的依賴性。而這以前恰恰被認(rèn)定為作為主體的個體的獨特能力,這種獨特能力是自由的基礎(chǔ)。弱悖反的存在帶來了主體功能的弱化,帶來了自主性的弱化,導(dǎo)致自我意識的弱化。第二,人的主體性并不會被摧毀。隨著自我意識的弱化,從形式上看這是一種自由的替代,但是并沒有改變“肉體”的依附性關(guān)系。這僅是主體自由實現(xiàn)的另外一種方式,這種方式在人工智能這一非本質(zhì)的單純認(rèn)識中得到貫徹,并不存在兩個并行的主體。也就是說,從主體間性的角度來看,主人的自我意識的消解并非單向的,其也在不斷強(qiáng)化自身的獨立能力,甚至通過改變相互之間的關(guān)系和表達(dá)形式來實現(xiàn)。第三,對客體異化的防范。在生成式人工智能出現(xiàn)之后,人們對于風(fēng)險的警惕性有了極大提高。如果說以前的風(fēng)險主要是產(chǎn)品責(zé)任的歸責(zé),則新的風(fēng)險主要來源于客體異化。
錯誤的邂逅——刑事責(zé)任與自由意志的關(guān)系
一般認(rèn)為責(zé)任主義的合理性是建立在自由意志理論之上的。由此,在討論涉人工智能刑事責(zé)任基礎(chǔ)前,首先面臨的就是人工智能的自由意志問題。
(一)自由意志之于刑事責(zé)任的虛妄
如果說自由意志只是表達(dá)了一個選擇的權(quán)利,則選擇的依據(jù)是什么才最需要考察。如同一個人到咖啡館,在選擇拿鐵、卡布奇諾抑或伯爵紅茶之間存在一種意志自由,但這只是解決因果鏈條中的一個關(guān)聯(lián)依據(jù),選擇的前提都并非自由。因而在實際生活中的責(zé)任追究,訴諸的并非意志而是因果鏈。
(二)人工智能不具備與人類等同評價的自由意志——道德責(zé)任基礎(chǔ)
斯特勞森提出了反應(yīng)性態(tài)度與客觀性態(tài)度的界分。反應(yīng)性態(tài)度是指人對他人對待自己的態(tài)度和行為所作出的一種自然反應(yīng),被人們認(rèn)為其具備了自由意志??陀^性態(tài)度類似于談判和裁決時對規(guī)則執(zhí)著的遵循,可能被認(rèn)為其因為服從而沒有自由意志。但是這種分類并非涇渭分明,“我們完全可以在道德中立乃至出于善意的情況下對人采取客觀態(tài)度”。這就是斯特勞森的相容論觀點。據(jù)此,人工智能的反應(yīng)只能是一種客觀性態(tài)度。在解決相容論矛盾的時候,沙普爾斯基提出了道德責(zé)任的被決定性,進(jìn)而提出目前的道德仍然是一個半成品,當(dāng)個人所遵循的道德責(zé)任只是“半成品”的時候,要求人工智能承擔(dān)道義責(zé)任顯然無法成功。
弱悖反情形下刑事責(zé)任的分配
(一)人工智能的自發(fā)、自覺與主體刑事責(zé)任消解的必然
在涉嫌犯罪的情形下,誰應(yīng)該承擔(dān)刑事責(zé)任,是平臺方還是用戶,抑或人工智能。障礙在于系統(tǒng)自主學(xué)習(xí)的情形下,平臺的義務(wù)標(biāo)準(zhǔn)和廣度開始模糊不清。系統(tǒng)學(xué)習(xí)的“自主性”“自發(fā)性”的本質(zhì)是主體間性的出現(xiàn),于是筆者言及的第二對三角關(guān)系產(chǎn)生了(物自體的獨立性):第一,質(zhì)的責(zé)任要素,即“開發(fā)者(主體)—系統(tǒng)(主體)”的關(guān)系;第二,刑的責(zé)任要素,即“用戶(主體)—系統(tǒng)(客體)”的關(guān)系;第三,量的責(zé)任要素,即“開發(fā)者(主體)—用戶(客體)”的關(guān)系。由于人工智能的“自發(fā)性”,導(dǎo)致第一類與第三類的主客體關(guān)系不再那么清晰,開發(fā)者針對系統(tǒng)的違法性特征不再直接,開發(fā)者與用戶的違法性關(guān)系也不明顯,這時用戶與系統(tǒng)的違法性關(guān)系成為核心的要素。其結(jié)果就是,作為相對方,對于系統(tǒng)導(dǎo)致的刑事危害,當(dāng)用戶對系統(tǒng)的作用大的時候,平臺的作用力自然減弱,責(zé)任豁免或阻卻也就成為可能。
(二)刑事責(zé)任分解的價值平衡依據(jù)
所有的跨越式發(fā)展都可能導(dǎo)致政策與實定法、現(xiàn)實理念與傳統(tǒng)觀念之間的緊張關(guān)系,進(jìn)而可能導(dǎo)致恩吉施所歸納的法律的規(guī)范矛盾、價值矛盾以及原則矛盾的認(rèn)知差異。就人工智能的發(fā)展而言,目前面臨的主要是技術(shù)與規(guī)則的矛盾。對此,如果簡單尋找一種類似于嚴(yán)格責(zé)任的歸責(zé)方式,勢必會導(dǎo)致對技術(shù)發(fā)展的桎梏,形成對新興產(chǎn)業(yè)發(fā)展的阻遏。此時政策的考量與加持不可避免。同時,在民事責(zé)任探索成果相對確定化、類型化之后,刑事責(zé)任的討論似乎才更有現(xiàn)實意義。這根本上是一個動態(tài)的價值平衡的問題。如果說前文論及的主體間性是一個主客體哲學(xué)關(guān)系的平衡,則此處言及的平衡是一個法律風(fēng)險分配的平衡,即在保護(hù)數(shù)據(jù)主體的權(quán)益與發(fā)展人工智能行業(yè)間作出動態(tài)調(diào)整,顯然刑事政策具有很大的作用空間。
結(jié)語
對于人類或者創(chuàng)造者而言,執(zhí)著于討論被創(chuàng)造者(人工智能)是否擁有自由意志似乎是一個宗教性或哲學(xué)性的悖論。人工智能的自發(fā)乃至自覺會給人類社會的秩序帶來快速而重大的改變,也會帶來一些困厄。但這種改變的本質(zhì)還是對作為人的主體責(zé)任承擔(dān)方式和程度的重新厘定。人工智能可能存在“意思”自由,但不可能存在“意志”自由。無法跨越“反應(yīng)性態(tài)度”這一鴻溝,其“客觀性態(tài)度”的反應(yīng)特質(zhì)決定了不可能實現(xiàn)根本的主體間性轉(zhuǎn)化。
(原文刊載于《政法論壇》2025年第3期)
編輯:武卓立