AI生成內容真假難辨對平臺治理提出挑戰(zhàn) 專家建議
明確平臺法律責任提升審核識別精度
□ 本報記者 趙麗
□ 本報見習記者 丁一
近年來,生成式人工智能(AIGC)技術迅速發(fā)展。昔日需要整個團隊協(xié)作完成的視頻制作,如今僅憑一張圖片、一句文字指令即可實現。然而,伴隨技術普及而來的是濫用風險的加劇。紛雜的AI生成內容常常令人真假難辨,不僅干擾公眾認知,對行業(yè)監(jiān)管和平臺治理也提出了新的挑戰(zhàn)。
今年9月1日起,《人工智能生成合成內容標識辦法》(以下簡稱《辦法》)施行,意味著所有利用人工智能技術生成、合成的文本、圖片、音頻、視頻、虛擬場景等信息,必須依法添加相應的聲明標識。
然而在實際應用中,AI生成內容標注仍存在諸多難點。例如,用AI工具生成的視頻,若用戶有心將水印去除,平臺往往難以有效識別其AI屬性,導致大量未標識內容持續(xù)傳播。
對此,《法治日報》記者采訪西南政法大學公法研究中心執(zhí)行主任楊尚東、中國農業(yè)大學法律系副教授薛鐵成、中央財經大學法學院教授王葉剛以及北京航空航天大學法學院副教授王天凡,共同探討應對之策。
記者:平臺是內容傳播和觸達公眾的關鍵環(huán)節(jié),因此承擔著監(jiān)督和管理的重要責任。據觀察,一些平臺通常會在相關帖文上標注類似“疑似AI創(chuàng)作,請謹慎甄別”等提示。此類提示,是否足以認定平臺已經盡到合理的注意義務?是否能使其自動免除法律責任?
王葉剛:不能據此當然認定平臺已經盡到合理的注意義務。平臺在性質上屬于網絡服務提供者,我國民法典侵權責任編對網絡服務提供者的侵權責任具體規(guī)定了通知規(guī)則(避風港規(guī)則)、知道規(guī)則(紅旗規(guī)則)。判斷平臺是否盡到了合理的注意義務,是否需要承擔侵權責任,需要依據侵權責任編的規(guī)定進行判斷,而不能以標注“疑似AI創(chuàng)作,請謹慎甄別”等提示語為由認定其盡到了注意義務。
王天凡:判斷平臺是否履行“合理注意義務”,需綜合多方因素考量。比如,標識的顯著性與有效性方面,提示語是否足夠清晰、醒目,不易被忽略或裁剪;數字水印是否能抵抗壓縮、剪輯等。防控措施方面,平臺是否建立了與其技術能力和規(guī)模相匹配的、主動的侵權內容識別與過濾機制,以及在接到侵權通知后,平臺是否能夠迅速響應并采取刪除、屏蔽等必要措施。另外,對于顯而易見的、利用名人肖像進行虛假廣告的深度偽造內容,法律對平臺的“應知”要求會更嚴格。
記者:調查顯示,很多AI生成內容引發(fā)的整蠱、造謠亂象,均是內容發(fā)布者有意為之,甚至故意繞開平臺監(jiān)管。對此,應如何加強管理?
薛鐵成:必須明確,蓄意發(fā)布AI生成圖片、視頻整蠱甚至造謠的行為,可能涉嫌違法。若內容發(fā)布者明知其行為可能引發(fā)恐慌、報警、擾亂社會秩序,仍主動發(fā)布AI生成的圖片、視頻等誤導性內容,其主觀上可能構成謊報警情的間接故意,最終行為或被認定為報假警。根據治安管理處罰法相關規(guī)定,當事人將被處以行政處罰。若情節(jié)嚴重,還可能觸犯刑法中的“編造、故意傳播虛假信息罪”,須依法承擔刑事責任。
加強對內容發(fā)布者的管理,要進一步壓實平臺責任?!掇k法》采用的是漏洞填補和責任加重的AI標識管理規(guī)則。在關涉AI生成內容發(fā)布的各個環(huán)節(jié)中,后一環(huán)節(jié)對前一環(huán)節(jié)負有檢驗和審核的責任。例如,提供網絡信息內容傳播服務平臺發(fā)布AI生成內容時,既需要檢驗用戶提供的AI生成內容是否有平臺的隱式標識,還需要檢驗用戶是否聲明AI生成內容。如果均沒有相關AI內容標識和聲明,本平臺檢測到顯式標識或者其他生成合成痕跡的,識別為疑似生成合成內容,也應當采取適當方式在發(fā)布內容周邊添加顯著的提示標識,提醒公眾該內容疑似AI生成內容。
楊尚東:首先,平臺應明確AI生成內容的管理規(guī)范。平臺需制定清晰的AI生成內容管理規(guī)則,一方面強制要求用戶對AI生成內容進行標注或主動聲明;另一方面完善平臺細則,針對惡意傳播AI違規(guī)內容的視頻及賬號,依法依規(guī)采取提示、下架、封號等階梯式處置措施。
其次,平臺應加強AI生成內容的審核與標識。內容發(fā)布前,平臺應升級審核機制,通過“技術檢測+人工復核”的雙重模式提升AI內容識別精度,精準篩選出可能擾亂社會秩序的內容及賬號,并降低此類整蠱內容的傳播權重。內容發(fā)布后,平臺需在聊天、評論等交互環(huán)節(jié),進一步強化AI生成內容的明確標識與風險提示,引導用戶理性判斷。
最后,平臺應建立快速響應與事實核查機制。平臺可搭建公眾舉報通道,及時發(fā)現審核疏漏的問題內容。針對可能擾亂公共秩序的信息,第一時間啟動事實核查與應急響應,快速采取限流、刪除等措施,防止內容擴散造成更大負面影響。
記者:針對AI生成內容標識的規(guī)范與治理,當前實踐中還存在哪些核心問題,又該從哪些方面推進完善以保障落地效果?
薛鐵成:當前相關法律制度仍缺乏AI服務提供平臺和網絡信息傳播平臺未履行AI標識義務的責任規(guī)定,難以建立對相關平臺未履行AI標識義務的懲戒機制。在相關規(guī)定已經明確AI服務提供平臺和網絡信息傳播平臺在內容生成和發(fā)布環(huán)節(jié)義務的基礎上,還應進一步明確其未履行義務的責任種類和承擔責任的方式,以督促相關責任主體履行監(jiān)管義務。
楊尚東:其一,健全AI生成內容管理的法規(guī)體系。未來,應在《辦法》基礎上進一步細化平臺治理規(guī)范、明確政府監(jiān)管職責、規(guī)范用戶使用行為,強化法律執(zhí)行效力,為生成、制作與傳播合成內容的相關主體設定清晰的法律紅線。
其二,構建跨部門協(xié)同監(jiān)管機制。推動網信、公安等相關部門形成全鏈條監(jiān)管合力,加強對生成式人工智能大模型的審核管理及其應用場景的監(jiān)督,嚴格落實內容標識要求。同時,建立跨領域信息共享平臺,提升監(jiān)管聯(lián)動能力與精準性,實現高效協(xié)同治理。
其三,強化網絡空間法治宣傳教育。借助各類媒體平臺,向公眾普及人工智能基礎知識與AI生成內容的識別技巧,提升全民數字素養(yǎng)與技術認知水平。
編輯:王晨暉




京公網安備 11010502000576號