生成式人工智能時代如何筑牢個人信息保護防線
黨的二十屆四中全會通過的《中共中央關(guān)于制定國民經(jīng)濟和社會發(fā)展第十五個五年規(guī)劃的建議》明確要求:“深化網(wǎng)絡(luò)空間安全綜合治理,加強個人信息保護?!眰€人信息權(quán)益作為數(shù)字社會運行的基石,直接關(guān)系到每個公民的尊嚴、自由與福祉。盡管個人信息保護法已為此奠定了法律基礎(chǔ),但技術(shù)的迭代速度正不斷考驗著現(xiàn)有保護框架的韌性。生成式人工智能(基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的人工智能技術(shù)分支)應(yīng)用的爆發(fā)式增長,標(biāo)志著AI從分析決策邁向了自主創(chuàng)造的新紀元,然而其依賴海量數(shù)據(jù)訓(xùn)練、生成內(nèi)容不可控等特性,也在個人信息收集、使用與泄露環(huán)節(jié)引發(fā)了全新風(fēng)險。如何在生成式人工智能浪潮中,如何通過構(gòu)建動態(tài)、安全且可控的數(shù)據(jù)治理體系來筑牢個人信息保護防線,已成為推動數(shù)字時代健康發(fā)展必須直面和解決的關(guān)鍵命題。
構(gòu)建分級分類保護路徑
生成式人工智能技術(shù)的廣泛運用,對個人信息權(quán)益保護提出新要求。傳統(tǒng)統(tǒng)一規(guī)則主導(dǎo)的保護模式在應(yīng)對模型訓(xùn)練、數(shù)據(jù)生成及跨場景應(yīng)用等動態(tài)處理活動時存在不足,需探索基于風(fēng)險分類、處理階段差異化調(diào)整的保護路徑,以契合技術(shù)實際,平衡保護與發(fā)展關(guān)系。保護措施需考量適當(dāng)性與實效性,具體如下:
強化數(shù)據(jù)收集環(huán)節(jié)的目的約束與范圍管控。生成式人工智能開發(fā)依托大規(guī)模數(shù)據(jù)收集,易出現(xiàn)收集范圍不明確或超限情況,如部分大型語言模型訓(xùn)練數(shù)據(jù)含未充分去標(biāo)識化的個人文本信息。應(yīng)堅持并細化目的明確與最小必要原則,要求運營者披露數(shù)據(jù)收集類型與用途,建立獨立機構(gòu)定期評估機制審查收集相關(guān)性,依法糾正無關(guān)或冗余收集行為。
依據(jù)信息敏感度與使用場景實施差異化保護。個人信息風(fēng)險隨內(nèi)容、上下文及處理方式動態(tài)變化,當(dāng)前法律分類可進一步細化以應(yīng)對生成式人工智能組合信息生成新內(nèi)容的情況。例如醫(yī)療健康領(lǐng)域生成診斷建議時,個人健康數(shù)據(jù)應(yīng)適用更嚴格標(biāo)準,包括單獨明確同意、高級別加密,算法設(shè)計嵌入數(shù)據(jù)脫敏或本地化處理等隱私增強技術(shù)。
重點規(guī)范與持續(xù)監(jiān)督高風(fēng)險處理活動。針對生成式人工智能常見的大規(guī)模、自動化及可能跨境的數(shù)據(jù)處理活動,法律應(yīng)設(shè)置具體要求:模型運行中監(jiān)控輸出是否泄露訓(xùn)練數(shù)據(jù)特征或產(chǎn)生有偏結(jié)果;為個人提供質(zhì)疑自動化決策、申請人工復(fù)查的渠道。監(jiān)管需從單一事后處置拓展至全流程常態(tài)關(guān)注。
上述措施構(gòu)建的分級分類保護路徑有助于集中資源,提升高風(fēng)險環(huán)節(jié)的保護針對性,既應(yīng)對生成式人工智能新問題,也為技術(shù)在法律框架內(nèi)有序發(fā)展提供指引,平衡個人信息權(quán)益保護與技術(shù)創(chuàng)新。
以技術(shù)手段“賦能”個人信息保護機制
生成式人工智能運行具有一定自主性與不透明性,傳統(tǒng)以事后追責(zé)為主的法律規(guī)制模式,在應(yīng)對其快速迭代及內(nèi)部“黑箱”特性時,或難以實施及時有效的干預(yù)。因此,個人信息權(quán)益保護需向前端延伸,探索通過技術(shù)性手段將法律保護目標(biāo)轉(zhuǎn)化為人工智能系統(tǒng)運行的內(nèi)在約束。
其一,模型開發(fā)階段倡導(dǎo)并規(guī)范“通過設(shè)計保護隱私”原則,在系統(tǒng)初始架構(gòu)設(shè)計時即考量隱私保護要求,推動采用聯(lián)邦學(xué)習(xí)、差分隱私、同態(tài)加密等隱私增強技術(shù),例如利用差分隱私技術(shù)在數(shù)據(jù)訓(xùn)練中添加噪聲以降低信息泄露風(fēng)險,通過技術(shù)標(biāo)準制定使隱私保護成為系統(tǒng)開發(fā)的默認選項。
其二,在數(shù)據(jù)處理與生成階段探索部署可審計的技術(shù)性約束機制,集成敏感信息過濾工具、模型決策解釋技術(shù),為用戶提供關(guān)鍵詞屏蔽、數(shù)據(jù)禁用范圍設(shè)置等控制接口。
其三,系統(tǒng)運行全周期鼓勵采用自動化合規(guī)監(jiān)測工具,對數(shù)據(jù)處理行為持續(xù)追蹤記錄并與法律規(guī)則比對,識別潛在風(fēng)險點并生成合規(guī)報告,提升監(jiān)管及時性與覆蓋范圍。
將法律要求轉(zhuǎn)化為系統(tǒng)內(nèi)在運行邏輯,是使保護措施貼合技術(shù)特性的方式,為法律落實提供直接穩(wěn)定的實現(xiàn)路徑,有助于在技術(shù)發(fā)展背景下持續(xù)保障個人信息權(quán)益。
形成政府、企業(yè)、社會多元協(xié)同規(guī)范體系
生成式人工智能的應(yīng)用可能擴大個體與信息處理者的能力差距。技術(shù)復(fù)雜性下,個體對個人信息的控制與理解能力或趨弱化,而開發(fā)者與運營者憑借模型和數(shù)據(jù)流掌控具有一定影響力。單一主體規(guī)制模式存在局限,宜構(gòu)建政府、企業(yè)、社會多方參與、各負其責(zé)的規(guī)范實施框架,形成穩(wěn)定有效的治理格局。
構(gòu)建該框架旨在整合主體優(yōu)勢與責(zé)任,推動個人信息保護法律規(guī)范充分轉(zhuǎn)化為實踐,其有效運行依賴多層面協(xié)同。
明確政府規(guī)則供給與監(jiān)管執(zhí)行的核心職能。政府需設(shè)定清晰底線規(guī)則,提供穩(wěn)定監(jiān)管預(yù)期,針對生成式人工智能技術(shù)特性細化個人信息收集、訓(xùn)練、生成等環(huán)節(jié)的合法性基礎(chǔ)與透明度要求;監(jiān)管方式可依據(jù)模型用戶規(guī)模、信息敏感程度及場景風(fēng)險等級實施分類分級管理,集中資源于高風(fēng)險活動,提升監(jiān)管精準度。
推動企業(yè)完善內(nèi)部治理機制。企業(yè)作為技術(shù)開發(fā)者與應(yīng)用者,需設(shè)立倫理或合規(guī)評估程序,在產(chǎn)品開發(fā)部署前識別評估個人信息影響;融入隱私設(shè)計理念,建立便捷的用戶行權(quán)與投訴反饋渠道。
引導(dǎo)專業(yè)社會力量發(fā)揮監(jiān)督作用。學(xué)術(shù)機構(gòu)與行業(yè)組織可開展風(fēng)險研究、制定倫理指南或?qū)嵺`標(biāo)準;技術(shù)成熟時,第三方機構(gòu)可探索算法影響評估或數(shù)據(jù)保護認證;普及知識提升公眾數(shù)字素養(yǎng)與權(quán)利意識,營造理性監(jiān)督環(huán)境。
通過明確政府監(jiān)管邊界與重點、落實企業(yè)內(nèi)控責(zé)任、吸納社會力量參與,形成多元協(xié)同規(guī)范實施路徑,有助于縮小法律與技術(shù)實踐差距。在生成式人工智能時代,應(yīng)尋求技術(shù)發(fā)展與權(quán)利保護之間的動態(tài)平衡。唯有在個人信息保護的范圍、邊界和實現(xiàn)路徑上形成更加清晰的制度安排和廣泛共識,才能更好應(yīng)對新業(yè)態(tài)發(fā)展帶來的新情況新問題,推動數(shù)字經(jīng)濟健康有序發(fā)展,為人工智能時代個人信息權(quán)益提供堅實保障。(清華大學(xué)國家治理研究院研究員 衛(wèi)子豪)
編輯:遲明緒




京公網(wǎng)安備 11010502000576號