構(gòu)建生成式人工智能的安全治理新機(jī)制
在數(shù)字經(jīng)濟(jì)與智能革命浪潮中,生成式人工智能已深度融入基層政務(wù)信息處理、媒體內(nèi)容創(chuàng)作等領(lǐng)域,以知識生成延展性重塑生產(chǎn)要素配置,成為新質(zhì)生產(chǎn)力發(fā)展的核心支撐。黨的二十屆四中全會通過的《中共中央關(guān)于制定國民經(jīng)濟(jì)和社會發(fā)展第十五個五年規(guī)劃的建議》中強(qiáng)調(diào)要“加強(qiáng)網(wǎng)絡(luò)、數(shù)據(jù)、人工智能、生物、生態(tài)、核、太空、深海、極地、低空等新興領(lǐng)域國家安全能力建設(shè)”,凸顯了網(wǎng)絡(luò)、數(shù)據(jù)、人工智能等數(shù)字技術(shù)領(lǐng)域在國家安全中的重要意義。事實(shí)上,傳統(tǒng)的“先發(fā)展后治理”路徑不僅可能陷入“技術(shù)發(fā)展初期難以預(yù)測風(fēng)險,后期風(fēng)險成型又難以管控”的科林格里奇困境,還可能錯失全球AI競爭中的風(fēng)險防控窗口期。唯有以總體國家安全觀為指引,構(gòu)建韌性防御與激勵創(chuàng)新并重的治理機(jī)制,方能實(shí)現(xiàn)生成式人工智能治理中安全與發(fā)展的雙贏。
生成式人工智能的國家安全風(fēng)險研判
有效治理的前提,是對生成式人工智能的國家安全風(fēng)險形成系統(tǒng)研判。當(dāng)前風(fēng)險呈現(xiàn)多維度、跨領(lǐng)域、強(qiáng)關(guān)聯(lián)特征,但聚焦政治、經(jīng)濟(jì)、社會安全三大核心領(lǐng)域的根本性風(fēng)險,可為治理提供精準(zhǔn)靶向。
政治安全層面,生成式人工智能的挑戰(zhàn)已從潛在威脅轉(zhuǎn)為現(xiàn)實(shí)沖擊,突出表現(xiàn)為虛假信息工業(yè)化生產(chǎn)與文化價值隱性侵蝕。與傳統(tǒng)意義上的謠言不同,AIGC虛假信息生成門檻極低,普通人借助簡易工具即可完成,且能精準(zhǔn)適配地域“需求”。這正是中央網(wǎng)信辦“清朗·整治‘自媒體’發(fā)布不實(shí)信息”專項行動將其列為重點(diǎn)整治對象的核心原因。更隱蔽的風(fēng)險在于AI訓(xùn)練數(shù)據(jù)存在內(nèi)嵌的文化偏好,別有用心者可通過數(shù)據(jù)植入,在文學(xué)創(chuàng)作、歷史重構(gòu)中潛移默化地影響認(rèn)知。而這容易模糊青少年群體的主流價值觀認(rèn)知,侵蝕國家文化安全根基。
經(jīng)濟(jì)安全領(lǐng)域,生成式人工智能使得崗位替代成為社會熱議話題,同時有關(guān)技術(shù)的“卡脖子”問題則成為產(chǎn)業(yè)安全的最大軟肋。目前,由AI引起的就業(yè)結(jié)構(gòu)失衡風(fēng)險已顯現(xiàn),但與此同時,適配AI時代的職業(yè)培訓(xùn)體系尚未完全成型。更需警惕的是技術(shù)依賴風(fēng)險,我國人工智能產(chǎn)業(yè)所需要的高端CPU、GPU仍依賴進(jìn)口,自主芯片在算力密度、能耗比上還有差距。部分國家試圖通過小院高墻策略實(shí)施芯片出口限制與技術(shù)封鎖,而這一行為一旦導(dǎo)致產(chǎn)業(yè)鏈核心環(huán)節(jié)斷裂,將直接威脅我國AI產(chǎn)業(yè)供應(yīng)鏈安全與科技自主權(quán)。
社會安全維度,風(fēng)險已直接觸及公眾安全感,其中AI詐騙與隱私泄露尤為突出。AI擬聲、擬像技術(shù)可通過個人語音片段或照片精準(zhǔn)模仿他人特征,催生親情詐騙、商務(wù)欺詐等新型犯罪。隱私安全更如定時炸彈:醫(yī)療、教育等垂直領(lǐng)域大模型收集的海量敏感數(shù)據(jù),既是黑客牟利目標(biāo),更可能通過模型推演泄露關(guān)鍵信息,如某能源企業(yè)利用AI優(yōu)化產(chǎn)能時,模型竟可以通過生產(chǎn)數(shù)據(jù)推算出能源儲備與核心設(shè)備參數(shù),直接關(guān)涉國家能源安全。
總體國家安全觀引領(lǐng)治理框架構(gòu)建
生成式人工智能的治理絕非零散措施的堆砌,需以總體國家安全觀為指引構(gòu)建“理論指導(dǎo)—實(shí)踐路徑—主體協(xié)同”的完整框架。
大安全理念要求突破單一技術(shù)風(fēng)險視角,將意識形態(tài)、社會秩序、文化傳承等納入全局研判,實(shí)現(xiàn)風(fēng)險的整體性、前瞻性治理;以人民為中心的目標(biāo)明確AI發(fā)展需堅守科技向善,把保障人民生命財產(chǎn)、規(guī)范隱私信息風(fēng)險作為底線;底線思維方式強(qiáng)調(diào)主動搶占規(guī)則制定權(quán)與技術(shù)制高點(diǎn),對主權(quán)、穩(wěn)定等核心問題預(yù)置應(yīng)對措施;發(fā)展與安全統(tǒng)籌原則要求,避免一刀切監(jiān)管抑制創(chuàng)新與無監(jiān)管導(dǎo)致風(fēng)險擴(kuò)散兩種極端;人類命運(yùn)共同體意識則指向積極參與國際規(guī)則制定,通過技術(shù)安全合作應(yīng)對跨境風(fēng)險,避免被國際合作規(guī)則邊緣化。
治理機(jī)制的核心構(gòu)建路徑
從治理機(jī)制構(gòu)建看,需聚焦“主體、方式、依據(jù)”三大核心,形成權(quán)責(zé)清晰、技術(shù)適配、規(guī)范完備的治理體系。
治理主體層面,應(yīng)構(gòu)建政府主導(dǎo)、企業(yè)盡責(zé)、公眾參與的協(xié)同機(jī)制。政府需優(yōu)化職能配置與監(jiān)管信息共享,企業(yè)協(xié)會牽頭制定數(shù)據(jù)分級分類、風(fēng)險識別等實(shí)操標(biāo)準(zhǔn),企業(yè)則應(yīng)加大安全技術(shù)研發(fā)投入,在公眾層面需強(qiáng)化安全意識培育,通過AI風(fēng)險舉報平臺構(gòu)建全民監(jiān)督網(wǎng)絡(luò),讓公眾成為治理的“千里眼”。
治理方式上,應(yīng)摒棄單向行政監(jiān)管模式,踐行技術(shù)治技術(shù)、產(chǎn)業(yè)促治理的思路。建立精細(xì)化訓(xùn)練數(shù)據(jù)分級制度,如醫(yī)療數(shù)據(jù)需區(qū)分基本信息、病史記錄、基因數(shù)據(jù),明確不同級別數(shù)據(jù)的使用權(quán)限與存儲規(guī)范;數(shù)據(jù)跨境監(jiān)管推行白名單+黑名單模式,普通數(shù)據(jù)經(jīng)安全評估可出境,敏感數(shù)據(jù)禁止出境,兼顧安全與國際合作。同時,要破解數(shù)據(jù)壟斷,通過公共數(shù)據(jù)共享平臺保障中小企業(yè)合規(guī)數(shù)據(jù)獲取,以反壟斷培育健康產(chǎn)業(yè)生態(tài);國際上則倡導(dǎo)技術(shù)普惠,反對技術(shù)脫鉤與單邊制裁,為我國AI企業(yè)拓展發(fā)展空間。
治理依據(jù)方面,需實(shí)現(xiàn)硬軟互補(bǔ)。硬法層面應(yīng)在充分調(diào)研后出臺高位階人工智能法,明確AI法律屬性、管理體制與責(zé)任劃分,解決生成內(nèi)容版權(quán)歸屬等爭議問題,同時,針對自動駕駛、深度合成等特定高風(fēng)險場景,制定專門法規(guī),實(shí)現(xiàn)場景化精細(xì)治理。軟法層面需強(qiáng)化倫理準(zhǔn)則的實(shí)操性,依托行業(yè)協(xié)會制定的各類生成式人工智能行業(yè)倫理準(zhǔn)則,應(yīng)避免空泛表述。企業(yè)必須建立倫理審查委員會,對上線模型開展風(fēng)險評估,涉及公眾利益的應(yīng)用需公開審查結(jié)果。此外,要將嚴(yán)重違反倫理的企業(yè)納入失信名單,以市場準(zhǔn)入限制強(qiáng)化約束效力。
生成式人工智能是推動發(fā)展的引擎還是威脅安全的隱患,關(guān)鍵在于規(guī)范治理方向而非限制技術(shù)本身的發(fā)展。以總體國家安全觀為指引,將安全理念嵌入技術(shù)研發(fā)、產(chǎn)業(yè)發(fā)展、應(yīng)用推廣全鏈條,才能確保技術(shù)向善、造福人類。(東南大學(xué)法學(xué)院 馬近斐)
編輯:遲明緒




京公網(wǎng)安備 11010502000576號