2026年1月1日,修訂后的《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)正式施行。該法有一個極具象征意義的變化:新增了促進人工智能發(fā)展的相關規(guī)定。這是我國首次在法律層面規(guī)定促進人工智能發(fā)展的專條。這一舉措不僅是新增一個熱點詞匯,更是把AI治理從部門規(guī)章和專項規(guī)定層面,向基礎性法律框架“抬升”了一步。
一、首次入法的AI條款寫了什么?
目前,我國并沒有像歐盟那樣,用一部統(tǒng)一法律規(guī)制AI,而是把AI置入一個更可持續(xù)的法律定位——既是新質生產力強大動能,也是需要被納入安全治理的對象。我國大致是在走這樣一條路徑:基礎性法律確立原則與責任邊界,部門規(guī)章/專項規(guī)定覆蓋具體應用場景,標準與技術規(guī)范提供可操作抓手。
此次修訂的《網絡安全法》,盡管還不是AI領域的基礎性法律,但其新增條款卻體現了我國AI治理的基礎性思路。新增條款的表述是:“國家支持人工智能基礎理論研究和算法等關鍵技術研發(fā),推進訓練數據資源、算力等基礎設施建設,完善人工智能倫理規(guī)范,加強風險監(jiān)測評估和安全監(jiān)管,促進人工智能應用和健康發(fā)展?!彪m然只是寥寥數語,卻可以理解為一條發(fā)展與治理并舉的框架性條款,其內部邏輯大致是“供給側能力建設→規(guī)則側邊界設定→風險側閉環(huán)治理→應用側擴散落地”。
首先,法條以“支持基礎理論研究和關鍵技術研發(fā)”確立源頭創(chuàng)新導向,再以“推進訓練數據資源、算力等基礎設施建設”把創(chuàng)新從實驗室拉到產業(yè)化所需的要素與底座,從而完成算法、算力、數據的AI“鐵三角”的支撐體系。接著,法條轉入規(guī)范與治理維度,通過“完善倫理規(guī)范”提供價值邊界與社會可接受性,再用“加強風險監(jiān)測評估和安全監(jiān)管”構造可執(zhí)行的治理閉環(huán),最后以“促進應用和健康發(fā)展”把政策目標落到產業(yè)擴散與長期可持續(xù)上。
上述法條之所以具有基礎性作用,在于它用要素(算法、算力、數據)—規(guī)則(倫理)—機制(監(jiān)測評估/監(jiān)管)—目標(應用/健康發(fā)展)的四段式,把未來多部門規(guī)章、標準體系、評測機制、產業(yè)政策與執(zhí)法裁量的共同坐標系先定下來。細則可以迭代、技術可以更新,但制度框架要保持穩(wěn)定,從而為政策連續(xù)性與市場預期提供錨點。
二、我國法律體系如何規(guī)制AI?
盡管此次是AI首次寫入法律條文,但很多時候,法律不必在條文里明確寫出“人工智能”四個字。因為法律真正關心的不是你用什么技術路線,而是數據如何被收集、如何被計算以及算完之后對個人權利和市場秩序產生什么影響。因此,它更常用“個人信息處理”“自動化決策”“畫像”“個性化推送”等概念,來實現對AI的實質性規(guī)制。
第一層:數據合法性與最小必要,回答“數據從哪來、能用到哪一步”。
以《民法典》《個人信息保護法》《數據安全法》《電子商務法》等為代表的一組法律,先把“數據如何取得、如何處理、怎么留痕、出了問題誰負責”講清楚:收集和使用數據要有明確目的、合理邊界與必要性;對敏感信息、重要數據以及高風險處理活動,要有更嚴的管理與評估;強調全流程安全管理與風險控制,避免數據在訓練、共享、調用中失控。換句話說,先把原料的合法性與可控性立起來。
第二層:自動化決策的透明、公平、可拒絕、可解釋,回答“算法怎么對你下結論”。
接下來,相關法律把目光從“數據入口”移到“決策過程”。核心要求可以概括為四句話:用算法/模型做決策,不能完全黑箱;結果要公平,避免差別對待;個人應當有退出或選擇空間;對個人權益影響重大時,個人應當能獲得必要的救濟通道。這一層的實質是:AI 不僅要“算得準”,還要“算得講理”。它把“可解釋、可選擇、可糾偏”變成企業(yè)必須工程化實現的產品能力,而不是道德倡議。
第三層:個性化推薦與差別待遇要可對照、可退出,回答“結論怎么影響你的選擇與錢包”。
在平臺、電商與信息分發(fā)場景,AI最顯著的外化形態(tài)是推薦、排序與定價。相關法律的共同邏輯是:允許個性化,但不能把它做成“唯一選項”;不能讓算法成為差別待遇的遮羞布;必須給用戶一種可對照的機制,讓個人能夠看見“非個性化”的另一種結果或路徑。這一層的價值在于,把算法影響從“看不見的后臺變量”變成“用戶可感知的前臺選擇”,從而削弱信息不對稱帶來的不當優(yōu)勢。
這套規(guī)制方式的好處是:技術再變,法律盯住的仍是“畫像→決策→影響個人權利和市場秩序”的結構性風險。換句話說,AI換皮一千次,法條只要抓住“誰拿你的信息算了你、算完怎么對你”,它就跑不掉。
三、法律如何促進AI新質生產力發(fā)展?
企業(yè)界的一個常見誤解,是把合規(guī)視為“成本項”。但在AI時代,合規(guī)更像一輛車的底盤:它不直接決定你跑多快,卻決定你能不能上高速、敢不敢加足馬力,以及出了事故有沒有安全氣囊。簡而言之,法律提供的是新質生產力發(fā)展所需要的“穩(wěn)定預期”。
修訂后的《網絡安全法》將AI納入基礎性法律支持與治理框架,再疊加相關法律等對數據、算法、自動化決策等的系統(tǒng)規(guī)制,會在至少四個方面釋放“促發(fā)展”的紅利,值得我國AI企業(yè)認真研究。
1.把“數據不敢用”改造成“數據可證明地可用”:降低要素流通的交易成本。
筆者在AI企業(yè)調研時,一位企業(yè)家曾明確表示,“數據合規(guī)的邊界不清晰,是時刻懸在我們頭上的一把劍”。AI的第一生產要素是數據,但數據的流通不是技術問題,而是權責問題。法律把“敢不敢用數據”變成“怎么用、如何證明我用得對”,這會促進數據要素在更大范圍內流動,從而為模型訓練、行業(yè)知識庫與智能應用提供穩(wěn)定燃料。對企業(yè)而言,數據合作更容易談成,數據資產也更容易被“金融化”識別。
2.倒逼“隱私保護工程化”:催生一整條AI合規(guī)技術與服務產業(yè)鏈。
法律對自動化決策、個性化推送、差別待遇等提出要求,企業(yè)要滿足這些要求,靠“寫一份制度”不夠,必須工程化。于是,合規(guī)反而會帶來新的供給側機會。模型與算法治理工具會成為標配,隱私與安全增強技術(PETs)會更普及,合規(guī)咨詢與第三方評測會更產業(yè)化。這相當于把“合規(guī)要求”轉化為“產業(yè)需求”,而產業(yè)需求又會反過來提升全社會的AI可靠性。這就是典型的新質生產力邏輯:規(guī)則不是剎車,而是把道路鋪平。
3.把“黑箱紅利”變成“可解釋紅利”:推動商業(yè)模式從短期套利走向長期復利。
在平臺與消費場景里,AI最常見的利潤來源往往是“信息不對稱”。法律的相關規(guī)定實質上是在壓縮“黑箱套利空間”。這對行業(yè)的正向作用在于:促使企業(yè)把能力從“更會算你”轉向“更好服務你”。同樣是推薦算法,有的企業(yè)用來最大化點擊率,有的用來減少信息噪音、提高匹配質量;前者短期收益高但信任消耗快,后者是慢變量卻可復利。法律會推動企業(yè)用透明、體驗與品牌去競爭,從而抬升行業(yè)平均質量門檻,減少“劣幣驅逐良幣”。
4.把“AI安全”納入網絡安全體系:讓“安全能力”本身成為生產力。
修訂后的《網絡安全法》提出運用AI提升網絡安全保護水平,對企業(yè)端的意義是:AI不只是業(yè)務增長工具,也會成為安全防護工具,并逐步被納入“合規(guī)必備能力”。這會帶來兩個增量:一是安全運營智能化,二是關鍵行業(yè)的“可信AI”落地加速。當法律框架與安全治理路徑更清晰,行業(yè)會更敢于投入、試點與規(guī)模化。一句話,安全不再只是“防損”,而會變成“增效”。把安全能力做成標準化、平臺化,反而能提升生產系統(tǒng)的韌性與效率。
總之,AI入法,不是給技術戴緊箍,而是給產業(yè)裝底盤。對企業(yè)而言,這不是一句口號式的“加強監(jiān)管”,而是一張越來越清晰的路線圖:數據從哪里來、怎么進模型、怎么做推薦和定價、怎么解釋、怎么留痕、怎么評估風險——都在變得更可預期。而可預期,正是投資、創(chuàng)新與規(guī)?;瘧玫那疤帷?/p>
法律并不會替企業(yè)寫代碼,但它會決定企業(yè)寫出來的代碼,究竟是在松軟的沙地上搭帳篷,還是在牢固的地基上起高樓。
(作者為復旦大學數字與移動治理實驗室研究員)
編輯:范學偉