
國家互聯網信息辦公室等4部門近日聯合發布《人工智能生成合成內容標識辦法》,自2025年9月1日起施行。這意味著,屆時所有AI作品必須亮明身份,標注是AI生成。該《辦法》聚焦人工智能“生成合成內容標識”關鍵點,為破解“AI造假”困局提供了依據。
近年來,人工智能大模型快速發展,為人們提供了便利工具,但在促進經濟社會發展的同時,也帶來了技術濫用的問題。AI技術降低虛假視頻制作成本,被用來偽造明星代言、偽造科學家帶貨,讓批量生產、快速傳播、收割變現、注銷換殼的欺詐營銷快速形成閉環。為了吸引流量、快速起號,“深度合成工廠”利用AI技術批量生產虛假信息,獵奇、極端、煽動情緒的假新聞充斥互聯網,令公眾真假難辨。
當AI作品深入千家萬戶時,AI生成內容的以假亂真就會帶來社會信任危機。《辦法》的出臺正當其時,本質上是一場重建人機信任的“革命”。當AI學會為自己的作品署名,人類才能安心與之共舞。
《辦法》從三重維度筑牢治理防線,重點解決“哪些是生成的”“誰生成的”“從哪里生成的”等關鍵問題,實現全流程安全治理。
在技術層面,明確研發者的“身份編碼”義務。
《辦法》明確服務提供者應當對文本、音頻、圖片、視頻、虛擬場景等生成合成內容添加顯式標識,應當在生成合成內容的文件元數據中添加隱式標識。這相當于為每件AI作品頒發“數字身份證”,既便于監管部門溯源追責,也倒逼企業將倫理設計嵌入技術底層,實現生成式AI的全生命周期標識管理。
在平臺層面,壓實內容分發者的“身份查驗”責任。
《辦法》對內容分發平臺的責任也作出詳細規定。按要求,內容分發平臺要核驗文件元數據中是否含有隱式標識,必須采取措施對AI生成內容進行標識。此前,我國已有多個社交平臺試點“AI內容防火墻”,提高虛假信息攔截率。未來,隨著《辦法》的實施,“源頭標注+平臺攔截”的雙重機制,將重塑網絡空間的信任生態。
在公眾層面,激活社會監督的“身份認知”意識。
人工智能工具普及化,讓每個用戶都可能成為虛假內容的制作者和受害者。依據《辦法》規定,用戶發布AI生成合成內容時應該主動標識,任何組織和個人不得惡意刪除、篡改、偽造、隱匿這些內容標識。可以想見,對公眾而言,未來刷視頻時先找“AI身份證”,會像過去買商品時看生產日期一樣自然。而當人人都是“鑒定師”時,AI作品自然無處匿名。
當然,打造可信賴的人工智能技術并非一日之功。比如,《辦法》中提到的隱式標識,在技術上能否被規避和移除?這還需要更多企業加強對人工智能安全的投入與研究,以合理成本提高系統安全性。
AI產業正在蓬勃生長。統計報告顯示,我國人工智能企業數量超4500家,核心產業規模已接近6000億元。截至2024年12月,我國有2.49億人表示自己使用過生成式人工智能產品,占整體人口的17.7%。
AI技術進步和AI安全治理是“一體兩面”,科技之光投射在合乎倫理的鏡面上,才能照亮更長遠的未來。讓AI生成內容亮明身份,是科技向善的強制約束,是享利避害的制度設計。標識制度的施行,將為AI技術鋪設可持續發展的軌道,讓人工智能更好地服務于人類社會。 (本文來源:經濟日報 作者:佘惠敏)