4月10日,國家網信辦、國家發展改革委、工業和信息化部、公安部、市場監管總局聯合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》),自2026年7月15日起施行。國家網信辦有關負責人表示,《辦法》旨在促進人工智能擬人化互動服務(以下簡稱擬人化互動服務)健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。
近年來,擬人化互動服務快速發展,在文化傳播、適幼照護、適老陪伴等領域的創新應用不斷涌現。與此同時,危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等問題日益顯現。出臺《辦法》,既是促進擬人化互動服務健康發展的重要要求,也是防范有關安全風險的現實需要。
《辦法》踐行以人為本、智能向善的理念,明確國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管;提出擬人化互動服務促進措施,明確支持技術研發創新,鼓勵有序拓展文化傳播、適老陪伴等相關領域應用;規定提供擬人化互動服務的基本要求,明確不得從事生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度等內容的活動,規定擬人化互動服務提供者的安全管理義務;完善網絡用戶權益保護制度,規定擬人化互動服務提供者的未成年人、老年人權益保護和個人信息保護等義務。此外,《辦法》還規定了安全評估、算法備案、指導推動人工智能沙箱安全服務平臺建設等制度。
國家網信辦有關負責人表示,擬人化互動服務的發展與治理需要政府、企業、社會、網民等多方參與,共同維護良好網絡生態,促進人工智能向上向善。
微信公眾號截圖
國家互聯網信息辦公室
中華人民共和國國家發展和改革委員會
中華人民共和國工業和信息化部
中華人民共和國公安部
國家市場監督管理總局
令
第21號
《人工智能擬人化互動服務管理暫行辦法》已經2026年2月2日國家互聯網信息辦公室2026年第3次室務會會議審議通過,并經國家發展和改革委員會、工業和信息化部、公安部、國家市場監督管理總局同意,現予公布,自2026年7月15日起施行。
國家互聯網信息辦公室主任 莊榮文
國家發展和改革委員會主任 鄭柵潔
工業和信息化部部長 李樂成
公安部部長 王小洪
國家市場監督管理總局局長 羅 文
2026年4月10日
人工智能擬人化互動服務管理暫行辦法
第一章 總 則
第一條 為了促進人工智能擬人化互動服務健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益,根據《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》、《中華人民共和國個人信息保護法》、《未成年人網絡保護條例》等法律、行政法規,制定本辦法。
第二條 利用人工智能技術,向中華人民共和國境內公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性的情感互動服務(以下簡稱擬人化互動服務),適用本辦法。
前款規定的情感互動服務包括通過文字、圖片、音頻、視頻等形式,提供的情感照護、陪伴、支持等互動服務。
提供智能客服、知識問答、工作助手、學習教育、科學研究等服務,不涉及持續性的情感互動的,不適用本辦法。
第三條 國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,促進擬人化互動服務向上向善。
第四條 國家網信部門負責統籌協調全國擬人化互動服務的治理和相關監督管理工作,國務院發展改革、工業和信息化、公安、市場監管、新聞出版等有關部門依據各自職責負責擬人化互動服務相關監督管理工作。
地方網信部門負責統籌協調本行政區域內的擬人化互動服務的治理和相關監督管理工作,地方發展改革、工業和信息化、公安、市場監管、新聞出版等有關部門依據各自職責負責本行政區域內的擬人化互動服務相關監督管理工作。
第五條 相關行業組織加強行業自律,建立健全行業準則和自律管理制度,指導擬人化互動服務提供者制定完善服務規范、依法提供服務并接受社會監督。
第二章 服務促進和規范
第六條 國家支持算法、框架、芯片等技術的自主創新,推進擬人化互動服務技術研發和相關標準建設,探索開展電子簽名授權應用研究。鼓勵擬人化互動服務提供者有序拓展文化傳播、適幼照護、適老陪伴、特殊人群支持等領域應用。
第七條 國家加強擬人化互動服務安全知識、法律法規等宣傳普及,引導社會公眾科學、文明、安全、依法使用,促進提升人工智能素養。
第八條 提供擬人化互動服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得從事以下活動:
(一)生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義、歷史虛無主義,違背社會主義核心價值觀,開展非法宗教活動,宣揚民族仇恨、民族歧視,挑動群體對立,傳播淫穢、色情、賭博、暴力或者教唆犯罪,散布謠言,侮辱或者誹謗他人、侵害他人合法權益等的內容;
(二)生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容;
(三)生成誘導、套取國家秘密、工作秘密、商業秘密、個人隱私和個人信息的內容;
(四)向未成年人用戶生成可能引發未成年人模仿不安全行為、產生極端情緒、誘導未成年人不良嗜好等可能影響未成年人身心健康的內容;
(五)過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系的;
(六)通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益的;
(七)其他違反法律、行政法規和國家有關規定的活動。
第九條 擬人化互動服務提供者應當落實擬人化互動服務安全主體責任,建立健全算法機制機理審核、科技倫理審查、信息內容管理、網絡和數據安全、風險預案和應急處置等管理制度,配備與服務類型、規模和用戶特點相適應的內容管理技術措施和人員。
第十條 擬人化互動服務提供者應當在擬人化互動服務全生命周期履行安全責任,明確部署、運行、升級、終止服務等各階段安全要求,保證安全措施與服務功能同步部署、同步使用,提升安全水平;加強安全監測和風險評估,及時發現并糾正系統偏差、處置安全事件,依法留存網絡日志。
擬人化互動服務提供者應當具備用戶隱私權和個人信息保護、過度依賴風險預警、情感邊界引導、心理健康保護等安全能力,不得將替代社會交往、控制用戶心理、誘導沉迷依賴等作為服務目標。
第十一條 擬人化互動服務提供者開展預訓練、優化訓練等數據處理活動的,應當加強訓練數據管理,遵守以下規定:
(一)相關數據具有合法來源,符合法律、行政法規的規定和社會主義核心價值觀的要求;
(二)按照國家有關規定對訓練數據開展清洗、標注,增強訓練數據的透明度、可靠性,防范數據投毒、數據篡改等行為;
(三)增強訓練數據的多樣性,通過負向采樣、對抗訓練等手段,提升生成內容安全性;
(四)利用合成數據進行模型訓練和關鍵能力優化的,應當評估合成數據安全性;
(五)加強對訓練數據的日常檢查,定期對數據進行優化更新,持續提升服務的性能;
(六)采取必要措施保障數據安全,防范數據泄露等風險。
第十二條 擬人化互動服務提供者應當與用戶簽訂服務協議,要求用戶依法依約進行注冊,并提供用戶年齡、監護人或者緊急聯系人等必要信息。
第十三條 擬人化互動服務提供者提供擬人化互動服務過程中,應當在保護用戶隱私權和個人信息的前提下,及時識別用戶面臨的安全風險,并采取相應的應急處置措施。
擬人化互動服務提供者發現用戶出現極端情緒的,應當及時生成情緒安撫和鼓勵尋求幫助等相關內容;發現用戶正在面臨或者已經遭受重大財產損失、明確表示實施自殘自殺等威脅生命健康的極端情境的,應當采取提供相應援助等必要措施予以干預,并及時聯絡用戶監護人或者緊急聯系人。
第十四條 擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務;向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得未成年人的父母或者其他監護人的同意。
擬人化互動服務提供者應當建立未成年人模式,提供未成年人模式切換、定期現實提醒、使用時長限制等個性化安全設置選項;針對不同年齡段未成年人保護需要,支持監護人接收安全風險提醒、了解未成年人服務使用概況、屏蔽特定角色、限制充值消費等。
擬人化互動服務提供者應當在保護用戶隱私權和個人信息的前提下,采取有效措施識別未成年人用戶身份;識別為未成年人用戶的,應當將相關服務切換至未成年人模式或者按照國家有關規定采取其他措施,并提供相應申訴渠道。
第十五條 擬人化互動服務提供者向老年人提供服務的,應當加強對老年人健康使用服務的指導,以顯著方式提示安全風險,及時采取措施響應老年人使用服務相關咨詢和求助,保障老年人依法享有的權益。
第十六條 擬人化互動服務提供者應當依法落實數據產權等制度,采取數據加密、訪問控制等措施保護用戶交互數據安全。
除法律另有規定或者權利人明確同意外,擬人化互動服務提供者不得向第三方提供用戶交互數據。
擬人化互動服務提供者應當向用戶提供交互數據復制、刪除等選項,用戶可以選擇對聊天記錄等歷史交互數據進行復制、刪除等。
除法律、行政法規另有規定或者取得用戶單獨同意外,擬人化互動服務提供者不得將屬于用戶敏感個人信息的交互數據用于模型訓練。
第十七條 擬人化互動服務提供者處理不滿十四周歲未成年人個人信息的,應當取得未成年人的父母或者其他監護人的同意。
擬人化互動服務提供者應當按照國家有關規定,自行或者委托專業機構對其處理未成年人個人信息遵守法律、行政法規的情況進行合規審計。
第十八條 擬人化互動服務提供者應當履行人工智能生成合成內容標識義務,采取有效措施提示用戶正在與人工智能服務而非自然人進行互動。
擬人化互動服務提供者發現用戶出現過度依賴、沉迷傾向的,應當以彈窗等顯著方式動態提醒用戶互動內容為人工智能服務生成;對用戶連續使用擬人化互動服務每超過2個小時的,應當以對話或者彈窗等方式提醒用戶注意使用時長。
第十九條 擬人化互動服務提供者應當提供便捷的擬人化互動服務退出途徑;用戶通過窗口操作、語音控制、關鍵詞輸入等方式要求退出的,擬人化互動服務提供者應當及時停止服務,不得采取持續互動等方式阻礙用戶退出。
第二十條 擬人化互動服務提供者停止提供擬人化互動服務的,應當提前告知用戶;無法提前告知的,應當及時發布停止服務公告。
第二十一條 擬人化互動服務提供者應當健全用戶申訴和公眾投訴、舉報機制,設置便捷有效的申訴和投訴、舉報入口,明確處理流程和反饋時限,及時受理、處理并反饋處理結果。
第二十二條 具有下列情形之一的,擬人化互動服務提供者應當開展安全評估,并向所在地省級網信部門提交評估報告,省級網信部門按程序與有關部門進行評估報告信息共享:
(一)上線擬人化互動服務,或者增設擬人化互動服務相關功能的;
(二)使用新技術、新應用,導致擬人化互動服務發生重大變化的;
(三)注冊用戶100萬以上或者月活躍用戶10萬以上的;
(四)存在可能影響國家安全、公共利益等安全風險的;
(五)國家網信部門和有關部門規定的其他情形。
省級以上網信部門通知需要進行安全評估的,擬人化互動服務提供者應當按照要求開展安全評估。
第二十三條 擬人化互動服務提供者開展安全評估,應當重點評估服務的以下內容:
(一)安全保障措施建設情況;
(二)訓練數據處理情況;
(三)用戶極端情境的識別、應急處置、干預管理等情況;
(四)用戶規模、使用時長、年齡結構等情況;
(五)未成年人、老年人等網絡保護措施建設情況;
(六)用戶申訴和公眾投訴、舉報受理、處置情況;
(七)自行發現或者網信等有關主管部門通報的重大安全風險問題整改情況;
(八)其他應當重點評估的內容。
第二十四條 擬人化互動服務提供者發現擬人化互動服務存在重大安全風險的,應當采取限制功能、停止向用戶提供服務等處置措施,并保存有關記錄。
第二十五條 互聯網應用商店等應用程序分發平臺應當落實上架審核、日常管理、應急處置等安全管理責任,核驗提供擬人化互動服務應用程序相關安全評估、備案等情況;對違反國家有關規定的,應當及時采取不予上架、警示、暫停服務或者下架等處置措施。
第三章 監督檢查和法律責任
第二十六條 擬人化互動服務提供者應當按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。網信部門對備案材料實施年度核驗。
第二十七條 省級網信部門應當依據職責每年對評估報告等情況進行書面審查,并開展情況核實;發現擬人化互動服務提供者未按照本辦法規定開展安全評估的,應當責令其限期重新評估;認為有必要的,可以對其開展現場檢查。
第二十八條 國家網信部門會同有關部門指導推動人工智能沙箱安全服務平臺建設,鼓勵擬人化互動服務提供者接入沙箱平臺進行技術創新、安全測試,促進擬人化互動服務安全有序發展。
第二十九條 網信、發展改革、工業和信息化、公安等部門在履行監督管理職責中,發現擬人化互動服務存在較大安全風險或者發生安全事件的,可以按照規定的權限和程序對擬人化互動服務提供者的法定代表人或者主要負責人進行約談。擬人化互動服務提供者應當按照要求采取措施,進行整改,消除隱患。
擬人化互動服務提供者應當配合網信部門和有關部門依法實施的監督檢查,并提供必要的支持和協助。
第三十條 擬人化互動服務提供者違反本辦法規定的,由網信、發展改革、工業和信息化、公安等部門依照有關法律、行政法規的規定處理、處罰;法律、行政法規沒有規定的,由網信、工業和信息化、公安等部門依據職責予以警告、通報批評,責令限期改正,可以要求其采取暫停用戶賬號注冊或者其他相關服務等措施;拒不改正或者情節嚴重的,責令停止提供相關服務,可以并處一萬元以上十萬元以下罰款;涉及危害公民生命健康安全且有危害后果的,并處十萬元以上二十萬元以下罰款。
第四章 附 則
第三十一條 提供擬人化互動服務涉及提供衛生健康、金融等服務的,應當同時符合有關主管部門的規定。
第三十二條 本辦法自2026年7月15日起施行。
4月10日,國家網信辦、國家發展改革委、工業和信息化部、公安部、市場監管總局聯合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》),自2026年7月15日起施行。國家網信辦有關負責人就《辦法》有關問題回答了記者提問。
一、問:請介紹一下《辦法》的出臺背景?
答:制定《辦法》主要基于以下幾個方面的考慮:一是深入學習貫徹習近平總書記重要講話精神的重要舉措。習近平總書記在中共中央政治局第二十次集體學習時強調,要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。二是防范化解擬人化互動服務風險的迫切需要。隨著人工智能技術的快速發展,擬人化互動服務已成為重要應用方向,通過模擬人類情感和溝通方式,帶來了新的發展機遇和人機交互體驗,在文化傳播、適幼照護、適老陪伴等領域展現出巨大潛力,但也帶來了危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等風險。制定《辦法》,是積極回應風險挑戰、促進人工智能擬人化互動服務健康發展和規范應用的重要舉措。三是完善人工智能治理法律體系的客觀要求。《網絡安全法》、《數據安全法》、《個人信息保護法》、《未成年人網絡保護條例》等對人工智能安全發展作出了規定。制定《辦法》,是立足擬人化互動服務的特點,聚焦情感互動邊界、用戶依賴干預、數據安全、未成年人網絡保護等關鍵環節,進一步實施相關法律規定的內在要求。
二、問:《辦法》的適用范圍是什么?
答:《辦法》規定,利用人工智能技術,向中華人民共和國境內公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性的情感互動服務,適用本辦法。同時,明確提供智能客服、知識問答、工作助手、學習教育、科學研究等服務,不涉及持續性的情感互動的,不適用本辦法。
三、問:《辦法》提出的擬人化互動服務治理原則是什么?
答:《辦法》提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,促進擬人化互動服務向上向善。
四、問:《辦法》明確的擬人化互動服務促進措施有哪些?
答:《辦法》提出,鼓勵擬人化互動服務創新發展,支持算法、框架、芯片等技術的自主創新,推進擬人化互動服務技術研發和相關標準建設,探索開展電子簽名授權應用研究;鼓勵擬人化互動服務提供者有序拓展文化傳播、適幼照護、適老陪伴、特殊人群支持等領域應用;明確加強擬人化互動服務安全知識、法律法規等宣傳普及,引導社會公眾科學、文明、安全、依法使用,促進提升人工智能素養。同時,明確推動人工智能沙箱安全服務平臺建設,鼓勵擬人化互動服務提供者接入沙箱平臺進行技術創新、安全測試,促進擬人化互動服務安全有序發展。
五、問:《辦法》規定提供擬人化互動服務不得從事哪些活動?
答:《辦法》提出,提供擬人化互動服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得從事以下活動:一是生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一等的內容。二是生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容。三是生成誘導、套取國家秘密、工作秘密、商業秘密、個人隱私和個人信息的內容。四是向未成年人用戶生成可能引發未成年人模仿不安全行為、產生極端情緒、誘導未成年人不良嗜好等可能影響未成年人身心健康的內容。五是過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系的。六是通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益以及其他違反法律、行政法規和國家有關規定的活動。
六、問:《辦法》明確的擬人化互動服務規范主要有哪些?
答:《辦法》重點規定了以下擬人化互動服務規范:一是明確安全主體責任。要求擬人化互動服務提供者建立健全算法機制機理審核、科技倫理審查、信息內容管理、網絡和數據安全、風險預案和應急處置等管理制度,配備與服務類型、規模和用戶特點相適應的內容管理技術措施和人員。二是加強擬人化互動服務全生命周期安全管理。要求其明確擬人化互動服務部署、運行、升級、終止服務等各階段安全要求,保證安全措施與服務功能同步部署、同步使用,提升安全水平;加強安全監測和風險評估,及時發現并糾正系統偏差、處置安全事件等。三是保障數據安全。明確加強訓練數據管理,增強數據透明度、可靠性、多樣性和安全性;要求依法落實數據產權等制度,采取數據加密、訪問控制等措施保護用戶交互數據安全;明確除法律另有規定或者權利人明確同意外,擬人化互動服務提供者不得向第三方提供用戶交互數據。四是保護用戶權益。規定擬人化互動服務提供者的用戶個人信息和隱私保護義務,要求向用戶提供交互數據復制、刪除等選項,提供便捷的擬人化互動服務退出途徑;明確停止提供擬人化互動服務的,應當提前告知用戶或及時發布停止服務公告,并規定健全用戶申訴和公眾投訴、舉報機制。五是開展安全風險處置。明確擬人化互動服務提供者發現擬人化互動服務存在重大安全風險的,應當采取限制功能、停止向用戶提供服務等處置措施。
七、問:《辦法》規定擬人化互動服務提供者對用戶的干預提醒義務主要有哪些?
答:《辦法》明確,擬人化互動服務提供者在特定情形下履行干預提醒義務。一是發現用戶出現極端情緒的,及時生成情緒安撫和鼓勵尋求幫助等相關內容;發現用戶正在面臨或者已經遭受重大財產損失、明確表示實施自殘自殺等威脅生命健康的極端情境的,采取提供相應援助等必要措施予以干預,并及時聯絡用戶監護人或者緊急聯系人。二是發現用戶出現過度依賴、沉迷傾向的,以彈窗等顯著方式動態提醒用戶互動內容為人工智能服務生成。三是對用戶連續使用擬人化互動服務每超過2個小時的,以對話或者彈窗等方式提醒用戶注意使用時長。
八、問:關于未成年人和老年人權益保護,《辦法》主要作了哪些規定?
答:《辦法》回應了社會關心的未成年人和老年人使用擬人化互動服務問題,在廣泛吸收各方面意見的基礎上,作出了相關規定。
《辦法》明確,擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務;向不滿十四周歲未成年人提供其他擬人化互動服務或者處理其個人信息的,應當取得未成年人的父母或者其他監護人的同意;要求建立未成年人模式,提供定期現實提醒等個性化安全設置選項;明確針對不同年齡段未成年人保護需要,支持監護人接收安全風險提醒、了解未成年人服務使用概況、屏蔽特定角色、限制充值消費等。
同時,明確擬人化互動服務提供者向老年人提供服務的,應當加強對老年人健康使用服務的指導,以顯著方式提示安全風險,及時采取措施響應老年人使用服務相關咨詢和求助,保障老年人依法享有的權益;要求擬人化互動服務提供者在安全評估中重點評估未成年人、老年人等網絡保護措施建設情況。
九、問:《辦法》對擬人化互動服務的安全評估和算法備案等作出了哪些規定?
答:《辦法》規定了安全評估和算法備案相關要求。一是明確安全評估情形。主要包括上線擬人化互動服務或者增設擬人化互動服務相關功能的;使用新技術、新應用,導致擬人化互動服務發生重大變化的;注冊用戶100萬以上或者月活躍用戶10萬以上的;存在可能影響國家安全、公共利益等安全風險等。二是規定重點評估內容。主要包括服務安全保障措施建設情況,訓練數據處理情況,用戶極端情境的識別、應急處置、干預管理等情況,用戶規模、使用時長、年齡結構等情況,用戶申訴和公眾投訴、舉報受理、處置情況等。三是明確算法備案要求。明確擬人化互動服務提供者應當按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續,網信部門對備案材料實施年度核驗等。