News and information
2023.08.21来源: 智慧城市网编辑:媒体部
人工智能飞速发展,在为新一轮技术革命提供支撑的同时,也给社会带来诸多风险和挑战。
自2017年以来,美国、欧盟、中国、加拿大、日本、新加坡等国家或地区陆续发布AI发展和治理的法律法规准则,立法探索也历经从宏观性准则和战略到条款逐渐细化的过程。
2022年,ChatGPT横空出世,生成式人工智能的惊艳表现和其背后暗藏的新型风向都被推至聚光灯下。美国、欧盟等纷纷出台相关人工智能治理文件,以应对这一新生事物的机遇和挑战。各国如何通过从法律的角度回应人工智能发展过程中提出的一系列新问题?我国又将如何通过立法构建具有中国特色的人工智能治理路径?
近日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组(以下简称“课题组”)主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉正式发布《人工智能法(示范法)》(以下简称《示范法》)。
《示范法》涵盖总则、工智能支持与促进、人工智能管理制度、人工智能研发者和提供者义务、人工智能综合治理机制、法律责任和附则七大章节。总体来看,《示范法》坚持发展与安全并行的中国式治理思路,提出了负面清单管理等治理制度,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。
起草说明
一、起草背景
今年以来,以ChatGPT等产品为代表的生成式人工智能技术迅猛发展,为人工智能产业注入一针强心剂,引发新一轮人工智能革命。但同时,新技术新应用也会带来网络安全、数据安全、个人信息保护等方面的风险。人工智能治理需要抓住技术发展机遇,科学合理推进,以在未来新一轮科技革命和国际科技竞争中取得主动权。目前,全球各主要经济体均在进行实践探索,尝试构建人工智能治理规则体系、话语体系。欧盟《人工智能法案》已进入最终谈判阶段,该法案采用风险等级分类方式对人工智能进行监管,针对其中高风险类别规定了详细的全流程风险管理措施,并引入了监管沙盒等治理手段。美国虽尚未有成体系立法,但于2022年10月发布了《人工智能权利法案蓝图》,提出了安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案与后备等五项人工智能治理原则。在这一文件的基础上,美国联邦政府各部门、各州正在推进政策制定或立法工作。
中国在2023年4月份就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,并于7月正式发布《生成式人工智能服务管理暂行办法》,率先就生成式人工智能监管这一议题给出中国方案。此外,人工智能法也已被列入国务院2023年立法工作计划。未来,中国如何通过立法在拥抱技术发展的同时有效规制风险,贡献出具有中国特色的人工智能治理路径,将受到国内外各界的密切关注。
2023年上半年以来,在持续、长期追踪研究人工智能发展、监管的基础上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉组织多方专家团队,经多次调研、讨论、修改,起草形成《人工智能法(示范法)》(以下简称《示范法》)。《示范法》立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家关立法提供参考的同时,也期待通过1.0、2.0、及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。
二、起草思路与主要结构
《示范法》分为六章,包括人工智能基本原则,促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任。《示范法》坚持中国式治理思路,既鼓励技术发展,又坚守安全底线,是具有综合性、统辖性的立法设计。
第一章“总则”,阐明人工智能发展的基本原则,包括治理原则、人类自主原则、安全原则、透明可解释、公平原则等。在总则确立的原则基础上,下述各章将围绕总则展开,并与相关条文呼应。
第二章“人工智能发展”,抓住促进发展这一“牛鼻子”,从基础设施、人才培养、技术创新、体制机制支持等维度提出相应制度规范,结合产业发展实际,采取有力措施鼓励人工智能创新。本章还强调以国家机关的先行先试促进人工智能的推广应用。
第三章“人工智能管理制度”,沿用近年来实践证明较为可行的风险分类分级管理方式,对人工智能技术研发和提供活动作出规定。起草组认为,鉴于人工智能技术迭代迅速、未来发展潜力较大,应在监管中适度予以放宽,不应规定过重义务、设定过多限制。因此,起草组采用负面清单管理制度对人工智能进行风险管理:负面清单内的研发、提供活动采取许可机制,实行事前监管;负面清单外的研发、提供活动则采取备案机制,实行事后监管。这一设计旨在减轻人工智能研发、提供等活动的审查、许可等环节成本,既有效防范关键风险,又容许创新发展。
第四章“人工智能研发者、提供者义务”,明确人工智能研发者、提供者应承担相应合规义务,如保障公平性和可解释性、进行科技伦理审查和安全审查等,并且应将安全义务贯穿于人工智能活动整个生命周期,将人工智能治理的基本原则转化为企业可落地、监管可监督的义务类型。同时,基于人工智能产业链中主体的复杂性,本章第二、第三节对人工智能研发者、提供者进行了区分,依据其不同活动特点分配主体义务。最后,结合本法前述条款设定的负面清单管理制度,本章针对负面清单内的人工智能研发、提供活动进一步规定了相应的义务类型,保障义务与风险一致,坚守安全底线。
第五章“综合治理机制”。本章衔接总则规定,明确国家人工智能主管机关职责,如统筹人工智能发展和管理,制定人工智能监管规则、指引,组织制定人工智能伦理、安全、管理等方面标准,组织人工智能技术监测、评估、审计工作等。此外,本章还提出创新监管、协同监管等机制,提高监管效率和治理效能,加强多元主体沟通协作。
第六章“法律责任”,根据人工智能的风险活动,设计相应的法律责任。同时,本章兼顾发展导向,明确尽职免责等制度,以为人工智能创新活动提供宽松政策环境。
三、示范法创新点
示范法起草团队成员长期研究人工智能发展与治理,根据人工智能的最新动态着手起草工作,起草过程历经数月,充分结合产业发展动态以及国内外人工智能发展最新进展。总体来看,起草说明具有如下创新点:
(一)明确人工智能主管机关
在示范法设计阶段,就人工智能治理机制,起草组提出两种思路:一是设置主管机关统筹人工智能发展与管理,二是根据此前各个部门职责,分行业、分领域实施治理。最终,起草组认为应以更高维度来对待人工智能治理问题,避免产生类似互联网平台治理等问题上“九龙治水”的困境,故创设性提出设置国家人工智能主管机关和地方人工智能主管机关,统筹负责全国范围内人工智能发展与管理工作。
(二)划明安全底线
随着商用化序幕拉开,人工智能带来的“副作用”——虚假新闻、电信网络诈骗、个人信息泄露等逐渐显现。安全是发展的基础,坚守人工智能安全底线有利于构建良好的行业氛围、增进社会公众对人工智能的认识与信任,也能更好在人工智能研发应用过程中保护个人权利、公共利益和国家安全。
聚焦人工智能产业链治理难题。人工智能产业链包括训练数据处理、数据标注、模型开发、算力基础建设和落地服务场景等多个环节,包含了大量不同类型的行为主体,具有高度协作的特点。人工智能研发、提供和使用行为所造成的风险不仅影响行为者自身,还会沿产业链向其他合作方传导,造成风险扩散。尤其是,人工智能基础模型在应用体系中扮演重要角色,一旦出现相关风险,可能沿服务提供链条影响下游所有各类垂直细分场景的服务提供和使用。因此,起草团队抓住产业链关键环节,明确规定了基础模型研发者应遵循的义务,要求其制定使用规则、公平公正提供基础模型、协助其他研发者、提供者履行相关义务、对严重违反示范法规定的其他主体采取措施等。同时,示范法还要求研发者和提供者之间应当密切配合,避免互相推诿责任的情形。
基于人工智能带来的风险在当前法律体系中增设义务。目前国内在个人信息保护、数据安全、网络安全、互联网信息服务、知识产权、竞争法等方面已有清晰、成熟的法律制度体系,示范法则聚焦人工智能应用过程可能造成的潜在风险,保障人工智能产品与服务的公开、透明、公平与可解释,并依法进行科技伦理审查。鉴于人工智能模型算法的运行机制并不完全明晰,会产生“开悟”“涌现”现象,可能导致违背预期的结果。起草团队还要求相关主体在履行一般安全义务的同时,需保障人工智能的运行结果符合预期,保证其服务的稳定,确保人类对人工智能的监督和控制,促进技术向善。此外,示范法采取负面清单管理机制,明确将符合一定条件的人工智能研发、提供活动纳入清单,对清单内活动进行事前监管,并规定了相应程序,赋予实施负面清单内行为的主体以特别义务。
(三)促进发展有实招
示范法坚持发展方向,采取有效措施鼓励生成式人工智能创新发展,对人工智能服务实行包容审慎态度。相较于侧重于惩罚性、管制类的立法,示范法更偏向于促进发展,在制度设计上留出更多容错空间。
在第二章人工智能发展中,围绕目前人工智能发展的关键环节:算力技术设施,算法和基础模型创新、数据要素供给以及商业应用创新,进行了制度设计。
示范法采用前文所述负面清单监管思路,也出于审慎监管、包容发展的考量。在筹备阶段,起草团队考虑借鉴欧盟风险分级管理思路设计我国监管机制,但欧盟模式对企业合规压力仍然较大,宜更进一步聚焦重点。因此,示范法最终采取负面清单管理机制,在明确对清单内活动采取事前监管机制之外,允许负面清单外活动保留更大自主性,采取事前备案、事后执法方式,减轻企业负担。这一制度设计同样要求及时制定和更新负面清单,示范法对此进行了主管机关职责、清单更新期限等要求,以督促相关部门积极履职。
此外,考虑到创新发展过程中应有必要的容错机制,示范法对行为主体责任承担也设计了相应的豁免条款。例如:“人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。”在相应条款设计上最大限度上给予人工智能研发企业充分的发展空间和试错机会。示范法还授权国家人工智能主管机关制定依法不予行政处罚清单,对符合标准的轻微违法行为采取会商、约谈等手段督促整改,避免给技术创新造成过度影响。
(四)科学设计主体架构
示范法结合人工智能发展状况、技术特点设计了不同主体责任。主体责任分配是法律设计的核心关键环节,人工智能行业生态正在快速发展形成中,规模庞大,主体呈现多样化,产业链迅速扩大。主体的界分已不再是传统互联网平台治理时期的以平台为主特点,需要考虑当前的技术特点,并应放眼长远,看到未来通用人工智能的方向。
经反复深入研究,起草团队跳出具体应用场景,根据人工智能技术链条将主体定为“研发者-提供者-使用者”三层结构,依据不同的研发、提供和使用行为规定相应责任义务。即使在不同场景下,同一主体身份可能存在交叉重合,也无需另行制定规范,仅需基于其实际开展的活动匹配相应义务。这一结构设计避免了过细的主体责任分配损害应用层面商业模式发展,直接穿透底层技术逻辑、服务提供路径,并同时保证了风险防范、安全保障义务能够得到顺利履行。
四、未来展望
人工智能法将是一部面向前沿技术、面向数字经济、面向未来的重要立法,作为1.0版本的示范法提供了阶段性的结论和制度建议,但其理念、原则和具体制度设计不仅将随着法律和信息技术等领域的理论研究而更新,也会随着实践发展而不断迭代。起草团队期待就示范法及本法未尽之处与各界同仁深入交流探讨,以期得出更成熟、更全面、更有效率的治理方案。
《人工智能法示范法1.0(专家建议稿)》全文:
人工智能法示范法1.0
(专家建议稿)
中国社会科学院国情调研重大项目
《我国人工智能伦理审查和监管制度建设状况调研》课题组
第一章 总则
第一条(立法依据) 为了规范人工智能的研发、提供和使用活动,维护国家主权、发展和安全利益,促进人工智能安全发展,保护个人、组织的合法权益,根据宪法,制定本法。
第二条(适用范围) 在中华人民共和国境内从事人工智能的研发、提供和使用活动及其监管,适用本法。
在中华人民共和国境外从事人工智能的研发、提供和使用活动,影响或可能影响中华人民共和国国家安全、公共利益或者个人、组织合法权益的,适用本法。
第三条(治理原则) 国家统筹发展和安全,坚持促进创新和依法治理相结合,实施包容审慎监管。
第四条(以人为本原则) 从事人工智能研发、提供和使用活动应当以人为本、智能向善,确保人类能够始终监督和控制人工智能,始终以促进人类福祉为最终目标。
第五条(安全原则) 从事人工智能研发、提供和使用活动,应当采取必要措施保障所研发、提供和使用的人工智能及其相关网络数据的安全。
第六条(公开透明可解释原则) 从事人工智能研发、提供和使用活动应当遵循公开、透明、可解释原则,采取必要措施对所研发和使用的人工智能的目的、原理和效果予以说明。
第七条(可问责原则) 从事人工智能研发、提供和使用活动,应当分别对其研发、提供和使用活动负责。
第八条(公平平等原则) 从事人工智能研发、提供和使用活动应当遵循公平原则,不得对个人、组织实行不合理的差别待遇。
从事人工智能研发、提供和使用活动应当充分考虑未成年人、老年人、残障人士等特殊群体的需求。
第九条(绿色原则) 国家鼓励人工智能研发、提供和使用活动应用节能技术,高效利用资源,保护生态环境。
第十条(促进发展创新原则) 国家支持人工智能基础设施建设,推动公共算力、公共数据和其他相关公共资源开放共享,鼓励个人、组织依法开放共享算力、数据和其他相关资源。
国家鼓励人工智能研发和应用,依法保护人工智能领域知识产权,创新探索适应人工智能发展的知识产权制度。
第十一条(国际合作) 国家积极开展人工智能领域的跨国家、跨领域、跨文化交流与合作,积极参与人工智能相关国际规则和标准的制定和实施,推动与其他国家、地区、国际组织之间的人工智能相关规则、标准的互认,推进形成具有广泛共识的国际人工智能治理框架和标准规范。
第十二条(履职部门) 国家人工智能办公室是人工智能发展和管理的主管机关。其他有关政府部门和军队有关部门按照职责分工,密切配合,加强协调,依法做好有关工作。
省、自治区、直辖市,省、自治区的人民政府所在地的市,经济特区所在地的市和国务院已经批准的较大的市人工智能主管机关和其他相关部门,按照国家有关规定,在本辖区范围内负责人工智能发展和管理工作。
第十三条(协同共治) 国家建立和完善政府管理、企业履责、行业自治、社会监督、用户自律的人工智能治理机制,促进多元主体协同共治。
第十四条(合法正当) 从事人工智能研发、提供和使用活动应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:
(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;
(二)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;
(三)依法保护消费者、劳动者权益,尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
第二章 人工智能支持与促进
第十五条(人工智能发展规划) 国家实施新一代人工智能发展规划,坚持人工智能研发攻关、产品应用和产业培育共同推进,全面支撑科技、经济、社会发展和国家安全。
省级以上人民政府应当将人工智能发展纳入本级国民经济和社会发展规划,并根据需要制定人工智能发展规划。
第十六条(算力基础设施建设) 全面部署实施全国一体化大数据中心体系建设,优化数据中心基础设施建设布局,培育壮大数据中心集群。
国家出台人工智能公共算力资源供给办法,推动公共算力资源平台建设与利用,加强算力科学调度,为人工智能技术与产业发展提供公共算力支持。
鼓励和支持高等院校、科研机构、企业和其他组织建设人工智能算力基础设施、开源开发平台和开源社区,开展算力资源市场化交易,引导各行业合理有序使用算力资源,提升算力基础设施利用效能。
第十七条(算法和基础模型创新) 国家支持人工智能算法创新,依法加强基础模型保护,促进基础模型创新开发、应用推广。
第十八条(数据要素供给) 国家支持建设人工智能领域基础数据库和专题数据库,促进数据资源高效汇聚和共享利用,扩大面向人工智能应用的公共数据供给范围。
鼓励引导相关主体开展大数据与人工智能技术协同研发,支持相关主体将数据与行业知识深度融合,开发数据产品,服务算法设计、模型训练、产品验证、场景应用等需求。
第十九条(产业发展与应用创新) 加快人工智能关键技术转化应用,促进技术集成与商业模式创新,推动重点领域智能产品创新,积极培育人工智能新兴业态,打造具有国际竞争力的人工智能产业集群。
推动人工智能与各行业融合创新,在重点行业和领域开展人工智能应用试点示范,推动人工智能规模化应用,支持人工智能新技术、新产品、新服务、新模式的应用推广。
第二十条(专业人才培养) 国家支持高等院校完善人工智能领域学科布局,设立人工智能专业,推动人工智能领域一级学科建设。
鼓励高等学校、科研机构和企业等开展面向人工智能领域重大科学前沿问题的基础理论研究和关键共性技术研发,承担重大科技和产业创新专项。
国家支持建立有利于促进人工智能发展的项目管理创新机制、创新人才评定机制、科技成果转化激励机制等。
第二十一条(财政资金支持) 国家鼓励各地方各部门发挥投资引导基金扶持作用,聚焦人工智能核心领域与关键环节开展专项扶持。
国家鼓励社会资本参与人工智能产业发展。
第二十二条(国家机关先行先试) 鼓励政府机关、事业单位、国有企业及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域开展人工智能技术应用先行先试,优先采购和使用安全可靠的人工智能产品和服务。
第三章 人工智能管理制度
第二十三条(分类管理制度) 国家建立人工智能负面清单制度,对负面清单内的产品、服务实施许可管理,对负面清单外的产品、服务实施备案管理。
国家人工智能主管机关根据人工智能在经济社会发展中的重要程度,以及一旦遭到攻击、篡改、破坏或者非法获取、非法利用,对国家安全、公共利益或者个人、组织合法权益、经济秩序造成的危害程度,牵头制定并定期更新人工智能产品、服务负面清单。
第二十四条(负面清单管理制度) 开展人工智能负面清单内产品、服务的研发、提供活动前,应当取得国家人工智能主管机关的行政许可。
禁止未经许可或超越许可范围开展负面清单内人工智能研发、提供活动。
第二十五条(负面清单许可条件) 申请负面清单内人工智能研发、提供许可,应当具备下列条件:
(一)在中华人民共和国境内依法设立的法人;
(二)主要负责人是中国公民;
(三)有与风险相适应的具备质量保障、安全保障、人类监督、合规管理等专业知识的专职人员;
(四)有健全的人工智能质量管理体系、网络数据安全管理制度、科技伦理审查制度;
(五)有安全可控的人工智能技术保障措施;
(六)有与风险相适应的人工智能应急处置机制;
(七)有与人工智能研发、提供相适应的场所、设施和资金;
(八)法律、行政法规的其他规定。
第二十六条(负面清单许可的申请) 人工智能研发者、提供者申请负面清单内人工智能产品研发、提供许可,应提交以下材料:
(一)申报书;
(二)法人资格、场所、资金等证明;
(三)主要负责人为中国公民的证明;
(四)质量保障、安全保障、人类监督、合规管理专职人员的资质情况;
(五)人工智能质量管理体系、网络数据安全制度、科技伦理审查制度、风险管理制度及执行情况;
(六)符合本法规定的技术文件目录和技术保障措施日志摘要;
(七)人工智能安全评估报告;
(八)法律法规规定的其他材料。
第二十七条(负面清单许可的审批) 国家人工智能主管机关受理负面清单内人工智能研发、提供许可申请后,在10个工作日内进行初步审查。
经初步审查,发现人工智能的研发者和提供者提交的申请材料不符合要求的,国家人工智能主管机关可以要求其补充或者更正。人工智能研发者、提供者无正当理由不补充或者更正的,该申请即被视为撤回。
初步审查材料齐全的,国家人工智能主管机关应当自受理申请之日起45日内审查完毕,作出许可或者不予许可的决定。予以许可的,向申请人颁发人工智能研发、提供许可证;不予许可的,应当书面通知申请人并说明理由。
45日内不能作出决定的,经国家人工智能主管机关负责人批准,可以延长十日,并应当将延长期限的理由告知申请人。
第二十八条(负面清单许可的撤销) 人工智能研发者、提供者在研发、提供活动中违反本法规定,发生重大安全事件、多次发生安全事件、多次受到行政处罚的,国家人工智能主管机关可以中止许可并责令限期改正;期限届满未改正,或中止许可后再次发生安全事件或受到行政处罚的,国家人工智能主管机关可以撤销许可。
第二十九条(负面清单许可的再次申请) 负面清单内人工智能研发、提供许可证应当载明使用许可的期限和范围。
超出许可范围,或技术改进、使用场景变更、用户群体变化等导致人工智能的风险发生变化的,负面清单内人工智能研发者、提供者应当再次申请研发、提供许可。
使用许可期限届满前六个月,负面清单内人工智能研发者、提供者可以申请更新研发、提供许可。
负面清单内人工智能研发者、提供者停止许可内人工智能研发、提供的,应当在停止之日起三个月内,向国家人工智能主管机关申请注销研发、提供许可。
第三十条(许可证公开) 负面清单内人工智能研发者、提供者应当在所提供的人工智能产品、服务的显著位置,注明许可证编号。
第三十一条(投诉、举报) 个人和组织发现违法从事负面清单内人工智能研发、提供活动的,有权向国家人工智能主管机关投诉、举报,国家人工智能主管机关应当及时核实、处理。
第三十二条(释疑机制) 个人和组织对负面清单内人工智能研发、提供活动有疑义的,有权请求国家人工智能主管机关予以说明,国家人工智能主管机关应当及时答复、处理。
第四章 人工智能研发者、提供者义务
第一节 一般规定
第三十三条(安全性义务) 人工智能研发者、提供者应当在将人工智能投入使用或投放市场前进行安全测试,防范网络数据人工智能安全风险,并保障人工智能全生命周期的安全、稳健运行,符合预期目的。
人工智能研发者和提供者应当及时发布安全最佳实践,引导使用者安全、正确地使用人工智能。
人工智能研发者、提供者按照本法规定的记录、技术文件等要求,保证可追溯性,在发生事故时可以及时并准确地追溯、定位问题,保障人工智能的安全性。
鼓励相关组织和个人向人工智能研发者、提供者通报其产品、服务存在的安全漏洞。
人工智能研发者、提供者应当按照相关规定履行安全漏洞管理义务,确保其安全漏洞得到及时修补和合理发布,并指导支持使用者采取防范措施。
第三十四条(补救和通知义务) 人工智能研发者、提供者应当加强风险监测,发现安全缺陷、漏洞等风险时,应当立即采取补救措施。
发生安全事件时,人工智能研发者应当立即采取处置措施,并通知人工智能提供者。人工智能提供者应当立即采取处置措施,按照国家有关规定及时告知使用者并向主管机关报告以下事项:
(一)安全事件的发生过程、影响范围;
(二)人工智能提供者已采取的补救措施和使用者可以采取的减轻危害的措施;
(三)人工智能提供者的联系方式。
人工智能提供者采取措施可以有效避免对使用者造成实质损害的,可以不通知使用者;国家人工智能主管机关认为可能造成危害的,有权要求其通知受影响的使用者。
发生本条第一款、第二款情况的,人工智能提供者应当及时通知人工智能研发者。人工智能研发者应当立即进行评估。如果评估发现研发阶段存在问题风险的,应当立即通知其他人工智能提供者,在问题风险解决前,暂停或下架人工智能产品、服务。其他人工智能提供者收到通知的,应当立即采取处置措施,管控产品、服务风险。
第三十五条(公开透明性义务) 人工智能提供者提供与自然人互动的人工智能服务,应当在使用者使用人工智能前,以简洁、清晰、易于理解的方式,告知与人工智能产品、服务进行交互的自然人,其正在与人工智能服务进行交互。但是,自然人从使用的场景中可以判断的除外。
提供深度合成服务的人工智能提供者还应当根据国家有关规定,对合成内容进行显著标识,向公众提示深度合成情况。
人工智能提供者应当在使用者使用人工智能前,以适当的方式告知使用者以下信息:
(一)产品、服务的基本原理、目的意图和主要运行机制;
(二)产品、服务的许可或备案公示信息;
(三)使用者享有的权利和救济渠道;
(四)法律、行政法规规定的其他信息。
人工智能提供者应当综合考虑产品、服务的场景、性质、受众和行业技术发展水平等因素,充分保障未成年人、老年人、残障人士等特殊群体可以理解上述信息。
人工智能研发者应当配合提供者履行上述义务。
第三十六条(可解释性义务) 人工智能产品、服务对个人权益有重大影响的,人工智能使用者有权要求提供者对产品、服务决策的过程、方式等作出解释,有权对不合理的解释进行投诉。提供者应当综合考虑风险、场景和行业技术发展水平等因素,对使用者的要求及时作出反馈。研发者应当配合提供者履行本条义务。
第三十七条(公平性义务) 人工智能研发者应当在训练数据处理和标注、算法模型设计研发和验证测试过程中,采取必要措施,有效防范有害的偏见和歧视。
人工智能提供者应当在提供产品、服务过程中,加强对输入数据、输出数据的管理,有效防范有害的偏见和歧视。
第三十八条(风险管理) 人工智能提供者综合考虑产品、服务的场景、性质、受众和行业技术发展水平等因素,建立健全和实施全生命周期风险管理制度。在产品、服务投入使用前以及使用过程中,人工智能提供者应当对人工智能的风险进行识别、评估,并采取合理必要措施防控风险。人工智能提供者应当保留风险识别、评估和管理的记录,保存期限不少于三年。
人工智能研发者应当对设计、数据收集训练、模型选择、测试验证等研发过程,建立并运行风险管理制度,并对人工智能的风险进行识别并采取合理必要的措施降低风险。人工智能研发者应当在保障商业秘密的前提下,配合提供风险评估和管理记录,支持人工智能提供者完成人工智能服务的风险管理义务。人工智能提供者应当保留风险评估和管理的记录,保存期限不少于三年。
第三十九条(安全评估) 人工智能研发者、提供者应当按照国家有关规定开展安全评估。
第四十条(科技伦理审查) 人工智能研发者、提供者应当按照国家有关规定开展科技伦理审查。
第四十一条(授权代表) 本法第二条第二款规定的中华人民共和国境外的人工智能研发者、提供者,应当在中华人民共和国境内设立专门机构或者指定代表,负责处理人工智能相关事务,并将有关机构的名称或者代表的姓名、联系方式等报送国家人工智能主管机关。
第二节 人工智能研发者义务
第四十二条(负面清单内人工智能研发者增强义务) 负面清单内人工智能研发者应当履行以下义务:
(一)制定并保存符合本法要求的技术文件,并配合提供者履行相关义务;
(二)在研发过程,制定并运行符合本法要求的质量管理体系,并配合提供者履行相关义务;
(三)在研发过程,进行安全评估,配合提供者履行相关义务;
(四)法律、行政法规规定的其他义务。
第四十三条(基础模型研发者特殊义务) 基础模型研发者应遵守以下规定:
(一)按照国家规定建立健全安全风险管理制度,及时有效预防、监测、处置对国家安全、公共利益或者个人、组织合法权益、经济秩序造成的风险;
(二)按照国家规定建立健全基础模型的模型管理和数据管理制度;
(三)遵循公开、公平、公正的原则,制定基础模型的使用规则,明确使用基础模型的研发者、提供者应当履行的义务,不得滥用市场支配地位;
(四)协助其他研发者、提供者履行相关义务;
(五)对严重违反本法规定的研发者、提供者,应当采取停止提供服务等必要措施;
(六)成立主要由外部成员组成的独立机构对基础模型的研发情况进行监督;每年发布社会责任报告,接受社会监督。
第三节 人工智能提供者义务
第四十四条(备案义务) 不在负面清单内的人工智能提供者,应当在提供产品、服务之日起十个工作日内,向主管机关备案以下信息:
(一)人工智能提供者的姓名或名称、联系方式;
(二)人工智能产品、服务的商标或名称、提供形式、应用领域、算法类型、安全自评估报告;
(三)算法备案拟公示内容;
(四)法律、行政法规规定的其他信息。
备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续。
完成备案的人工智能提供者应当在其对外提供服务的网站、应用程序等的显著位置注明其备案编号。
第四十五条(备案流程) 主管机关收到备案材料后,材料齐全的,应当在三十个工作日内予以备案,发放备案编号并进行公示;材料不齐全的,应当在十个工作日内通知备案人补充材料。
第四十六条(审计义务) 人工智能提供者应当至少每两年进行一次审计,核验输入数据、算法模型、输出数据等的合规性,对人工智能产品、服务活动是否遵守法律、行政法规的情况进行审查和评价。
第四十七条(内部管理制度) 人工智能提供者应当采取下列措施确保人工智能符合法律、行政法规的规定:
(一)制定内部数据安全、风险控制、质量管理等制度和相应的操作规程;
(二)保存提供人工智能产品、服务自动生成的日志;
(三)定期对从业人员进行教育和培训;
(四)采取相应的鲁棒性、抗攻击性等合规技术措施;
(五)法律、行政法规规定的其他措施。
第四十八条(终止机制) 人工智能提供者终止提供产品、服务的,应当采取以下妥善安排措施:
(一)提前三十个工作日公示终止方案、使用者权利等;
(二)自终止之日起三十个工作日内,删除使用者的个人信息;根据国家有关规定,对人工智能产品、服务提供过程中产生的数据、训练数据、算法模型作出必要处理;
(三)法律、行政法规规定的其他措施。
第四十九条(许可注销) 负面清单内人工智能提供者应当提前三十个工作日通知主管机关,说明有关情况,并在终止服务后将许可证交回原许可机关。
不在负面清单内人工智能提供者应当在终止服务之日起二十个工作日内办理注销备案手续。
第五十条(负面清单人工智能提供者增强义务) 负面清单内人工智能提供者,还应当履行如下义务:
(一)按照本法要求进行安全评估,确保安全、稳健;
(二)制定并保存符合本法要求的技术文件,以证明所提供的人工智能符合本法对负面清单内人工智能的要求;
(三)建立并运行符合本法要求的全生命周期质量管理体系;
(四)在人工智能产品、服务自主运行过程中,确保人类可以随时采取介入、接管等措施;
(五)法律、行政法规规定的其他义务。
第五章 人工智能综合治理机制
第五十一条(国家人工智能主管机关职责) 国家人工智能主管机关依法履行以下人工智能监管职责:
(一)开展人工智能伦理、安全教育与宣传,指导、监督人工智能开发、提供和使用;
(二)制定人工智能监管规则、指引,组织制定人工智能伦理、安全、管理等方面标准;
(三)组织人工智能技术监测、评估、审计工作,指导专业机构依法开展活动;
(四)建立人工智能风险监测预警机制,组织人工智能领域风险信息的获取、分析、研判、预警工作;
(五)建立人工智能安全事件应急处置机制;
(六)接受、处理与人工智能技术及产品开发、提供和使用有关的投诉、举报;
(七)调查、处理违法人工智能开发、提供和使用活动;
(八)法律、行政法规规定的其他职责。
第五十二条(安全审查制度) 从事人工智能研发、提供活动,影响或可能影响国家安全的,应当按照国家有关规定通过安全审查。
依法作出的安全审查决定为最终决定。
第五十三条(前置程序期限) 人工智能研发者、提供者、使用者依照本法及国家有关规定,就人工智能新技术新应用申报安全审查、备案或申请行政许可的,国家人工智能主管机关应当明确工作期限,并在期限内及时处理、作出答复。
第五十四条(约谈) 国家人工智能主管机关和地方各级人工智能主管机关在履行职责中,发现人工智能研发、提供活动存在较大风险或者发生安全事件的,可以按照规定的权限和程序对该人工智能研发者、提供者进行约谈,要求其采取下列措施:
(一)按照要求进行整改,消除隐患;
(二)对其研发、提供活动作出适当的解释,说明人工智能服务的开发、管理和运行的责任,为保障公平性、安全性和稳定性采取的措施,以及对利益相关方的影响等;
(三)委托专业机构对其人工智能研发、提供活动进行合规审计。
人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。
第五十五条(创新监管) 国家人工智能主管机关就人工智能产业研发、提供和使用活动中的轻微违法行为等制定依法不予行政处罚清单,通过批评教育、指导约谈、组织会商研讨等措施促进公民、法人和其他组织依法合规开展人工智能产业研发、提供和使用活动。
第五十六条(监管沙盒) 国家人工智能主管机关建立人工智能监管试验机制,就以下事项出台具体规定、指引:
(一)参与监管试验的条件;
(二)监管试验的运行机制;
(三)人工智能研发者、提供者的义务、责任减免机制。
第五十七条(执法机制) 国家人工智能主管机关应当加强专门队伍和专业技术建设,提升人工智能监管执法工作效率。
国家人工智能主管机关应当依法确定本系统行政执法程序,建立行政执法监督制度。
第五十八条(技术治理) 国家支持企业、科研机构等研究开发有关人工智能监测预警、安全评估、应急处置等技术,鼓励在人工智能领域应用监管科技、合规科技。
第五十九条(境外反制) 境外的组织、个人从事侵害中华人民共和国公民的合法权益,或者危害中华人民共和国国家安全、公共利益的人工智能研发、提供或使用活动的,国家人工智能主管机关可以将其列入负面清单,予以公告,并依法采取限制或禁止其在中华人民共和国境内研发、提供或使用人工智能等措施。
第六十条(对等措施) 任何国家或者地区在与人工智能有关的研发、投资、贸易等方面对中华人民共和国采取歧视性的禁止、限制或者其他类似措施的,中华人民共和国可以根据实际情况对该国家或者地区对等采取措施。
第六章 法律责任
第六十一条(行政处罚一般条款) 违反本法第三十四条至第五十一条研发、提供人工智能的,由国家人工智能主管机关责令改正,给予警告,没收违法所得,责令暂停或者终止提供产品、服务;拒不改正的,并处一百万元以下罚款;对直接负责的主管人员和其他直接责任人员处一万元以上十万元以下罚款。
有前款规定的违法行为,情节严重的,由国家人工智能主管机关责令改正,没收违法所得,并处五千万元以下或者上一年度营业额百分之四以下罚款,并可以责令暂停相关业务或者停业整顿、通报有关主管机关吊销相关业务许可或者吊销营业执照;对直接负责的主管人员和其他直接责任人员处十万元以上一百万元以下罚款
第六十二条(行政罚款的裁量方式) 本法规定的罚款可以作为责令整改等措施的补充或替代,国家人工智能主管部门决定行政罚款金额时,遵循合法原则、过罚相当原则、公平公正原则、处罚和教育相结合原则、综合裁量原则,应当充分考虑以下因素:
(一)违法行为及后果的性质、严重性和持续时间、受影响的范围和损害程度;
(二)违法行为是故意还是过失;
(三)对违法行为是否采取了补救措施并减轻可造成的损失;
(四)是否依照本法规定通知国家人工智能主管部门;
(五)是否依照本法规定采取了合理有效的组织和技术措施管理人工智能的风险;
(六)是否遵守了人工智能和安全等相关标准或获得了相关认证;
(七)此前的违法行为;
(八)其他法律法规规定的加重或减轻处罚的因素。
第六十三条(违反许可行为) 违反本规定第三十二条规定,未经许可或超越许可范围研发、提供人工智能的,由国家人工智能主管部门依据职责责令停止相关活动,处上一年度营业额百分之四以下罚款。
第六十四条(违反备案行为) 人工智能提供者通过隐瞒有关情况、提供虚假材料等不正当手段取得备案的,由国家人工智能主管部门予以撤销备案,给予警告、通报批评;情节严重的,责令暂停信息更新,并处一万元以上十万元以下罚款。
人工智能提供者终止服务未按照本法第四十二条要求办理注销备案手续,或者发生严重违法情形受到责令关闭网站、吊销相关业务许可证或者吊销营业执照等行政处罚的,由国家人工智能主管部门予以注销备案。
第六十五条(信用惩戒) 有本法规定的违法行为的,依照有关法律、行政法规的规定记入信用档案,并予以公示。
第六十六条(民事侵权责任) 研发、提供的人工智能侵害个人权益造成损害,研发者、提供者未履行本法规定的义务,应当承担损害赔偿等侵权责任,但研发者和提供者能证明自己没有过错的除外。
前款规定的损害赔偿责任按照使用者或受影响的个人、组织因此受到的损失或者研发者、提供者因此获得的利益确定;使用者或受影响的个人、组织因此受到的损失和提供者因此获得的利益难以确定的,根据实际情况确定赔偿数额。
第六十七条(公益诉讼) 违反本法规定提供人工智能,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家人工智能主管部门确定的组织可以依法向人民法院提起诉讼。
第六十八条(治安管理处罚和刑事责任的衔接) 违反本法规定,构成违反治安管理行为的,依法给予治安处罚;构成犯罪的,依法追究刑事责任。
第六十九条(合规不起诉) 人工智能研发者、提供者违反本法规定,承担行政责任的,行为主体合规建设经评估符合有效性标准的,则列入轻微违法行为依法免予处罚。
违反本法规定,构成犯罪的,纳入企业合规改革试点工作,涉案企业合规建设经评估符合有效性标准的,人民检察院可以参考评估结论依法作出不批准逮捕、变更强制措施、不起诉的决定,提出从宽处罚的量刑建议,或者向有关主管机关提出从宽处罚、处分的检察意见。
第七十条(国家机关不履职的责任) 国家机关不履行本法规定的义务的,由其上级机关或者国家人工智能主管部门责令改正;对直接负责的主管人员和其他直接责任人员依法给予处分。
国家机关工作人员玩忽职守、滥用职权、徇私舞弊,尚不构成犯罪的,依法给予处分。
依法不构成行政执法过错的情形,不追究有关工作人员的行政执法责任。
第七章 附则
第七十一条(定义) 本法下列用语的含义:
(一) 人工智能,是指以一定自主程度运行,服务于特定的目标,能够通过预测、推荐或决策等方式影响物理或虚拟环境的自动化系统,包括数据、特征、模型、服务提供接口和所嵌入的终端设备等;
(二) 人工智能研发者,是指仅从事算法设计、训练数据标注、特征提取、模型训练和优化、测试部署等人工智能研究和开发活动的个人、组织;
(三) 人工智能提供者,是指出于商业目的提供人工智能或者为其提供相关技术支持的个人、组织,或者无论是否出于商业目的,面向公众提供人工智能或者为其提供相关技术支持的个人、组织;
(四) 人工智能使用者,是指依照人工智能的性能和用途对其加以利用的个人、组织。
第七十二条(施行日期) 本法自 年 月 日起施行。
第七十三条(负面清单公开制度) 国家人工智能主管机关应当不晚于本法实施之日前六个月公开人工智能负面清单,并在定期更新后及时公开。