发现商业评论 旗下
洞察商业 启迪未来

十部门联合部署人工智能科技伦理审查与服务新举措!

   时间:2026-04-10 05:06 来源:快讯作者:唐云泽

近日,工业和信息化部联合国家发展改革委、教育部、科技部等十部门共同发布《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),旨在规范人工智能科技活动中的伦理治理,推动产业健康有序发展。该文件明确要求将科技伦理要求贯穿人工智能研发、应用全流程,并确立了可控可信、公平公正等核心伦理原则。

根据《办法》,我国将构建多层次人工智能伦理标准体系,涵盖国际标准、国家标准、行业标准及团体标准,同时支持搭建国际标准化交流平台。文件特别强调强化伦理服务供给,要求建立风险监测预警、检测评估、认证咨询等全链条服务体系,并加大对中小微企业的支持力度。针对高风险领域,文件列出了需开展专家复核的研发活动清单,包括人机融合系统、舆论引导算法模型及高度自主决策系统等三类重点场景。

在实施主体方面,《办法》明确高校、科研机构、企业等需设立伦理委员会,配备专业人员及经费保障其独立运作。地方主管部门可依托相关单位建立专业性审查服务中心,但禁止同一机构同时承担审查与复核职能。对于合作项目,允许开展跨单位伦理审查结果互认,以提升审查效率。

审查程序分为一般、简易和应急三种模式。常规项目需在30日内完成审查,涉及重大伦理风险的项目则需启动专家复核机制。针对突发公共事件等紧急情况,文件规定了72小时内完成应急审查的特殊流程,并要求加强过程监督。所有纳入复核清单的项目需每6个月接受跟踪审查,风险变化时需重新申请复核。

监督管理机制方面,科技部将统筹全国科技伦理监管工作,工业和信息化部牵头人工智能领域专项治理。各单位需通过国家科技伦理管理信息平台登记审查情况,地方主管部门与行业部门按职责分工开展监督。对违反规定的机构,将依据《网络安全法》《数据安全法》等法律法规追究责任。

附件清单明确三类需重点监管的研发活动:一是影响人类行为认知的人机融合系统;二是具备舆论动员能力的算法模型;三是应用于安全风险场景的自主决策系统。该清单将根据技术发展动态调整,确保监管措施与时俱进。

 
 
更多>同类内容
全站最新
热门内容