工业和信息化部联合九个部门共同发布了《人工智能科技伦理审查与服务办法(试行)》,旨在推动人工智能领域伦理审查技术的创新,并强化通过技术手段预防伦理风险。这一新规的出台,标志着我国在人工智能治理方面迈出了重要一步。
根据办法规定,人工智能科技伦理审查将重点关注人类福祉、公平公正和可控可信等核心原则。具体审查内容包括训练数据的筛选标准、算法和模型设计的合理性,以及系统是否能够有效防止偏见和歧视。审查还将评估资源分配和决策过程的客观性,确保技术应用的包容性。
在信息披露方面,办法要求相关企业必须公开算法、模型和系统的用途、运行逻辑及潜在风险,以增强透明度。这一措施旨在保障公众知情权,促进技术应用的信任度。
为支持高质量审查,办法鼓励开源开放伦理审查数据集,并加强通用性风险管理和评估工具的研发。同时,探索基于应用场景的科技伦理风险评估体系,以更精准地识别和应对潜在问题。
办法还提出推广符合伦理标准的人工智能产品和服务,并保护相关审查技术的知识产权。这一系列举措旨在构建健康有序的人工智能发展环境,平衡技术创新与伦理风险防控的关系。











