文章作者、来源:AIBase
近日,工业和信息化部等十个部门联合印发了《人工智能科技伦理审查与服务办法(试行)》,为我国的人工智能科技伦理审查与服务工作提供了详细的指引。这一办法的出台,旨在规范和促进人工智能科技活动的伦理治理,确保科技活动的合规与安全。
《办法》明确了人工智能科技伦理审查的适用范围、实施主体以及工作程序。针对人工智能技术的特点,规定了申请与受理、审查程序、专家复核等多个环节,确保审查工作有序进行。同时,办法强调了科技伦理风险防控的重要性,鼓励企业建设相应的伦理服务体系。
在支持措施方面,《办法》从标准建设、服务体系、创新鼓励、宣传教育和人才培养等五个方面提出了具体的举措,帮助企业提升科技伦理风险防控能力。此外,该办法与现有的相关政策法规相协调,确保人工智能治理的有效性和一致性。
在审查程序方面,人工智能科技活动的负责人需向单位的伦理委员会或审查与服务中心提交申请,经过受理后,将按照不同的审查程序进行评估。重点审查领域包括人机融合系统、舆论引导能力的算法模型,以及具有高度自主能力的决策系统等。
《办法》还对违反相关规定的行为提出了明确的法律后果,将依据相关法律法规进行调查处理。这一系列措施的实施,将有助于更好地管理人工智能领域的伦理问题,促进科技发展与社会责任的协调。


