人工智能尤其是机器人在各个领域从事越来越多的决策,逐步从被动工具变成 人类的代理者,这引发了社会各界对人工智能伦理的思考和担忧,需要建立新的伦理范式,将 人类社会的伦理规范延伸到智能机器。近年来该研究取得了较大发展,丰富了已有研究内容, 提升了对人工智能伦理研究的指导能力。本文全面回顾了国内外有关人工智能伦理的研究进 展,在文献计量分析的基础上,发现“传统派”、“谨慎派”和“乐观派”三种对人工智能的不同态 度引发了“人—机”关系的伦理冲突,从人工智能道德哲学、道德算法、设计伦理和社会伦理四 个视角系统性地评述了人工智能伦理的研究成果,国家和企业(组织)分别从战略和社会责任 的层面上强调对人工智能伦理的态度,提出了更加系统、完善的人工智能伦理的理论框架,有 助于从理论和实践层面系统地把握已有研究成果。未来需要在全球情景条件的伦理体系建设、 伦理对技术的前瞻性、伦理角色塑造和科学发展的伦理观上做进一步研究。