登录 | 注册 | 退出 | 公司首页 | 繁体中文 | 满意度调查
综合馆
人工智能时代的道德:让算法遵循"善法"
  • 摘要

    人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟.人工智能的规范者指引应从"人为自己立法"的原理中产生.对于智能体的伦理框架而言,"让算法遵循'善法'"是一条自明性原则,可称为"算法从善"原则.该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持.由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度.它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式".对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入.人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线.

  • 作者

    田海平  郑春林 

  • 作者单位

    北京师范大学 哲学学院,北京,100875

  • 刊期

    2019年5期 ISTIC PKU CSSCI

  • 关键词

    人工智能  算法  道德  伦理  善法 

相似文献 查看更多>>
35.172.216.157