摘要

人工智能技术在全球范围内的快速迭代,显著提升了人类福祉,同时也催生了诸如操纵、“黑箱”、歧视、隐私、责任困境等伦理问题。人工智能伦理作为科技伦理的一部分,成为全球科技发展与治理的前沿议题。它的核心价值可以提炼为:自主决定、安全可靠、透明公开、隐私保护、公平公正、责任担当。我国作为人工智能产业大国,近年来对人工智能伦理的重视也已上升到国家层面。当前以及未来的人工智能伦理治理,应在我国人工智能发展规划下,以六大核心价值为方向构建人工智能的伦理治理体系:一方面,完善人工智能的“硬”约束,即在法律意义上约束和规范人工智能活动;另一方面,建立人工智能治理的“软”约束,包括确认人工智能的风险及其治理的目标机制、方案等不具有法律约束的倡议,推动技术进步更好地服务于人类社会。