摘要

如何提升人工智能“可信”程度是当代伦理学面临的重大挑战。面对这一挑战,通过建构可信伦理规范以化解人工智能发展面临的道德风险是一种可行方案。可信伦理规范要求充分反映并增进公众利益,但规范的实际制定却不可避免地偏向优势群体的特殊利益,削弱规范的可信度。动态建构的技术代码能有效应对技术的不确定性风险,同时,代码作为一种调节多方利益的动态平衡机制,可有效防止利益格局的固化,从而建构起一种可信的人工智能伦理规范。

全文