摘要

人工智能的发展给智能生活带来便利的同时,用户可能会因算法自动处理的个人数据而受到不公平地对待,由此产生了数字歧视这一新型不平等现象。数字歧视是算法通过继承先前决策者的偏见或复制现实世界中的歧视实例进行计算,可能导致之前处于弱势的群体受到更不公正的待遇,从而加剧现有的不平等。本文以红色药丸论坛为例,运用语言偏见可视化工具DADD分析其性别不平等程度,并就数字歧视这一问题提出思考。

全文