它只安装在我们的数据处理生态系统中, 算法偏差会污染模式识别和数据驱动的预测。算法不是无菌实体,不偏不倚,不脱离其创造者和利益,也不脱离它们所提供的数据集,因此很容易理解歧视如何跨越这些实体,从数据到结果。 算法参数化所需要的处理受到无法完全消除的歧视的困扰,因为算法将信息简化为可简化的维度集群以处理它。这些模式建立了一个定义,就其本质而言,它是霸权的,并且与创建它的社会一样具有歧视性。 算法偏差所产生的损害的乘数效应是一种完美的序列化歧视,它可以通过多种方式
实现其影响并以自动化的方式完美地强化先前存在 電話號碼列表 压迫性结构。这种偏见导致一切非霸权和多数的隐形,刻板印象产生的污名化的阐述和重申,象征性值得代表的东西的不平衡和选择性,以及所有被呈现为非系统性的东西的中和 算法偏见分裂并产生了不存在的一切不存在的不真实性,这些不遵循由统治者的命令理想化的模式,并加强了我们每天已经经历的二元论和歧视, 这种偏差可以通过以下方式发生:使用本身具有歧视性的数据集训练算法,通过使用包含潜在歧视性偏差的数据集,
通过过多的历史数据导致数据倍增的元素过大。 ,或者通过有意识的选择来低估不是霸权的东西。 最后,并且无意穷尽所有现有的算法偏差表现形式,这也可能是设计技术限制的结果;算法在新的使用环境中的意外使用以及与预期不同的公众使用算法的结果,或者是对重新插入的数据的解释的结果,并在同一算法系统中成倍增加了歧视。对于算法偏差导致的歧视是否可以避免的问题,一个坦率而否定的答案是可能的:在目前的科学状态下是不可能避免的,这就是为什么考虑到这一点,