由于训练数据、算法设计或测试实践中的偏差,计算机视觉系统可能会表现出与种族相关的缺陷。这些问题通常会导致某些种族群体的准确性降低或有害的错误分类。以下是三个主要例子
1. 面部识别不准确 面部识别系统历来对肤色较深的人的错误率较高。例如,麻省理工学院 2018 年的一项研究发现,微软和 IBM 等公司的商业面部分析工具对肤色较深的女性的错误率高达 34.7%,而对肤色较浅的男性的错误率仅为 0.8%。这种差异源于训练数据集不成比例地包含肤色较浅的人,导致模型学习到的特征偏向这些群体。开发人员可能并非有意排除多样化的数据,但如果不刻意努力纳入均衡的表示,模型将无法推广。此类缺陷可能导致现实世界的危害,例如安全系统中的错误识别或拒绝访问服务。
2. 图像分类错误 图像分类模型有时会根据种族错误地标记个人。一个臭名昭著的例子是,Google Photos 的算法在 2015 年将黑人的图像分类为“大猩猩”。 这种错误产生的原因是训练数据缺乏足够的肤色较深的例子,导致模型错误地映射特征。同样,相机中的自动白平衡功能也在努力调整肤色较深的人,从而产生过度曝光或曝光不足的照片。这些问题突出表明,在预处理或模型训练期间忽略多样化的数据会导致排他性结果。开发人员在测试过程中经常忽略边缘情况,假设在不同人口统计数据中的表现一致,从而强化了系统性偏见。
3. 监控和物体检测中的偏差 使用计算机视觉的监控系统在物体检测中表现出种族偏见。例如,亚马逊的 Rekognition 工具曾错误地将 28 名美国国会议员(不成比例地是有色人种)与犯罪嫌疑人照片进行匹配,这是因为非白人面孔的假阳性率较高。 同样,情感识别系统经常错误地解释跨种族群体的愤怒或中立等表情,因为它们是在以西方面部表情为主的数据集上训练的。 这些缺陷的发生是因为模型针对多数人口统计数据进行了优化,并且验证指标(例如,总体准确性)掩盖了子组的失败。 开发人员必须优先考虑按种族进行分解测试,以发现和解决这些差距。
总而言之,解决计算机视觉中的种族偏见需要有意的数据集管理、严格的子组测试以及模型局限性的透明化。开发人员在通过更好的数据实践和算法公平性检查来缓解这些问题方面发挥着关键作用。