无论你进行多少平等、包容和无意识偏见的训练,总有一个方面可能会让你失望。你的内部流程和计算机算法几乎不可见,被认为是理所当然的,可能不像你想的那样公平。
对企业和客户来说,相信算法是公正的是一个很容易做出的假设。以至于2021年b[1]的一项研究得出结论,“算法似乎比人类更不具有歧视性”,然后补充说,这让“人们(可能错误地)更适应它们的使用”。
“潜在错误”的评论才是值得关注的。在一天结束的时候,程序和算法通常是由人设计的,人们可能会有无意识的偏见。虽然IT部门或其他部门的一群人可能比个人自己做决定产生的偏见更少,但偏见的潜在可能性仍然存在。
这就是为什么英国通信管理局(Ofcom)与竞争与市场管理局(Competition and Markets Authority)、金融行为监管局(Financial Conduct Authority)和信息专员办公室(Information Commissioner’s Office)联合发起了一项审查,讨论是否应该采取更多措施来监管或审计公司的算法。总之,数字监管机构担心算法系统可能构成重大风险;引入或放大有害偏见,“导致歧视性决定或加剧不平等的不公平结果”。监管机构补充说,这可能“被用来误导消费者和扭曲竞争”。
用非代表性数据训练有偏见的算法
不只是消费者会受到无意识偏见的不利影响。2020年的一项研究b[3]在人力资源招聘和人力资源开发的背景下,通过算法决策对“歧视和公平”进行了系统回顾。“这篇评论提出了一个有趣的观点,即偏见不仅可能被写入算法,如果算法在不准确或不具代表性的输入数据上进行训练,这可能会导致有偏见的决策和结果。”
这里有一个非常现实的危险,即由算法做出的有偏见的招聘和晋升决策可能会开始扭曲劳动力的平衡;创造一个自我延续的负面螺旋。虽然很容易说,这种结果会被一个警惕的人力资源团队反击,但近年来,现实世界中有很多“计算机说不”的例子,这些例子已经很好地证明了计算机输出是如何支配常识的。
以一种奇怪的方式,假设你的计算机系统和程序没有偏见,可能是你自己无意识偏见训练中的盲点。也许是时候检查一些结果,看看你自己的系统是否可以做一些平等再培训。
[1]https://journals.sagepub.com/doi/10.1177/01461672211016187
[2]https://www.ofcom.org.uk/news-centre/2022/uks-digital-watchdogs-take-a-closer-look-at-algorithms-as-plans-set-out-for-year-ahead
[3]https://link.springer.com/article/10.1007/s40685-020-00134-w
回复(0)
请登录或注册加入讨论。
目前没有回复,请第一个回复。