办公室空调设置为北极,防弹背心不适合,旁边没有浴室摊位在一个为数千人建造的场地。

对于女性来说,世界可以通过各种方式感到不友好。即使是表情符号也会让我们失望。

这种日常不公平是由性别数据差距造成的,作家和活动家Caroline Criado perez在她的新书“隐形女性:在为男性设计的世界中揭露数据偏见”中提出了争议。当女性在支持决策制定的数据中代表性不足 - 当统计数据忽视这些数据时 - 结果可能是致命的。

她详细说明了化学品暴露安全水平通常是针对男性而非女性确定的;碰撞测试假人与女性的身体几乎没有相似之处。这是一个长期存在的疏忽传统,但正如Criado perez女士在她的作品中描述的那样,我们又犯了同样的错误。这次是我们的技术设计方式。

她告诉ABC,扫描简历或支持语音识别的算法已经让女性失败了。“语音识别软件是针对大量偏向于男性声音的数据库进行培训的,”她解释说(更不用说西方口音)。“所以,任何拥有语音识别软件的东西都不太可能识别出女性的声音。”如果数据库依赖于从男性收集的数据,结果可能会令人恼火 - 例如,一个语音助手无法分辨女孩何时要求公交时刻表 - 但也是致命的。

人工智能在医学诊断中发挥着越来越大的作用。如果训练的数据集不具有代表性 - 不仅是性别,而且还有种族,年龄和能力 - 可以做出危险的决定。还有另一个问题:算法往往是专有软件,这意味着我们并不总是深入分析它们,并确定程序员是否正在弥补其数据中的缺陷。“我们只能看到效果,效果肯定表明它们不是,”她说。

特别令人沮丧的是,即使技术似乎是为男性和女性建造的,男性经验仍然是优先考虑的。“当Siri,苹果产品上的人工智能首次发布时,她 - 这是她在美国的默认情况 - 可以告诉你最近的地方购买伟哥,但无法告诉你哪里可以堕胎,” Criado perez女士说。众所周知,Apple还推出了健康应用程序,作为追踪您身体健康的综合方式。但它遗漏了一段时期的追踪者(这已经得到了补救)。

性别数据差距可能并不总是恶意偏见的结果。克里亚多佩雷斯女士说,她在25岁时才注意到,她注意到她自己心中的默认是多么频繁。医生?一个男人律师?一个男人在所有事情上,这种疏忽也表现出了表情符号。一个名为Unicode Consortium的组织创建了表情符号语言,但软件公司在很大程度上能够决定它们在手机上的外观。

建筑工人,医生,科学家 - 这些职业在Unicode的代码中通常是性别中立的,但一旦他们到达人们的智能手机,他们就是男性:男性建筑工人,男性医生,男性科学家。“我们现在有男性和女性的原因是Unicode决定专门说'好,这是男性,这是女性',”她说。

数据差距常常是由于没有提出问题而产生的。Criado perez女士讲述了Facebook执行官Sheryl Sandberg撰写的备受争议的女权主义演绎手册Lean In中的片刻。当她在谷歌工作时,直到桑德伯格女士怀孕,她才意识到公司停车场的规模有多大,以及如何将它带到办公室。然后,她游说怀孕优先停车。

“我觉得谷歌之前可能已经收集了这些数据,”Criado perez女士说。“他们本可以和女工谈话说:'你需要什么?'但实际情况是,通常需要女性担任这类问题的权力才能得到解决。“为了适应社会学家皮埃尔·布迪厄的话,她认为传统是沉默的,因为它不言而喻。“这基本上是白人,男性身份......他们不言而喻,他们不需要说,”她说。“我说,我们需要研究女性,我们需要谈论女性,你需要指明女性。”她认为,解决方案是明确地为每个人说性别。不再是“足球”,而是“女子足球”。习惯说“男子足球”。尤其是,明确地对女性进行统计。

克里亚多佩雷斯女士的作品向女性展示了为什么世界无法适应各种各样的方式,无论大小。到目前为止,她的观众已经告诉她,只需要一个解释所有日常尴尬的答案,这是令人欣慰的。“他们说,'我只是觉得我有些不对劲,我现在意识到这不是我,我没有任何问题,而是世界不适合我',”她回忆道。