翻译软件居然有性别偏见倾向?!背后原来是大数据在“捣鬼”

日期 2018-12-14

近日,谷歌公司宣称对旗下的“谷歌翻译”软件做了些许重要调整,以减少性别偏见的倾向。

翻译软件也会产生性别偏见,这是怎么一说?

原来,谷歌翻译以前会默认将一些中性词语翻译成具有“性别刻板印象”的用词。“例如,对于像'强'或'医生'这样的词语,它会偏向男性化的指代;而对于其他词语,如'护士'或'美丽',其翻译出的词语则会偏向为女性化的诠释。”谷歌翻译产品经理James Kuczmarski在公司博客上写道。

除谷歌翻译外,iPhone也被指出带有这样的“性别偏见”。Katrina Lake是美国一家个人时尚制定平台StitchFix的CEO,她在Twitter上表示,当她在iPhone键盘上输入CEO时,其会自动弹出一个“男性”表情,这就等于将“CEO”一词默认为一定是男性。而实际上,Lake是一名女性。

来源:Twitter

类似谷歌翻译与iPhone键盘这样的应用程序和软件,已在越来越多地使用AI以自动执行任务,其背后使用的都是一种“词嵌入”数据支持模型,而翻译软件中时不时凸现的“性别”用法都是拜这种模型所“赐”。举例说明,当翻译“工程师”这样的词汇时,该模型就会根据大数据算法查找到倾向性更大的词对其进行指代,比如更偏向默认用“他”来诠释,而不是“她”。 没想到,“根深蒂固”的“性别偏见”也居然出现在这种前沿数据技术中。

“当该模型在翻译时,它也在无意中复制了已存的性别偏见,” Kuczmarski表示道。而德国一名高级计算语言学家Kate McCurdy强调,“词嵌入“模型本身没有任何错误,但需要人工指导和监督。同时,她还发现,微软旗下的bing翻译系统也出现了类似的“性别刻板印象”问题。

“这些性别联想的概念被投射到了事物上,”McCurdy说,碰巧在(如法语、西班牙语等语言)语法中的阳性词在翻译中被自动冠上“男性”特征,而这种模型正在“学习”如何将对性别的刻板印象投射到整个名词领域中,这是令人担忧的一个问题。

不过,谷歌已表示,在对“谷歌翻译”软件的修改中,会将原先带有指向男性或女性的词汇替换成中性词语。而这些替换会主要体现在“英语转换成法语、意大利、葡萄牙语或西班牙语”的翻译中。其同时表示,也将在iOS和Android应用程序中设置该修改。

不单是谷歌搜索,包括如Netflix和Spotify等流媒体也宣称正在解决因为AI大数据推演产生的“性别偏见”问题。

不过与以上公司“犯错及时就改”的解决方式不同,McCurdy对此的态度更进一步。“现在(企业)默认的就是,先把这些应用软件都发布出来,等有问题出现了再去‘灭火’。但如果我们提前对此就有更深思熟虑的设置,我们也可以整合出一个更具评判性的思维(以预防出现这样的问题)。”她补充道,如果我们不希望人工智能做出有偏见的决策,而这种偏见我们也不想再“巩固”下去,那么我们需要尽早将这一问题“扼杀”在摇篮中。