24小时咨询热线

096-85234333

餐厅展示

您的位置:主页 > 餐厅展示 > 欧式餐厅 >

翻译软件居然有性别偏见倾向?!背后原来是大数据在“捣鬼”

发布日期:2023-11-07 01:12浏览次数:
本文摘要:克日,谷歌公司宣称对旗下的“谷歌翻译”软件做了些许重要调整,以淘汰性别偏见的倾向。翻译软件也会发生性别偏见,这是怎么一说?原来,谷歌翻译以前会默认将一些中性词语翻译成具有“性别刻板印象”的用词。 “例如,对于像'强'或'医生'这样的词语,它会偏向男性化的指代;而对于其他词语,如'护士'或'漂亮',其翻译出的词语则会偏向为女性化的诠释。”谷歌翻译产物司理James Kuczmarski在公司博客上写道。除谷歌翻译外,iPhone也被指出带有这样的“性别偏见”。

开云APP在线下载

克日,谷歌公司宣称对旗下的“谷歌翻译”软件做了些许重要调整,以淘汰性别偏见的倾向。翻译软件也会发生性别偏见,这是怎么一说?原来,谷歌翻译以前会默认将一些中性词语翻译成具有“性别刻板印象”的用词。

“例如,对于像'强'或'医生'这样的词语,它会偏向男性化的指代;而对于其他词语,如'护士'或'漂亮',其翻译出的词语则会偏向为女性化的诠释。”谷歌翻译产物司理James Kuczmarski在公司博客上写道。除谷歌翻译外,iPhone也被指出带有这样的“性别偏见”。

Katrina Lake是美国一家小我私家时尚制定平台StitchFix的CEO,她在Twitter上表现,当她在iPhone键盘上输入CEO时,其会自转动出一个“男性”心情,这就即是将“CEO”一词默认为一定是男性。而实际上,Lake是一名女性。

泉源:Twitter类似谷歌翻译与iPhone键盘这样的应用法式和软件,已在越来越多地使用AI以自动执行任务,其背后使用的都是一种“词嵌入”数据支持模型,而翻译软件中时不时凸现的“性别”用法都是拜这种模型所“赐”。举例说明,当翻译“工程师”这样的词汇时,该模型就会凭据大数据算法查找到倾向性更大的词对其举行指代,好比更偏向默认用“他”来诠释,而不是“她”。没想到,“根深蒂固”的“性别偏见”也居然泛起在这种前沿数据技术中。“当该模型在翻译时,它也在无意中复制了已存的性别偏见,” Kuczmarski表现道。

而德国一名高级盘算语言学家Kate McCurdy强调,“词嵌入“模型自己没有任何错误,但需要人工指导和监视。同时,她还发现,微软旗下的bing翻译系统也泛起了类似的“性别刻板印象”问题。“这些性别遐想的观点被投射到了事物上,”McCurdy说,碰巧在(如法语、西班牙语等语言)语法中的阳性词在翻译中被自动冠上“男性”特征,而这种模型正在“学习”如何将对性此外刻板印象投射到整个名词领域中,这是令人担忧的一个问题。

不外,谷歌已表现,在对“谷歌翻译”软件的修改中,会将原先带有指向男性或女性的词汇替换成中性词语。而这些替换会主要体现在“英语转换成法语、意大利、葡萄牙语或西班牙语”的翻译中。其同时表现,也将在iOS和Android应用法式中设置该修改。不但是谷歌搜索,包罗如Netflix和Spotify等流媒体也宣称正在解决因为AI大数据推演发生的“性别偏见”问题。

不外与以上公司“犯错实时就改”的解决方式差别,McCurdy对此的态度更进一步。“现在(企业)默认的就是,先把这些应用软件都公布出来,等有问题泛起了再去‘灭火’。但如果我们提前对此就有更深思熟虑的设置,我们也可以整合出一个更具评判性的思维(以预防泛起这样的问题)。”她增补道,如果我们不希望人工智能做出有偏见的决议,而这种偏见我们也不想再“牢固”下去,那么我们需要尽早将这一问题“抹杀”在摇篮中。

(编译 彭珵)(泉源:TechCrunch、福布斯)编辑:潘婕。


本文关键词:翻译软件,居然,有,性别,偏见,倾向,背后,开云APP在线下载,原来

本文来源:开云APP在线下载-www.158lq.com

XML地图 开云APP·官方入口(kaiyun)(中国)官方网站IOS/Android/手机app下载