您好,欢迎访问华体会网站!
您好,欢迎访问华体会网站!
集团动态
联系华体会
发布日期:2024-10-08 作者:华体会
跟着机械翻译系统的普遍利用,此中的公允性问题日趋突显,也就是说,系统在处置分歧说话、性别、种族、文化等受庇护属性时,可能表示出成见或不公道。中国科学院软件研究所天基综合信息系统全国重点尝试室特殊研究助理孙泽宇聚焦可托人工智能的公允性问题,提出了首个旨在检测机械翻译系统公允性的框架FairMT,近日相干论文被软件工程顶级期刊ACM Transactions on Software Engineering and Methodology (TOSEM)领受。
研究人员介绍,现有的几种关在天然说话处置公允性的测试方式首要是操纵使命分类,经由过程输入中变动与公允相干的辞汇来检测输出种别的差别。但当前并没有专门为机械翻译使命设计的公允性测试方式,首要挑战在在机械翻译输出的句子是序列而非单一种别,主动检测两个序列之间的公允性问题,今朝还是个困难。
为应对这一挑战,研究团队提出的FairMT框架起首遵守演变关系,经由过程模板化方式变动触及公允性的相干辞汇,将源内容和更改内容作为一组输入。随即便用基在神经收集的语义类似性怀抱来评估输入所对应的翻译成果,将得分低在预界说阈值的测试案例陈述为具有潜伏公允性问题的内容。最后,FairMT用额外的演变华体会体育app关系判定输入中与公允性无关的内容,经由过程变异这些内容再度生成测试输入进行语义类似性怀抱,终究确认是不是存在公允性问题。
研究团队已在谷歌翻译、T5和Transformer上利用FairMT方式进行测试,别离检测到最多832、1984和2627个公允性问题。进一步的人工评估也证实了检测成果的有用性。研究团队还发现,经常使用主动化翻译质量权衡指标BLEU分数与公允性的类似性怀抱存在正相干关系,可以证实公允性问题的解决有助在晋升翻译质量。
相干论文信息:https://dl.acm.org/doi/pdf/10.1145/3664608
版权声明:凡本网注明“来历:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来历和作者,且不得对内容作本色性改动;微信公家号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。