您现在的位置是:首页 > 生活 > 正文

研究人员开发出一种新的训练技术 旨在减少人工智能系统的社会偏见

发布时间:2024-06-26 11:27:20梁福影来源:

导读 俄勒冈州立大学的一名博士生和 Adob​​e 的研究人员为人工智能系统创建了一种新的、经济高效的训练技术,旨在减少人工智能系统的社会偏...

俄勒冈州立大学的一名博士生和 Adob​​e 的研究人员为人工智能系统创建了一种新的、经济高效的训练技术,旨在减少人工智能系统的社会偏见。

俄勒冈州立大学工程学院的 Eric Slyman 和 Adob​​e 研究人员将这种新方法称为FairDeDup,这是公平去重的缩写。去重意味着从用于训练 AI 系统的数据中删除冗余信息,从而降低训练的高计算成本。

研究人员表示,从互联网上收集的数据集通常包含社会中存在的偏见。当这些偏见被编入经过训练的人工智能模型中时,它们可能会助长不公平的思想和行为。

通过了解重复数据删除如何影响偏见的普遍性,可以减轻负面影响——例如,当人工智能系统被要求展示首席执行官、医生等的照片时,它会自动只提供白人男性的照片,而预期的用例是展示人们的多样化形象。

“我们将其命名为 FairDeDup,是早期成本效益方法 SemDeDup 的文字游戏,我们通过纳入公平性考虑对其进行了改进,”Slyman 说道。“虽然之前的研究表明,删除这些冗余数据可以用更少的资源实现准确的 AI 训练,但我们发现这一过程也会加剧 AI 经常学习到的有害社会偏见。”

斯莱曼上周在西雅图举行的 IEEE/CVF计算机视觉和模式识别会议上介绍了 FairDeDup 算法。

FairDeDup 的工作原理是通过一种称为修剪的过程来精简从网络收集的图像说明数据集。修剪是指选择代表整个数据集的数据子集,如果以内容感知的方式进行修剪,则可以做出明智的决定,确定哪些部分数据保留,哪些部分删除。

“FairDeDup 删除了冗余数据,同时结合了可控的、人为定义的多样性维度来减轻偏见,”Slyman 说道。“我们的方法使人工智能训练不仅具有成本效益和准确性,而且更加公平。”

除了职业、种族和性别之外,培训期间存在的其他偏见还可能包括与年龄、地理和文化相关的偏见。

“通过在数据集修剪过程中解决偏见问题,我们可以创建更加社会公正的人工智能系统,”Slyman 说。“我们的工作并不是强迫人工智能遵循我们自己规定的公平观念,而是开辟一条途径,推动人工智能在某些环境和用户群中公平行事。我们让人们定义什么是公平的,而不是由互联网或其他大型数据集来决定。”

标签:

上一篇
下一篇

最新文章