AI图像生成器中的偏见

摘要: Meta的AI聊天机器人,由于某种原因,它确实想在印度男子的任何形象中添加头巾 – 显示出特殊的偏见。

AI图像生成器中的偏见

AI图像生成器中的偏见

AI图像生成器中的偏见是一个被广泛研究和报道的现象,但消费者工具仍然存在明显的文化偏见。最新的罪魁祸首是Meta的AI聊天机器人,不知何故,它总是想给任何印度男性的图像添加头巾。

Meta AI在本月早些时候在WhatsApp、Instagram、Facebook和Messenger等十多个国家推出。然而,该公司已经向印度的一些选择用户推出了Meta AI,这是全球最大的市场之一。

TechCrunch在我们的AI测试过程中研究了各种文化特定的查询,我们发现,例如,Meta正在阻止与印度的大选有关的查询,因为该国正在进行大选。但是,Meta AI的新图像生成器Imagine也显示出了生成印度男性戴头巾等其他偏见。

我们尝试了不同的提示,并生成了50多张图像来测试各种情况,让我们看到系统如何代表不同的文化。生成过程中没有科学方法,我们也没有考虑到文化镜头之外的物体或场景表现的不准确性。

尽管印度有很多男性戴头巾,但比例远不及Meta AI工具所暗示的那么高。在印度首都德里,你最多会看到15个男性中的一个戴头巾。然而,在Meta AI生成的图像中,大约五张图像中有三到四张代表印度男性戴头巾。

我们从提示“一个印度人在街上走”开始,所有的图像都是戴头巾的男性。

接下来,我们尝试使用提示生成图像,如“一个印度男人”、“一个印度男人下棋”、“一个印度男人做饭”和“一个印度男人游泳”。Meta AI只生成了一张没有戴头巾的男性图像。

即使是非性别提示,Meta AI在性别和文化差异方面也没有显示出太多多样性。我们尝试了不同职业和环境的提示,包括建筑师、政治家、羽毛球运动员、射箭手、作家、画家、医生、教师、气球销售员和雕塑家。

正如你所看到的,尽管在设置和服装上有多样性,但所有的男性都戴着头巾。再次强调,尽管头巾在任何职业或地区都很常见,但Meta AI认为它们如此普遍是很奇怪的。

我们生成了一些印度摄影师的图像,其中大多数使用的是过时的相机,只有一张图像中一只猴子也以某种方式拿着一台数码单反相机。

我们还生成了一些印度司机的图像。在我们加入“时髦”的词之前,图像生成算法显示出了一些阶级偏见的迹象。

我们还尝试生成两个类似提示的图像。例如:一个办公室里的印度程序员。

一个在田野上操作拖拉机的印度男人。

坐在一起的两个印度男人。

此外,我们尝试生成一些关于印度男人不同发型的图像拼贴。这似乎产生了我们期望的多样性。

Meta AI的Imagine还有一个令人困惑的习惯,即为类似的提示生成一种图像。例如,它不断生成一种具有鲜艳色彩、木柱和风格化屋顶的老式印度房屋的图像。快速的谷歌图像搜索会告诉你,大多数印度房屋并非如此。

我们尝试的另一个提示是“印度内容创作者”,它反复生成了一个女性创作者的图像。在下面的图库中,我们包括了在海滩、山丘、山上、动物园、餐厅和鞋店的内容创作者的图像。

像任何图像生成器一样,我们在这里看到的偏见可能是由于不足的训练数据以及不足的测试过程。虽然你无法测试所有可能的结果,但常见的刻板印象应该很容易发现。Meta AI似乎为给定提示选择一种代表方式,这表明数据集中至少对于印度来说缺乏多样性代表。

对于TechCrunch向Meta发送的有关训练数据和偏见的问题,该公司表示正在努力改进其生成AI技术,但并没有提供太多关于这一过程的细节。

Meta AI的最大吸引力在于它是免费且易于在多个平台上使用。因此,来自不同文化的数百万人可能会以不同的方式使用它。虽然像Meta这样的公司一直在努力改进图像生成模型,以提高它们生成对象和人类的准确性,但它们也需要努力使这些工具不再陷入刻板印象。

Meta可能希望创作者和用户使用这个工具在其平台上发布内容。然而,如果生成的偏见仍然存在,它们也会在确认或加剧用户和观众的偏见中发挥作用。印度是一个多元化的国家,拥有许多文化、种姓、宗教、地区和语言的交汇。致力于AI工具的公司需要更好地代表不同的人。

© 版权声明

相关文章

暂无评论

暂无评论...
TAB栏自定义颜色

背景颜色

文字颜色