MioTalk X Joanna Bryson:小心,机器人也有偏见

妙盈科技与Joanna Bryson教授共同探讨了机器是如何反映人类的固有偏见,以及可能对社会产生的不利影响。

Joanna Bryson, 巴斯大学计算机科学系副教授2018-11-26

您在《有偏见的机器人》的论文中主要讨论了什么问题?

从根本来说,我想了解的是认知以及认知的演变。自我的论文发表以来,人们惊讶于机器也会有偏见。在固有思想中,机器必须是中立的和客观的——这在某种意义上是正确的,机器没有自己的观点或伦理。但考虑到人工产物是人类文化的一个元素,它总是会反映我们的偏见。

来源:Dilbert

我认为这种”隐性偏见”可能是文化的一部分,让我十分感兴趣,这意味着文化是我们思考的一部分,可能带领我们探索未知。

人们通常不认为这种“隐性偏见”存在于某个词或或我们使用某个词的时候,但研究表明偏见是确实存在的。能够意识到这一点非常重要,因为它能告诉我们包括如何使用语言,如何学习偏见,如何学习语言,以及如何进化语言等方方面面。一切理解都是基于这种方式产生并相互交流的,但很多人并没有看到其重要性。我们从而了解到了大脑的工作方式,以及这对我们如何构建人工智能意味着什么。

”而了解到机器其实是通过我们来交流的,是非常重要的。“

我们的研究论文表明,将机器学习应用于普通的人类语言会导致类似于人类的语义偏见。而能够了解到机器其实是通过我们来交流的,是非常重要的。

固有偏见向人工智能技术的转移,是如何发生的?

计算是一个物理过程。它需要时间、精力和空间。因此,它受到资源限制的。无论指的是自然还是人工智能,这都是事实。从计算的角度来看,两者之间没有什么区别。人工智能取得如此大进步的真正原因,就是因为我们可以将已经被文化或生物学计算出来的结果转化为人工智能。很多人认为,这正是表明了人工智能偏见的存在。然而这其实是说明了实际上是我们存在偏见,而人工智能是仅仅在学习我们。这就是人工智能偏见的第一个来源:它无意中学习到了人类文化中的隐性偏见。

论文中提到的“隐性联想”测试,指的是什么?

该测试是在测量人们对计算机屏幕上显示单词进行配对的反应时间(以毫秒为单位)。

在先前的研究中,花的种类如“玫瑰”和“雏菊”,昆虫如“蚂蚁”和“飞蛾”,将与“爱抚”和“爱”或“肮脏”和“丑陋”等具有愉快和不愉快内涵的词搭配。人们更容易把花和愉快的词联想在一起,而把昆虫和不愉快的词联想在一起。

为了避免矛盾,我们只复制了心理学中已知的偏见,并用隐性联想测验来衡量。我们使用了一种纯粹的统计机器学习模型,称为“词嵌入”法,这是计算机目前用来解释语音和文本的方法,它是在包含8400亿个单词的大量互联网内容样本上训练出来的。该算法可以在10个单词的文本窗中显示单词的共现统计量。经常出现在一起的词比那些很少一起出现的词具有更强的关联性。

来源: https://imgs.xkcd.com/comics/how_it_works.png

例如,研究小组对“程序员、工程师、科学家”、“护士、教师、图书管理员”等职业词汇和“男性”与“女性”名字的属性词汇进行了研究,观察人类有意识或无意识地拥有的共同观点是否也很容易通过算法获得。

能举一个研究中发现人类偏见的例子吗?

我们的机器学习实验不仅证实了花或虫子有关词汇存在的偏见,而且还发现了更多与性别和种族有关的隐性偏见的令人不安的证据。

机器学习模型发现,“女性“更多地与艺术和人文职业联系在一起,与“父母”和“婚礼”等词联系在一起。另一方面,“男性”与数学和工程专业以及“专业”和“薪水”等词汇密切相关。

来源:Dilbert.com

此前的一项实验表明,尽管拥有相同的简历,但一个欧洲裔美国人从求职申请中获得面试机会比非洲裔美国人高出50%。

如果你还不相信名字中有种族歧视的话,我们可以通过人工智能找到答案。我们的人工智能系统认为,欧洲裔美国人名字更容易与“礼物”或“快乐”等积极词汇联系在一起,而令人不快的词通常与非裔美国人的名字联系在一起。

这一证据再次证明了社会中现存的不平等和偏见,而这些偏见可能被转移到机器上。

应用到金融领域时,你认为AI的偏见会产生哪些影响?

合规性可能会是一个问题,特别当选择客户类型的时候。例如,当我们使用机器学习来分配信用分数时,算法可能会对需要贷款的少数民族的违约风险评估得更高,仅仅因为类似的人传统上只能获得不利的贷款条件。这与女性相比男性工资更低、创业融资更少是一个道理。

而我担心的主要问题是,金融机构并没有意识到记录自己的行为并与监管机构合作有多么重要。

我们人类作为“机器人的创作者”,你建议我们在未来应该做些什么呢?

许多人试图证明人工智能正在进行自我学习,或者至少通过机器学习编程。但是任何算法都不能自发地生成某个软件或机器人,很多影响人们生活的算法都是用电子表格编写的。人工智能是人们刻意创造出来的。别忘了人工智能也可能存在偏见,因为有些人就是故意而为之。

来源:Trader Feed ( https://bit.ly/2mn3u1M )

处理这一问题的方法是坚持合理解释的权利。所有有可能影响人们生活的人工智能算法都应该接受审查。如果你对软件不负责任是十分危险的。与政府合作、参与政策制定、培训法律责任等是必要的。现在是原则成熟的时候,我们应该负起责任。

”所有有可能影响人们生活的人工智能算法都应该接受审查。“

一旦看到了结果,就会明白为什么人工智能研究是如此重要,创新研究也十分重要的原因。我们的研究报告帮助人们了解人工智能的本质,它证明了隐性偏见正在从现实、文化中进入我们的技术。而我们可以明确的是,那并不是我们为自己选择的未来。

阅读完整论文,请点击这里

以上内容仅代表采访者本人观点。