您当前的位置:首页 > 企业 > 资讯

AI阴暗面!AI可能跟人类一样存在偏见 最终或许还会“嫌弃”人类?

2018-09-10 15:02:32 来源: 前瞻网 作者:
摘要:
不仅人类和动物会对外界抱有偏见。麻省理工学院(Massachusetts Institute of Technology)和卡迪夫大学(Cardiff University)的心理学和计算机科学研究人

1

不仅人类和动物会对外界抱有偏见。麻省理工学院(Massachusetts Institute of Technology)和卡迪夫大学(Cardiff University)的心理学和计算机科学研究人员发现,人工智能机器人可以通过相互学习来形成偏见。

人工智能通常与种族主义和性别歧视有着复杂的关系,我们已经见过人工智能表现出这种偏见的例子。然而,这项研究表明人工智能能够独自形成偏见。研究人员写道,“一群自动机器可以通过简单地识别、模仿和相互学习这种行为来表现出偏见。”

学者们建立了一个模拟游戏:基于每位机器人的声誉和相关捐赠策略,让每个人工智能机器人来决定将物品捐赠给自己团队或是其他团队的成员,然后根据捐赠结果来判定机器人的偏见程度。研究人员发现,机器人对其他群体成员的偏见越来越大。

在数千次模拟实验中,这些机器人通过在自己的群体中或在整个群体中相互复制来学习新的策略。研究发现,机器人会模仿那些短期内会给它们带来更好回报的策略。

卡迪夫大学教授Roger Whitaker写道:“我们的模拟显示,偏见是一种强大的本性力量,通过进化,它很容易在虚拟人群中受到激励,损害了与他人更广泛的联系。”Whitaker是这项研究的共同作者之一。“对偏见群体的保护可能会在不经意间导致个人进一步形成偏见。这种普遍的偏见很难逆转。”

有些人可能会问:“为什么我们不能和睦相处?”在某些情况下,包括在人口中有更多不同的子群体,偏见程度较低。

“随着亚群体数量的增加,非偏见团体的联盟可以合作减少偏见。这也降低了他们作为少数群体的地位,减少了对偏见的敏感性。然而,这也需要代理人在与他们团队之外的人进行互动时有更高的倾向,”Whitaker说。

Twitter首席执行官Jack Dorsey本周在国会作证时谈到了人工智能开发者在减少意外偏见方面存在的问题。除非开发人员和计算机科学家能够找到保持人工智能中立的方法,否则我们只能希望机器人不会突然决定不喜欢人类的长相,尤其是当它们变得更加自主的时候。

返回首页,查看更多 【免责声明】 凡本站未注明来源为京晨晚报网:http://huaxacaixun.com/的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。其他媒体、网站或个人转载使用时必须保留本站注明的文章来源,并自负法律责任。 如您不希望作品出现在本站,可联系我们要求撤下您的作品。联系邮箱:xinxifankuui@163.com
热门推荐
返回顶部