返回
业界动态
人工智能应用存在偏见?
发布时间:2018-9-26 | 浏览次数:1160 次

随着人工智能的迅速发展,在帮助人类解决各种问题的同时,在应用过程中也出现越来越多此前从未考虑到的问题。

世界经济论坛:

人工智能需要解决偏见问题

据报道,在中国天津举行的世界经济论坛新领军者年会上,人工智能和机器学习主管凯-弗思-巴特菲尔德(Kay Firth-Butterfield)称,两三年前,极少有人会提出使用人工智能的道德问题。

但是,她说,道德问题现在“开始变得突出”。“这一方面是因为我们在欧洲有一般数据保护法案在关注隐私问题,另一方面是因为一些人工智能算法存在明显的问题。”

偏见的认定:

机器人存在偏见?还是算法?

从理论上来说,机器人应该是没有偏见的。但是,近些年,有很多事情表明算法开始变得有偏见。

几年前,谷歌因其图像识别算法把非裔美国人识别为“大猩猩”而遭到了猛烈批评。今年初,有报道称,谷歌还没有解决这个问题,只是简单地阻止其图像识别软件来识别大猩猩。

类似的问题在不断地出现,这也表明了寻找到解决问题的方法刻不容缓。

而解决偏见的方法,必须确保两点:1.确保人工智能高速发展,为人类谋福利;2.同时解决人工智能在隐私、偏见、透明度和责任感等方面的道德问题。

中国科技行业:

培养的科技人才可一定程度上填补空白

而在讨论解决偏见的过程中,巴特菲尔德特别提到了中国科技行业。

她说,现在没有足够的人工智能工程师来满足行业内的需求。中国在努力培训更多的人工智能工程师和数据科学家,这可以在一定程度上填补科技行业的人才空白。

这足以见得,中国科技人才在未来解决人工智能偏见的这个全球性的课题上,发挥着重要作用。