当前位置:

OFweek人工智能网

模式识别

正文

AI进入“深水区”,算法是潜在偏见的最后解决方案?

导读: 人工智能本来并不存在偏见,它不会因为无法通过逻辑来解释的理由而“想”某些东西是真的或假的。不幸的是,从创建算法到解释数据,机器学习中存在着人类的偏见,并且直到现在,几乎没有人试图解决这个严重的问题。

人工智能本来并不存在偏见,它不会因为无法通过逻辑来解释的理由而“想”某些东西是真的或假的。不幸的是,从创建算法到解释数据,机器学习中存在着人类的偏见,并且直到现在,几乎没有人试图解决这个严重的问题。

本周二,外媒表示,由谷歌前首席技术官Varun Kacholia和Facebook前搜索引擎工程师Ashutosh Garg一起创立的AI公司,近日完成了2400万美元的融资,投资方为Lightspeed Ventures和Foundation Capital。
  这是一家旨在通过公开收集世界各地的劳动力的信息,解决雇佣、求职和晋升的信息鸿沟与招聘歧视问题的初创公司,依托于自主研发的软件收集处理招聘职位和应聘者的个人信息,人工智能系统的处理减轻了信息不对称的问题,匹配率比传统招聘的提高了八倍,同时还节约了90%的筛选成本。
  将大数据和算法自动化决策应用于劳动力的筛选上无可厚非,庞大的数据基础也可以提高决策的效率。但算法的结果一定没有偏差吗?对此,Gary表示:“人们在招聘过程中也存在偏见,这是因为个体获取的信息是有限的。而数据算法为招聘人员提供了充足的信息和洞见,弥补了招聘人员可能因不了解某些技能或公司而产生的误差,从而大幅增加合格候选人的数量。”
  按照该公司的说法,产品的筛选机制将消除任何潜在的人类偏见,使其完成符合平等就业机会委员会的规定,年龄、性别、种族、宗教、残疾等都不会成为算法的参考标准。消除人们固有的成见,使人事决策变得不那么“私人化”固然有可取之处,但前提是决策系统本身不受这些偏见的影响。对算法的监督和修正,必然成为算法运行的重中之重。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号