当前位置:

OFweek人工智能网

机器学习

正文

公民AI 创造更易懂、负责任的人工智能

导读: 埃森哲近日提出“公民AI”概念,企业不应只是训练人工智能执行特定任务,而必须提高人工智能系统的责任意识,将其“培养”成为负责任的企业员工,为社会进步作出重要贡献。

人工智能正加速在金融、汽车、医疗、教育等行业的应用,特别是在智能客服等方面,已经替代了以前人工客服的一些工作。人工智能确实提升了工作效率,但也引起了一些恐慌。特别是 AlphaGo打败人类围棋大师彻底激发了大众对人工智能的争论,人工智能是会替代人类,还是使人更强大?

除此之外,牵扯到的一些伦理问题也亟待解决。如果一部人工智能操控的存货机器人撞伤了仓库工人,如果人工智能医生出现了误诊,谁将对此负责?目前,谷歌等许多知名公司已经成立了伦理委员会,监控人工智能技术的研发和部署。

埃森哲近日提出“公民AI”概念,企业不应只是训练人工智能执行特定任务,而必须提高人工智能系统的责任意识,将其“培养”成为负责任的企业员工,为社会进步作出重要贡献。

以下是亿欧智库为您带来的精选分享:

人工智能能力快速增长,在社会中的应用面也日渐宽泛。从美国第一个人工智能律师ROSS到中国地震台网用机器写出的第一篇新闻稿,人工智能已经从一个单纯的技术工具发展成为人类的合作伙伴。在这样的背景下,企业应如何看待人工智能技术,怎样更好地为我所用?

人工智能:从程序化运营到自我学习

试想一下,一套机器学习系统希望在图片中找到一只狗,并分辨出品种。为此,大量带有“标记”的图片不可或缺:一组图片教会系统识别狗的位置,其他图片集则用于区分不同犬种。在监督学习模式下,图像通过手动标记,不仅告知系统动物位置,同时也说明其种类。

随着科技的发展,这种以程序方式构建的、仅可完成种类极为有限任务的人工智能系统已过于陈旧。并行处理技术和人工智能算法的发展,进一步刺激了深度神经网络的爆发式增长,AI得以突破单一程序的局限,拥有超越预期的行动能力。

人工智能系统获取的数据越多,其预测效果就越精准。在上面提到的识别宠物及其品种的实例中,测试数据集可以包括一幅在复杂或纷乱背景中存在多只宠物的图像。一旦模型达到了所需精度,就可在生产环境中使用。

欢迎公民AI 创造更易懂、负责任的人工智能

深度神经网络人工智能系统可以不断扩展和提高自身能力,可以自主学习,无需人为监督。卡内基梅隆大学的研究人员开发了一种训练方法,使一架无人机能够通过自我培训,学会识别和追踪某辆汽车。基于学习的人工智能拥有广泛功能,随着它们的知识累计和能力增长,就可能成为员工的协作拍档和同事,无需担心它们会“跳槽”。

培养AI员工,消除数据偏见

《埃森哲技术展望2018》显示,81%的企业高管认为,不出三年时间,人工智能将作为一名同事、合作者和值得信赖的顾问,和企业员工并肩协作。事实上,人工智能已经在某些领域拥有了与使用者相同的影响力。

纽约西奈山伊坎医学院的研究人员创建了一个名为“Deep Patient”的人工智能系统,通过分析70万名患者档案,成功自学了如何预测78种疾病的风险因素,辅助医生诊断;旧金山Stitch Fix公司的服装设计师用AI 为客户提供服饰搭配建议;蚂蚁金服的“定损宝”利用AI协助保险公司优化车险理赔;北欧软件制造商叠拓甚至在其领导团队中“聘请”了一名名为“AliciaT”的AI,希望“她”能帮助管理团队利用数据作出明智选择。

鉴于人工智能参与做出的决策会给人类生活带来越来越多的影响,企业需要培养AI的责任意识,教会他们商业与社会规范。通过培养AI的责任感,企业可以创建具有不同技能的人工智能组合。在完成培训后,这些技能模块可以在企业内流通,按需使用。同时,AI还可以通过接受继续教育,适应新的工作要求。通过对AI做出社会责任方面的培训,企业有望创造出有能力、善合作的AI员工。

但,有一个前提——企业必须拥有准确的数据。弗吉尼亚大学的一项研究发现,人工智能会放大预料中的性别偏见,将站在炉灶旁的男性全部归类为女人。

在拥有了AI员工后,通过创建培训课程,消除数据偏见显得尤为重要。企业的人工智能系统需要从基本原则开始,随后逐步依照设定的分类机构建立技能。

谷歌近期发布了一套开源数据集,帮助企业提升其人工智能系统的语音识别能力。为了创建一套数据集,使AI做好充分准备理解某种语言的30个单词,谷歌录制了数千人的发音,共计6.5 万条音频剪辑。正是凭借如此庞大的培训数据,谷歌的语音识别准确性达到了95%。

企业还必须确保,无论AI的沟通对象是客户、员工、还是其他人工智能系统,双方都拥有相同的认知背景。企业还必须为正在收集和分享的各项模型标明出处,由此确保可复制的模型和训练数据之间的联系。如果能对数据录入加以整理,尽量消除各种偏差,建立良好的归档、组织和正确标记,企业就能建立起强大的AI模型库,反复对其利用。

创建更易懂、负责任的人工智能

在企业和社会中,对决策结果作出说明至关重要。88%的受访高管均表示,当企业利用人工智能进行决策时,确保员工和客户理解其决策原则非常重要。企业必须构建和培训其人工智能系统,以人们能够理解的方式清楚诠释其行为。

英伟达公司(NVIDIA)最近公开了Drive PX的学习模式。Drive PX是嵌入了人工智能的自动驾驶汽车平台,能够自主学习如何驾驶。英伟达的工程师开发出一种方法,突出显示行车记录视频中AI聚焦观察的区域,展现了AI所“看到、想到”的信息。另外,美国的第一资本银行 (Capital One)正研究如何让AI在拒绝客户信用卡申请时,按照银行法规要求做出合理说明。

政府决策者们也在考虑出台规则,管理AI在决策中的作用。近期生效的欧盟《通用数据保护条例》的原则精神,赋予了个人对AI 和其他算法所做决定的“解释要求权”。

与此同时,“公民AI”的另一内涵在于,企业必须提高人工智能的责任意识。无论其在社会中扮演何种角色,AI所采取的一切行动都代表着企业,使用这些技术的企业必须仔细考虑如何为其行为承担责任和义务。

奥迪公司(Audi)宣布,置入 A8 车型的“交通拥堵领航”自动驾驶系统于 2019 年投入使用后,将为其事故承担责任。德国联邦政府也针对一些不可避免的事故情形,预先制定了规则: 汽车必须选择物质损害,而非人身。

随着AI更加广泛而紧密地融入社会中,它所带来的直接影响和冲击将会是全方面的——从财务决策、医疗保健,一直延伸到刑事司法,乃至更广阔的领域。企业在培养人工智能方面的责任也将不断增加。欧洲议会已开始考虑授予机器或机器人有限的“电子人格”,类似于判定责任或损害时所使用的“法人”概念。

如果企业不主动提高AI的“心智”成熟度,法规和公众就会反过来对其提出要求,甚至整个人工智能行业都将因为AI的责任缺失受到严格监管控制。令人欣喜的是,《埃森哲技术展望2018》发现,72%的高管表示,所在企业正设法提高AI决策与行动的透明度,以此获取客户的信任和信心。这将是AI融入社会的关键一步。


声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号