订阅
纠错
加入自媒体

欧盟发布AI伦理指南 提出未来AI系统应该满足的七项要求

据美国科技媒体The Verge报道,欧盟本周一发布了一系列关于发展人工智能(AI)伦理的新指南,作为企业和政府开发人工智能伦理应用的指导方针。

这些规则不同于美国科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

因此,举例来说,如果一套AI系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取AI诊断意见。

这些指导方针有助于阻止人工智能胡作非为,并保证在行政和官僚主义的层面上,不会制造出阿西莫夫式的谋杀谜团。

为了帮助实现这一目标,欧盟召集了52名专家组成的小组,提出了他们认为未来AI系统应该满足的七项要求。具体如下:

- 人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被AI系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

- 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

- 隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

- 透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

- 多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

- 环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

- 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人们会注意到上述一些需求非常抽象,很难从客观的角度进行评估。(例如,“积极的社会变革”的定义因人而异,因国而异),但其他定义内容更为直截了当,可以通过政府监督进行检验。例如,用于训练政府AI系统的数据实行共享,可能是对抗偏见性算法的好方法。

这些指导方针不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟一再表示,希望成为AI伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。

不过在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国——AI领域的世界领先者——一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。

作为这项工作的一部分,本周一的报告包括了一份所谓的“值得信赖的AI评估列表”,以便帮助专家找出AI软件中存在的潜在弱点或危险。此列表中的问题包括“是否对系统在意外情况和环境中的行为进行了验证?”和“是否对数据集内的数据类型和范围进行了评估?”

这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在2020年期限内提供一份最终报告。

范尼·希德韦吉(Fanny HIDvegi)现在是数字版权集团Access Now的政策经理,也是参与撰写这份指南的专家之一,他说评估列表是报告中最重要的部分。希德韦吉向The Verge透露,“它提供了一个实用的、前瞻性的视角”,来缓解人工智能的潜在危害。

“在我们看来,欧盟有能力、有责任站在这项工作的最前线,”希德韦吉说,“但我们认为,欧盟不应停留在伦理指南水平……而应该上升到法律层面。”

另有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。

智库机构数据创新中心(Center for Data Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)在接受The Verge采访时说:“通过为AI伦理创建黄金标准来确认欧盟在全球AI发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为AI伦理的领导者,首先你必须在人工智能领域遥遥领先。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号