订阅
纠错
加入自媒体

也来谈谈人工智能的罪与罚

也许彼时,我们就是另一个“自然”

会议中,马斯克显然并不试图让这番“人工智能威胁论”显得太过激进,也并没有像普通大众那样,抱怨AI监管“令人厌烦”,而是严肃地指出“让AI无拘无束发展的风险太高”。

与马克·扎克伯格所持的人工智能“和谐论”不同,多年以来,马斯克始终在持续拉响AI警钟。2014年,他将人工智能开发人员比作“自认为能控制所召唤恶魔”的人类。2015年,他签署了一份关于AI军备竞赛的预警信。为了防止AI被一家公司控制,他甚至投资了一个旨在促进AI开源的项目。

然而,硅谷的一些领袖并不赞成他的想法,包括谷歌联合创始人拉里·佩奇在内,都将AI描述为一种人类可借力的好工具。外媒评论指出,马斯克的言论顶多是一种营销战略,“他对品牌宣传的兴趣比拯救世界大得多”。部分参会政客仍在怀疑发展中的AI是否具备管理能力,但马斯克建议,美国政府第一步应“洞察”当前研究的实际情况,“一旦意识到了现状,人们就会明白恐惧的含义”。

抛开态度不一的言论,纵观现实,大自然耗费百亿年孕育出智慧生命,在辉煌显世了数千年后,模仿自然的手笔,人类只需短短数十年便能造出与自身不相上下的人工智能AI,堪称奇迹。也许,自诞生之日起,人类存在于世间的唯一筹码便是智慧。唯有用全部的智慧与机械交换,科学家理想中的AI才会成为现实。

倘若我们依然对控制权存有疑惑,想要获得文明的安全感,那不妨扪心自问:自然成功“控制”了人类吗?当然没有!因为在人类文明中,自然是背景、是环境、是赖以生存的物质资料的来源,是本质不同的存在。那么,在人工智能的问题上是否同理,人类对未来可能产生的“觉醒AI”能够“完全控制”吗?

也许彼时,AI眼中,我们就是另一个“自然”!

3.怕或不怕 人工智能就在那里

自阿尔法狗横扫棋坛后,关于人工智能是福是祸的“口水战”就没停过。随着人工智能技术的日新月异,相关争议不但没有平息,反而日渐升级。这不,连脸书网创始人扎克伯格与特斯拉掌门人马斯克,都因为它互怼起来了。

日前,先是马斯克再次提出人工智能对人类文明是一个“可怕的问题和威胁”。而后,这一观点遭到扎克伯格反驳,后者明确表示对人工智能持乐观态度。然后,两天后马斯克又怼回去了,说扎克伯格对人工智能理解“有限”。

扎克伯格和马斯克都是当今科技界引领潮流的人物。他们执掌的公司都涉及人工智能业务,二人却对它持截然相反的态度,而且因此公开吵起来。只能说明,这确实是人工智能发展绕不过去的问题。

到底该对人工智能持乐观态度,还是悲观态度?梳理两种观点,会发现如下规律。“乐观派”更多关注当下,他们认为人工智能为社会带来众多好处,没必要对它过于恐慌。让“悲观派”感到焦虑的是未来。他们担心未来人工智能会带来失业,引发战争,甚至导致人类终结。

平心而论,两种说法都有道理。一方面,谁也无法否认,现阶段人工智能为人类带来的实惠;另一方面,谁也无法断定,数百年后人工智能会发展成什么样。但毋庸置疑的是,无论你乐观还是悲观,人工智能时代已经到来,这一趋势无法改变。

作为一门技术,人工智能本身是中性的。它既可以用来为人类造福,也可能给人类带来困扰。正如互联网既可以用来社交、购物,也可以用来散播勒索病毒。所以,与其盲目乐观,或盲目悲观,倒不如理性对待人工智能。

既然它具有革新性,那就充分挖掘其潜能,让社会生活更加便捷。要想避免它误入歧途,那就及时制定法律法规和行业标准,为它营造更好的发展环境。如果担心它抢饭碗,那就提供更好的社会保障,让失业的人重归工作。至于千百年以后的事,既然无法预测,而未来又始于现在,只能先把当下做好。

两位在科技界举足轻重的巨擘,为人工智能是否会带来灾难而大打嘴仗之后,不妨想想做点什么,才能保证人工智能的光明未来。

作为一名人工智能研究员,我常常会想到人类对人工智能的恐惧。

然而,目前我也很难想象我开发出来的计算机怎么样才能成为未来世界的怪物。有时就会像奥本海默在带头建造世界上第一颗核弹之后哀叹的那样,我会想我是否也会成为“世界的毁灭者”?

我想,我会在历史上留名,但确是臭名昭著。那作为一名人工智能科学家,我在担心什么呢?

对未知的恐惧

由科幻小说作家Arthur Clarke设想并最后由电影导演Stanley Kubrick制成的计算机HAL 9000就是一个很好的例子。在很多复杂的系统里,例如泰坦尼克号、美国航空航天局的航天飞机、切尔诺贝利核电站,工程师们把许多不同的组件放在一起。设计师们可能非常清楚每个单独的元素是如何工作的,但是当这些元素连接在一起时,他们就无法知之甚透,就会产生意外的后果。

所以不能完全了解的系统,往往会不受控制并出现意外的后果。一艘轮船的沉没,两架航天飞机的爆炸,遍布欧亚大陆的放射性污染,在每一场灾难都是一系列小差错导致的大灾难。

而在我看来,目前人工智能也落入了同样的境地之中。我们从认知科学中学习最新的研究结果,然后将其转化为一种程序算法并添加到现有的系统中。我们在还不了解智能认知的情况下,便开始对人工智能进行改造。

例如IBM的沃森和谷歌的Alpha系统,我们将强大的计算机能力和人造神经系统结合在一起,帮助他们取得了一系列令人惊叹的成就。如果这些机器出了差错,可能出现的结果是沃森不会喊“危险”了或者Alpha不能打败围棋大师了,但是这些错误都不是致命的。

然而,随着人工智能的设计变得更加复杂,电脑处理器变得更快,它们的技能也会得到提升。出现意外的风险也在增加,我们的责任也更重。我们经常说“人无完人”,那么我们创造的系统也肯定存在缺陷。

对滥用的恐惧

目前我正在应用“神经进化法”来开发人工智能,在可能引发的意外后果这一方面,我并不十分担心。我创造虚拟环境,开发数字生物从而使他们的大脑可以解决日益复杂的任务。我们会评估这些智能生物的表现,表现最好的会被挑选出来再次生产并研发下一代。这样,经过几代的进化,这些机器生物已经逐渐演变出了认知能力。

现在,我们正在给这些机器生物设定一些非常简但的任务,比如他们可以做简单的导航任务,做一些简单的决定等,但很快我们就会设计出能够执行更复杂任务更智能的机器,最终,我们希望可以达到人类的智力水平。

在这个过程中,我们会发现问题并解决问题。每一代机器都能更好地处理前几代机器曾经出现的问题。这帮助我们可以减少在未来他们真正进入世界时出现意外结果的概率。

此外,这种"代代相传“的改良方法还可以帮助我们发展人工智能的伦理道德。最终我们想要演变出是有可信赖性及利他主义这样人类道德的人工智能。我们可以设置一个虚拟环境,给那些表现出友善、诚实和同理心的机器奖励。可能这也是一种确保我们研发的是更听话的仆人或值得信赖的伙伴的方法。同时也可以减少出现冷酷杀手机器人的几率。

虽然这种“神经进化法”可能降低出现不可控结果的可能性,但它并不能防止滥用。但这是一个道德问题,而不是科学问题。作为一名科学家,我有说出真相的义务,我需要报告我在实验中发现的东西,不管这种结果我想不想说。我的重点不是决定我想要什么,而是将结果展示出来。

<上一页  1  2  3  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号