订阅
纠错
加入自媒体

人工智能的虚火烧出一地尸骨

4

人工智能的概念满天飞,除了暗下以“人工”代替“人工智能”的造假,还有大量把数据分析当做人工智能的公司满天飞。这些公司一般的演变路径是:小数据分析公司——大数据公司——人工智能公司,实际上他们除了名称在演变外,实际上的工作几乎没有发生变化。

很多人错误地认为,一家公司的业务只要与数据有关,就可以被称为人工智能。其实区别人工智能公司和一般数据分析公司的关键在于:人工智能系统具有迭代性,分析的数据越多,系统就会变得越智能。比如,Google大力研发的自动驾驶系统是人工智能,因为它可以根据车辆在路上的行驶里程来不断完善自己。但如果只是根据数据来分析什么时候送外卖最好,就不是人工智能。因为前者会迭代和自我学习,而后者不会。

一般而言,一个人工智能项目如果隔三个月去看,它在算法上的进步只是代数级,而不是几何级的,那么它更像是普通算法,就是伪人工智能。强的人工智能一定是进步神速,因为它本身会实现自我进化。

但实际上要实现这种自我进化,目前看起来还显得相当艰难,即使目前拿最火热的深度学习技术也让人看不到很明显的方向。2018年8月,在以“共享全球智慧,引领未来科技”为主题的世界科技创新论坛上,诺贝尔经济学奖获得者Thomas J. Sargent表示:当前的人工智能其实就是统计学,只不过用了一个很华丽的辞藻,好多的公式都非常老。

被誉为“硅谷精神布道师”的皮埃罗·斯加鲁菲(Piero Scaruffi)是全球人工智能及认知科学专家,他也认为:“人工智能最大的问题是没有常识,人们已经花了几十年去尝试解决这个问题,可能我们的方法用错了。现在所有的重点都在深度学习,但深度学习不能获取常识。深度学习只是收集许许多多的数据,基本上做的是统计工作。”

5

当然,并不是所有的公司都只是打着人工智能的旗号,做着骗取资本的事情,而是实实在在在做一些推动人工智能发展的工作。但是,一些人工智能探索的方向仍然是值得警惕的。

比如,一些人工智能似乎走向了一个不是那么正确的方向:一味追求和人很像。如果真的很像了,又能怎么样呢?事实上,人越觉得轻而易举的事情,机器越觉得困难,比如走路,比如平衡感,比如情感。而人觉得越难的事情,机器觉得越简单,比如大型数据处理能力,记忆等等。所以,人工智能的方向也许应该是替代那些人觉得难的部分,而非替代人觉得容易的部分。

人工智能有两种应用形态:一种是弱人工智能,即只擅长单个领域,比如只会下围棋的AlphaGo;另一种是强人工智能,即各方面都很强。现阶段,弱人工智能比人强,强人工智能比人弱,且非常不成熟。

人工智能的好处,不是说他们比人聪明,而是他们的思维方式和人类不一样,因为人工智能的发展方向并不是强调它跟人类如何像,而是补充与增强人类智慧。人的思维方式只是具体的某一种思维方式,而世界上还有许多思维方式。凯文·凯利在此前的《科技想要什么》一书中,就把科技描述成生命的第七种存在方式,就像人类已经定义的六种生命形态,植物、动物、原生生物、真菌、原细菌、真细菌一样,科技也是一种具备自主进化能力的生命。

另外,人工智能要真正实现助推人类的发展,必须还要具有跟人类情感交互的能力,否则就永远是一件机器。人和人之间互动之所以有意义,是因为人类互动的百分之七八十都是情绪。

人和人之间之所以能够感受到相互的感情沟通和交流,是因为我们大脑有一组叫做镜像的神经元,它的作用就是当对方脸上出现或者快乐或者悲伤或者焦虑的各种表情的时候,你的脸上下意识的就会呈现出同样的表情跟他来呼应。人工智能尽管获得了一些发展,但是在解决情绪方面还有很大的差距。如果情绪问题没有进入人工智能底层,人工智能终究只是一个机器配置,无法获得人类的交互。

因此,人工智能需要情绪镜像的技术,用摄像头来捕捉人类的面部表情,再通过算法来理解人类的情绪,然后以情绪与人类进行交互。

6

人工智能一定是未来的方向,这点毋庸置疑。但是我们短时间,切记不可期望过高,否则可能又是一地的“尸骨”。

我们不要马上就期待看到路上不需要人工驾驶的汽车。其实,我们离那个时代还很远。坦率地讲,当前的人工智能领域就像是一杯摇晃很久的啤酒,既有真酒,更多是存在很大的泡沫。人工智能就像早期的互联网一样,成为了圈钱的金字招牌。

曾在IBM研究院和沃森团队工作了15年的Michelle Zhou把人工智能分为三个阶段:第一个阶段是识别智能,更强大的计算机和更强大的算法,可以从大量文本中识别模式和主题;第二个阶段是认知智能机器超越模式识别,能够从数据中做出推论;第三个阶段是机器可以像人类一样思考和行动。

目前我们还处在第一阶段,所有的人工智能都依赖人类提供数据,无论是计算机视觉还是语音识别都是如此。

至少到现在为止,很多宣称是人工智能的东西,也许叫做“机器自动”会更好。智能时代还远没有来临。

即使那一天来临,我们也要时刻警惕两点:一是因为个别机构或群体对人工智能的掌控,造成的整体社会权利的失衡。二是人工智能的暴力倾向。

英国哲学家罗素曾说:物理学中的基础概念是能量,而社会科学中的基础概念是权力,对社会动力学规律的阐释一定离不开权力。中世纪的社会活动家马基雅维利从当时残酷的社会现实出发,指出权力就其本质而言,与暴力、欺骗、残酷和战略侵犯密不可分,越能掌握这种工具的群体就会拥有越大的权力。一旦失去暴力、欺骗、残酷和战略侵犯等手段,就失去了权力存在的基础。

作为未来基础工具的人工智能,由于内核只可能被极少数的群体掌握,去影响人们生活的方方面面,因而会使人类之间已然失衡的权力变得更加失衡。

另外,随着人工智能技术的进步,未来可能一个普通人也具有了广泛制造暴力的能力。比如随着面部识别、无人机导航等开源技术的传播,使一些犯罪分子利用这些技术实施犯罪成为了可能。想象一下,如果一架自动飞行的无人机具备了面部识别能力,然后针对目标对象精准发动攻击,世界将会如何呢?

7

尽管人类离人工智能社会还很遥远,但是人工智能的发展还是带来了一些恐惧。2018年3月,Google被披露与军方合作,引起大量员工抗议,受到各路抨击。作为回应,Google CEO桑达尔 · 皮查伊(Sundar Pichai)在2018年6月宣布了他们使用人工智能的七项原则,以及四条底线。

这七项原则具体内容包括:①对社会有益;②避免制造或加剧社会偏见;③提前测试以保证安全;④由人类承担责任,即AI技术将受到适当的人类指导和控制;⑤保证隐私;⑥坚持科学的高标准;⑦从主要用途、技术独特性、规模等方面来权衡。

四条底线是:①对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制;②不会将AI用于制造武器及其它将会对人类产生伤害的产品;③不会将AI用于收集或使用用户信息,以进行违反国际公认规范的监视;④不会将AI用于违反国际法和人权的技术开发。

这不应是Google一家公司的原则与底线,而是所有从事开发人工智能公司的原则与底线。只有这样,人工智能才是造福人类的工具,而不是毁灭自己的工具。

作者 | 刘国华

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号