当前位置:

OFweek人工智能网

其他

正文

引领场景通用人工智能时代

导读: 从互联网时代到智能硬件时代,技术发展和商业模式创新一直都是相互影响的,技术发展会推动商业模式创新,商业模式创新也会影响技术发展。可一旦发生有技术发展不足以支持商业模式创新情况,商业模式创新就会止步不前。直到下一波技术革命来临,商业模式创新才会继续出现。

从互联网时代到智能硬件时代,技术发展和商业模式创新一直都是相互影响的,技术发展会推动商业模式创新,商业模式创新也会影响技术发展。可一旦发生有技术发展不足以支持商业模式创新情况,商业模式创新就会止步不前。直到下一波技术革命来临,商业模式创新才会继续出现。

从“物联网”到“万物互联”,海量数据被催生了出来,单纯的触摸屏交互已经难以满足用户的多样化输入需求了。受技术发展因素的影响,商业模式创新开始止步不前。在这样的情况下,一旦人工智能技术取得突破性进展,商业模式就能实现创新发展,随之而来的将是拥有巨大发展潜力的市场空间。

现如今,Web2.0互联网产品时代的现有技术已经难以满足商业模式的创新需求了。未来,商业模式要创新,就要依赖不断进步的技术,届时人工智能将成为重要支撑。

人工智能未来的硬件架构

近十年,计算机科学的研究重点在信息处理层面,基于此,我们将这个时代称为“大数据时代”或者“数据大爆炸时代”。未来,随大数据时代而生的这种信息处理能力将出现发展瓶颈,届时,计算机科学的研究重点就会转移到“突破计算机现有计算能力极限”方面,也就是颠覆冯·诺依曼的硬件架构方面。

在人工智能技术的支持下,颠覆冯·诺依曼的硬件架构将从底层的硬件架构变革开始。到那时,硬件模式将摆脱对云计算的依赖,将从芯片层面直接对人工神经网络进行模拟,以构建一个完善的硬件大脑。这个想法或许是人工智能在硬件设备领域的终极解决方案。从现阶段的技术层面来看,尽管这个想法的实现还需要很长时间的努力,但其大致方向已经显现了出来。

(1)人脑芯片

2014年8月,IBM公司宣布由IBM公司和纽约康奈尔大学合作进行底层设计、由三星电子生产的百万神经元类人脑芯片——TrueNorth大获成功。IBM公司的人脑芯片研发项目开始于2008年,美国五角大楼高级计划研究局为其投资了5300万美元。

经过六年,这款集成了100万个神经元和2.56亿个突触的芯片终于问世。这款芯片相较于拥有1000亿个神经元和不可计量的突触的人脑来说还有一定的差距,但是与蜜蜂的大脑已经非常接近了。

现阶段,这款芯片能够以每秒每瓦460亿次神经突触的速度运作,能够和人脑一样对物体进行探测与识别。简单来说,在这款芯片运作的过程中,能通过探测、识别模式将一些字母串联在一起,以拼凑出完整的单词和语句,对其进行识别。总体来说,这种应用还比较简单,难以用于商业领域,与商业智能化的实现还有很大差距。

除IBM公司的TrueNorth芯片之外,英特尔、高通等公司也拥有自主芯片设计,他们的芯片设计获得了工程师的高度评价,被称为“神经形态”。在未来,以TrueNorth为代表的二元芯片将被能模拟人脑联系功能的芯片产品所替代。当然,这一想法能否实现依赖于正确的神经元结构能否找到,其研究过程也需要经过很长的时间。

(2)量子计算

目前常见的计算机是借助晶体管电路存储数据的,属于二进制,只能完成一些简单的建模与计算,面对复杂的建模和计算往往显得有心无力。

而量子计算机则很好地弥补了普通计算机的这种缺陷,借由粒子的量子状态存储数据,借助量子算法对数据进行操控,借助量子逻辑来完成通用计算,其拥有的强大并行计算能力能够大幅提升计算机的计算速度。

在量子计算机研究方面做出突出贡献的就是谷歌公司。谷歌公司秉持着“使机器人能够像人一样独立思考”的理想,2014年开始与各科学家联手对量子计算机的处理器进行研究。这一研究究竟能否成功,现在还无法预见,只能在未来见分晓。

(3)仿生计算机

目前在通用的CPU、GPU基础上形成的处理神经网络运作效率较低。以谷歌大脑为例,谷歌大脑拥有的CPU数量达1.6万个,要想完成识别动物面部的无监督学习训练,需要运行7天。并且,谷歌大脑的100亿个突触相较于人脑的100万亿个突触还有很大差距。

另外,以CPU、GPU为基础形成的通用处理器,在构建数据中心的时候,占地面积大、散热功能差、消耗电量多。如此大的成本,一般的互联网企业根本无力支付。面对这些问题,专门的神经网络处理器成了各家互联网企业的必须设备。

仿生计算机就是为解决这个问题产生的,通过仿生计算机,大规模人工神经网络的构建问题能得以有效解决。目前,在国内,陈云霁团队就在仿生学原理的基础上研发出了神经网络计算机。该计算机无须访问内存,使得通讯时间大为缩减(至少减少了90%),并能够支持现有的、主流的机器学习算法。相较于那些主流的GPU来说,寒武纪神经网络计算机的性能比提升了21倍,性能功耗比提升了300倍。

从专用智能到通用智能

在专用智能时代,人工智能技术只能在特定领域、特定场景中应用。例如,格灵深瞳的计算机视觉技术只能用于安防监控领域,如果在商场中应用,它的三维摄像头就没有办法对顾客的基本特征进行识别,无法根据顾客逗留时间的长短来分析其消费偏好,更无法以此为依据开展精准营销。

无论是安防监控领域对违法违规行为的识别与响应,还是商场领域对顾客消费行为的识别与响应,其基础都是计算机视觉技术。但是在专用智能时代,因计算能力和建模能力不足,人工智能技术只能在特定领域使用,无法实现跨场景应用。

未来,随着人工智能技术的发展,当专用智能时代步入通用智能时代后,人工智能技术的普遍适用性将得到大幅提升(图1)。届时,一个普通的监控摄像头+计算机视觉云平台,在任何场合都能根据用户需求对人群进行识别,并做出分析和决策。

图1人工智能技术的发展趋势

现如今,通用智能时代距离我们还比较遥远。要想从专用智能时代迈进通用智能时代,在计算资源层面必须超越现有的能力上限;在计算机建模层面必须突破线下深度学习算法的极限,真正实现“机器人像人一样思考”。

在跨场景通用人工智能时代,应用层企业的进入门槛最低,平台企业的进入门槛最高,技术细分领域领先企业的进入门槛居中。这也就意味着,届时,应用层企业的竞争会非常惨烈。

声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号