当前位置:

OFweek人工智能网

其他

正文

AI = 神经网络?这8个技术就不是!

导读: AI热潮中,有关神经网络的声音最大。然而,AI远远不止如此。

AI热潮中,有关神经网络的声音最大。然而,AI远远不止如此。
  目前在AI技术领域中,投入资金最多的当属对神经网络的研究了。在众人眼中,神经网络技术貌似就是“程序构造的大脑”(虽然比喻很不准确)。神经网络的概念早在20世纪40年代就被提出,但直到现在,人们对于神经元及大脑的工作方式仍然知之甚少,最近几年,科研界关于神经网络技术创新的呼声越来越强,渴望重启神经网络的热潮……其实,除了神经网络以外,AI领域中还包含很多更有趣、更新颖,更有前景的技术,文章中就将这些技术介绍给大家。
  1. Knol提取
  Knol指信息单元,也就是关键字、词等,Knol提取技术则是从文本中提取关键信息的过程。举个简单的例子:比如“顾名思义,章鱼有8条腿”这句话经过提取后,就变成了这个样子:“章鱼”:“腿的数目”:我们常用的Google搜索引擎就依赖于这项技术,后续介绍的技术中,很多也都包含了这项技术。
  2. 本体构建
  本体构建是基于NLP的技术,旨在用软件来构建实体名词的层次结构,这一技术对实现AI会话大有帮助。虽然本体构建表面看起来简单,但事实上构建却并不容易,主要因为事物之间的实际联系比我们所认为的要复杂的多。例如,利用NLP分析文本来建立实体关系集:例句:“我的拉布拉多犬刚刚生了一群小狗崽,它们的父亲是只狮子狗,所以它们是拉布拉多贵宾犬(一种混血犬)”这句话被转换后,就变成了:“小狗崽”:“可能是”:“拉布拉多贵宾犬”,“拥有/生(have)”:“父亲”},“拉布拉多犬”:“拥有/生(have)”:“小狗崽”。但是,人类在进行语言表达时,通常不会将所有的关系都陈述出来,比如这句话中,是要通过推断才能得出“我的拉布拉多犬为雌性”这一事实,这就是本体构建的难点所在。正如此,本体构建技术目前只应用在了顶尖的聊天机器人中。
  3. 自定义启发式
  启发式是一种用于分类的规则,通常类似于“如果这件物品是红色的”或“如果Bob在家里”这样的条件语句,这些条件语句常伴随某项动作或决定,例如:如果某物“成分”属性中包含“砷”这一元素:则它的“毒药”属性为“True”。对于每个新的信息,都伴随着新的启发式和新的关系,随着新的启发式的建立,又可以对相关的名词产生新的理解。比如:启发式一:"puppies"(小狗)说明是幼崽(Babies);启发式二:幼崽(Babies)说明很年轻;通过以上两个启发式推断出:"puppies"都很年轻。启发式的难点在于,多数情况下,规则并不会如“If/Then”一样简单。类似于“有些人头发是金色的”这样的语句,就很难用启发式来表述。所以我们有了“认知论”(见下)。

4. 认识:认识论是本体构建和自定义启发式的结合,并在其中加入了概率特性,通过概率表示名词与任一属性产生关联的可能。比如,用这样本体结构:'人':'性别':'男':0.49,'女':0.51,'种族':'亚裔':0.6,'非洲裔':0.14来表示对一个人性别和种族的判断。同时,概率能帮助识别一些具有多重含义的“混合型”词组,比如像“梅子像是打了激素的葡萄干”这句话中,因为“打了激素”这一词组很大可能地意味着“体积较大”,从而得出,这句话很大可能的意思是“梅子体积比葡萄干大”。

认识论的实现相比本体构建要困难得多。首先,它需要更多的数据;并且,由于其结构的复杂性,很难在确定规则后快速地建立起数据库来实现查找;还有,规则的确定通常基于某项事物在一段文字中被提及的频率,但文字却未必能真实地反映现实情况。

认识论与Asimov提出的“张量流”理论很相似。Google开发的同名TensorFlow系统并不是真正基于张量,而认识论是基于张量的。

  

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号