当前位置:

OFweek人工智能网

机器学习

正文

一文读懂深度学习中的热点问题

导读: 2012年多伦多大学的研究人员首次使用深度学习在ImageNet大规模视觉识别挑战赛中获胜,深度学习渐渐被人们所熟知。而对于AI行业的从业者来说,深度学习下的计算机视觉,是使计算机能够理解图像背景的一门重要学科,也是人工智能中最具挑战性的领域之一。

 2012年多伦多大学的研究人员首次使用深度学习在ImageNet大规模视觉识别挑战赛中获胜,深度学习渐渐被人们所熟知。而对于AI行业的从业者来说,深度学习下的计算机视觉,是使计算机能够理解图像背景的一门重要学科,也是人工智能中最具挑战性的领域之一。目前,国内计算机视觉飞速发展,有了旷视科技face++、商汤科技、极链科技Video++等优质企业。那么,深度学习究竟是什么呢?本文将详细的解释当前深度学习下的两个热点问题。  深度学习这一想法本身并不新颖,早在1959年就被讨论过。当时受限于算法、硬件水平及数据量的限制,没有得到很好的发展。近60年,随着硬件水平的不断提升,数据量的爆炸式增长,深度学习再一次焕发出勃勃生机,并展现出优异的性能。  而计算机视觉领域中关键的深度学习,也成为了被关注的焦点。人工神经网络的概念是深度学习算法的主要组成部分,已经存在数十年,第一个神经网络可以追溯到20世纪50年代。由于数十年的研究以及数据和计算资源的可用性,深度学习的概念已经从实验室走出并进入实际领域。  那么深度学习和机器学习是一回事么?   深度学习是一个非常复杂的计算机科学领域,它涉及许多高级数学概念。但在过去几年中,学术界已经创建了大量的工具和库来抽象出潜在的复杂性,并使你能够无须解决过多的数学问题来开发深度学习模型。  深度学习和机器学习并不相同,深度学习是机器学习的一个子集。通常,机器学习适用于基于训练数据模型和行为规则的所有技术,ML技术已经投入生产使用了很长时间。在深度学习之前,科学家们必须在编写“功能”或模块方面投入大量精力,这些功能可以执行模型想要执行的任务的一小部分。例如,如果你想要创建一个可以检测物体的AI模型,你将编写一段程序来检测这个物体的特征,而且必须使这些程序足够强大,以便从不同角度和不同光照条件下检测这些特征,并告诉不同的物体之间的差异。经过以上这些操作后,你才可以在这些基础上进行基础学习。  深度学习是科学的吗?  尽管深度学习过程可以用数学符号描述,但这个过程本身是不科学的。深度学习就像一个黑匣子,我们无法理解这个系统是如何理解处理特征并完成相关任务的。  以卷积操作举例,正如TensorFlow手册中所说,卷积层发现相关性。许多草叶通常代表一个草坪,在TensorFlow中,系统会花费大量时间来发现这些相关性。一旦发现了某些相关性,这种关联会导致模型中某些权重的调整,从而使得特征提取正确。但从本质上来说,所有的相关性开始时对于模型来说都被遗忘了,必须在每次前向传播和梯度下降的过程中来重新发现。这种系统实际上是从错误中吸取教训,即模型输出与理想输出之间的误差。  前向和反向传播过程对图像理解有一定的意义,有些人在文本上使用了相同的算法。幸运的是,针对于文本任务而言,有更加高效的算法。首先,我们可以使用大脑突触或编程语言中的常规指针或对象引用显式地表示所发现的相关性,神经元与神经元之间有关联。  所以说,无论是深度学习算法,还是有机学习,都不能说是科学的。它们在缺乏证据并信任相关性的前提下得出结论,而不坚持可证明的因果关系。大多数深层神经网络编程很难得到理想结果并存在一定的误差,只能通过从实验结果中发现线索来改进模型。增加网络层数不总是有效的,对于大多数深度神经网络从业者而言,根据实验结果来调整改进网络就是他们的日常工作。没有先验模型,就没有先验估计。任何深层神经网络可靠性和正确性的最佳估计,都是经过大量的实验得到。

2012年多伦多大学的研究人员首次使用深度学习在ImageNet大规模视觉识别挑战赛中获胜,深度学习渐渐被人们所熟知。而对于AI行业的从业者来说,深度学习下的计算机视觉,是使计算机能够理解图像背景的一门重要学科,也是人工智能中最具挑战性的领域之一。目前,国内计算机视觉飞速发展,有了旷视科技face++、商汤科技、极链科技Video++等优质企业。那么,深度学习究竟是什么呢?本文将详细的解释当前深度学习下的两个热点问题。

深度学习这一想法本身并不新颖,早在1959年就被讨论过。当时受限于算法、硬件水平及数据量的限制,没有得到很好的发展。近60年,随着硬件水平的不断提升,数据量的爆炸式增长,深度学习再一次焕发出勃勃生机,并展现出优异的性能。

而计算机视觉领域中关键的深度学习,也成为了被关注的焦点。人工神经网络的概念是深度学习算法的主要组成部分,已经存在数十年,第一个神经网络可以追溯到20世纪50年代。由于数十年的研究以及数据和计算资源的可用性,深度学习的概念已经从实验室走出并进入实际领域。

那么深度学习和机器学习是一回事么?

 2012年多伦多大学的研究人员首次使用深度学习在ImageNet大规模视觉识别挑战赛中获胜,深度学习渐渐被人们所熟知。而对于AI行业的从业者来说,深度学习下的计算机视觉,是使计算机能够理解图像背景的一门重要学科,也是人工智能中最具挑战性的领域之一。目前,国内计算机视觉飞速发展,有了旷视科技face++、商汤科技、极链科技Video++等优质企业。那么,深度学习究竟是什么呢?本文将详细的解释当前深度学习下的两个热点问题。  深度学习这一想法本身并不新颖,早在1959年就被讨论过。当时受限于算法、硬件水平及数据量的限制,没有得到很好的发展。近60年,随着硬件水平的不断提升,数据量的爆炸式增长,深度学习再一次焕发出勃勃生机,并展现出优异的性能。  而计算机视觉领域中关键的深度学习,也成为了被关注的焦点。人工神经网络的概念是深度学习算法的主要组成部分,已经存在数十年,第一个神经网络可以追溯到20世纪50年代。由于数十年的研究以及数据和计算资源的可用性,深度学习的概念已经从实验室走出并进入实际领域。  那么深度学习和机器学习是一回事么?   深度学习是一个非常复杂的计算机科学领域,它涉及许多高级数学概念。但在过去几年中,学术界已经创建了大量的工具和库来抽象出潜在的复杂性,并使你能够无须解决过多的数学问题来开发深度学习模型。  深度学习和机器学习并不相同,深度学习是机器学习的一个子集。通常,机器学习适用于基于训练数据模型和行为规则的所有技术,ML技术已经投入生产使用了很长时间。在深度学习之前,科学家们必须在编写“功能”或模块方面投入大量精力,这些功能可以执行模型想要执行的任务的一小部分。例如,如果你想要创建一个可以检测物体的AI模型,你将编写一段程序来检测这个物体的特征,而且必须使这些程序足够强大,以便从不同角度和不同光照条件下检测这些特征,并告诉不同的物体之间的差异。经过以上这些操作后,你才可以在这些基础上进行基础学习。  深度学习是科学的吗?  尽管深度学习过程可以用数学符号描述,但这个过程本身是不科学的。深度学习就像一个黑匣子,我们无法理解这个系统是如何理解处理特征并完成相关任务的。  以卷积操作举例,正如TensorFlow手册中所说,卷积层发现相关性。许多草叶通常代表一个草坪,在TensorFlow中,系统会花费大量时间来发现这些相关性。一旦发现了某些相关性,这种关联会导致模型中某些权重的调整,从而使得特征提取正确。但从本质上来说,所有的相关性开始时对于模型来说都被遗忘了,必须在每次前向传播和梯度下降的过程中来重新发现。这种系统实际上是从错误中吸取教训,即模型输出与理想输出之间的误差。  前向和反向传播过程对图像理解有一定的意义,有些人在文本上使用了相同的算法。幸运的是,针对于文本任务而言,有更加高效的算法。首先,我们可以使用大脑突触或编程语言中的常规指针或对象引用显式地表示所发现的相关性,神经元与神经元之间有关联。  所以说,无论是深度学习算法,还是有机学习,都不能说是科学的。它们在缺乏证据并信任相关性的前提下得出结论,而不坚持可证明的因果关系。大多数深层神经网络编程很难得到理想结果并存在一定的误差,只能通过从实验结果中发现线索来改进模型。增加网络层数不总是有效的,对于大多数深度神经网络从业者而言,根据实验结果来调整改进网络就是他们的日常工作。没有先验模型,就没有先验估计。任何深层神经网络可靠性和正确性的最佳估计,都是经过大量的实验得到。

深度学习是一个非常复杂的计算机科学领域,它涉及许多高级数学概念。但在过去几年中,学术界已经创建了大量的工具和库来抽象出潜在的复杂性,并使你能够无须解决过多的数学问题来开发深度学习模型。

深度学习和机器学习并不相同,深度学习是机器学习的一个子集。通常,机器学习适用于基于训练数据模型和行为规则的所有技术,ML技术已经投入生产使用了很长时间。在深度学习之前,科学家们必须在编写“功能”或模块方面投入大量精力,这些功能可以执行模型想要执行的任务的一小部分。例如,如果你想要创建一个可以检测物体的AI模型,你将编写一段程序来检测这个物体的特征,而且必须使这些程序足够强大,以便从不同角度和不同光照条件下检测这些特征,并告诉不同的物体之间的差异。经过以上这些操作后,你才可以在这些基础上进行基础学习。

深度学习是科学的吗?

尽管深度学习过程可以用数学符号描述,但这个过程本身是不科学的。深度学习就像一个黑匣子,我们无法理解这个系统是如何理解处理特征并完成相关任务的。

以卷积操作举例,正如TensorFlow手册中所说,卷积层发现相关性。许多草叶通常代表一个草坪,在TensorFlow中,系统会花费大量时间来发现这些相关性。一旦发现了某些相关性,这种关联会导致模型中某些权重的调整,从而使得特征提取正确。但从本质上来说,所有的相关性开始时对于模型来说都被遗忘了,必须在每次前向传播和梯度下降的过程中来重新发现。这种系统实际上是从错误中吸取教训,即模型输出与理想输出之间的误差。

前向和反向传播过程对图像理解有一定的意义,有些人在文本上使用了相同的算法。幸运的是,针对于文本任务而言,有更加高效的算法。首先,我们可以使用大脑突触或编程语言中的常规指针或对象引用显式地表示所发现的相关性,神经元与神经元之间有关联。

所以说,无论是深度学习算法,还是有机学习,都不能说是科学的。它们在缺乏证据并信任相关性的前提下得出结论,而不坚持可证明的因果关系。大多数深层神经网络编程很难得到理想结果并存在一定的误差,只能通过从实验结果中发现线索来改进模型。增加网络层数不总是有效的,对于大多数深度神经网络从业者而言,根据实验结果来调整改进网络就是他们的日常工作。没有先验模型,就没有先验估计。任何深层神经网络可靠性和正确性的最佳估计,都是经过大量的实验得到。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号