深度学习:从感知器到现代人工智能的核心技术
深度学习:从感知器到现代人工智能的核心技术
深度学习作为现代人工智能的核心技术,其发展历程充满曲折与突破。从20世纪50年代的感知器到21世纪的深度神经网络,这项技术经历了多次起伏。本文将为您详细介绍深度学习的历史演变及其在当今科技巨头中的应用现状。
深度学习根源于传统的“神经网络”,“神经网络”可以追溯到20世纪五十年代后期。当时,弗兰克·罗森布拉特试图建立一种类似机械大脑的感知器,可以“感知,识别,记忆,像人的思维做出响应的机器”。在一定范围内这个系统能够识别一些基本的形状,如三角形和正方形。人们对它的潜力寄予厚望,甚至“New Yorker”宣称这种“这个卓越的机器能够思考。”
但是测验最终以失败告终,一本写于1969年由马文·明斯基和他的合作者西摩帕尔特一本书指出,罗森布拉特设计的原系统是非常有限制的,从字面上盲目进行一些简单的逻辑功能如“异或”(比如说你可以拥有蛋糕或馅饼,但不能同时兼有)。众所周知,“神经网络”的魅力很快消失了。
然而,在上世纪八十年代中期,当卡内基-梅隆大学的年轻教授杰夫·欣顿帮助构建更复杂的虚拟神经元网络,可以规避一些明斯基指出的难点,罗森布拉特的又一个想法再度出现。韩丁引入一个“隐藏层”的概念,“隐藏层”神经元允许新一代网络有更复杂的学习功能(原始感知器无法处理的类似的异或功能)。然而新的模型也有严重的问题。训练时间长,学习缓慢,效率低下,就像史蒂文·平克和我指出的,不能像孩子一样掌握一些基本的东西,比如学习规则动词的过去式。由19世纪九十年代晚期,神经网络又开始失宠。
然而,欣顿坚持不懈,在2006年做出了重大改进,提出深度学习,这个概念延续了Yann LeCu早期提出的重要概念,这个技术仍然谷歌,微软,和其他地方有所应用。实际上,深度学习(Deep Learning)就是现代人工智能的核心技术。谷歌、微软与百度是现代人工智能领域的“三巨头”。它们拥有海量数据以及DNN技术,比如:2012年11月,微软(中国)在天津的一次会议上公开演示了一个全自动的“同声传译”系统,讲演者用英文演讲,后台的计算机一气呵成,完成语音识别、英中机器翻译,以及中文语音合成,效果非常流畅。微软使用的就是深度神经网络技术。
机器学习和人工神经网络
在深入深度学习的实现过程之前,先介绍机器学习和人工神经网络的概念。
机器学习的一个非常通常的任务是这样的:给出了一个目标的信息,从而能够知道它属于哪个种类。在深度学习的过程中,程序想要决定在目前游戏状态下如何进行下一步动作。机器学习算法从例子中进行学习:给出了许多的目标例子和它们的种类,学习算法从中找出了那些能够鉴定某个种类的目标特征。学习算法会产生一个模型,能够在训练集中最小化错误分类率。这个模型之后会被用来预测那个未知目标的种类。
人工神经网络ANN(Artificial Neural Networks)是机器学习的一个算法。它是由人类的大脑结构产生的灵感。这个网络由许多节点组成,如同大脑由神经元组成,并且互相之间联系在一起,如同神经元之间通过神经突触和神经树联系在一起。对于每个神经元,都会对其应该传递的信号的情况做特殊规定。通过改变这些连接的强弱,可以使得这些网络计算更加快速。现在神经网络的结构通常由如下部分组成:
- 神经的输入层(获得目标的描述)
- 隐藏层(主要部分,在这些层中学习)
- 输出层(对于每个种类都一个神经节点,分数最高的一个节点就是预测的种类)
在学习过程结束之后,新的物体就能够送入这个网络,并且能够在输出层看到每个种类的分数。