利用Tensorlow及其API为例来进行讨论,理解深度学习背后的魅力.doc
《利用Tensorlow及其API为例来进行讨论,理解深度学习背后的魅力.doc》由会员分享,可在线阅读,更多相关《利用Tensorlow及其API为例来进行讨论,理解深度学习背后的魅力.doc(5页珍藏版)》请在三一文库上搜索。
1、利用Tensorlow及其API为例来进行讨论,理解深度学习背后的魅力深度学习是一种处理和解读数据的方式,我们需要更深入的理解机器的运作才能更更好的控制和应用它为我们服务,接下来将要详细讨论深度学习得以实现如此优异表现的原因。为了简化讨论的过程,本文将利用Tensorlow及其API为例来进行讨论,从认知论的程度来理解深度学习背后的魅力。神经网络表现出的缩减效应对于深度学习的理解有各种不同的观点和层次顺序。我们首先用下面的网络结构作为例子:上图描述了一张图像经过一个深度学习网络的传播过程,我们在这里先进行一个小小的变换,将最左端看做是底部,而最右端看做是整个网络的顶部。这样我们就可以利用自底向
2、上的方法来对网络进行分析。上图中我们会看到随着信息向网络顶层传播,数据和复杂度在明显的下降。我们能不能假设这一过程是一种认知的浓缩呢?它是不是将不重要的部分剔除了,如何做到的呢?深度学习模型通过什么方式来判断哪些是显著的特征而哪些不是呢?对于纯粹的数据缩减来说主要是通过压缩或者随机删除的机制来实现的,但这对于深度学习来说却不是一个好办法。我们需要的是提出那些不显著的部分并在最后留下那些显著的数据和特征。但很多人对于基于重要性的缩减方法没有正确的认识并利用了无损压缩算法来进行评估。下面让我们用一个实际的例子来自底向上的理解深度学习网络到底进行了什么样的工作。假设我们要建立一个人脸检测系统,我们先
3、构建一个可以理解图像的神经网络并利用很多带标签的照片对它进行监督训练并将网络植入到系统中去,当我们再输入一张包含人脸的照片时系统就能迅速的找出图像中人脸的位置。就这一过程而言,输入数据是RGB彩色照片上的像素值,并在网络中进行了各种计算随后输出结果。我们可以看到网络的输出要比输入少很多,这意味着在处理过程中很多信息被丢弃了。从输入或者低级的抽象进行一定程度的缩减并传递到下一层进行操作。图片在神经网络中传输的故事里,前面阶段神经网络只能操作一些临近的像素并检测出简单的直线和曲线信息、以及不同的颜色。所以他们描述的主要是基于线条和颜色的基本信息。而上面的层则会进行更为复杂的处理,他们可能会“看到”
4、某些边缘与先前看到过的边缘很类似属于某一类物体。它们也许会说“这和之前看到的草很类似呀”。甚至没有标签信号的时候,这种高层次的信号也能形成某一种表达向前传播。在更上一层,神经网络可能会看到更多的草“哇,这么多草叶子,这里一定是草地了”,那么草地的信号会被继续向前传播;最后顶部的操作会综合这些结果“我们是人脸检测器,并不关心草地,忘了它们吧”。最后将不显著的草地的信息丢弃。将不是人脸的数据剔除后剩下的是什么呢?在你知道网络的表达是什么之前是不能丢弃其中的信息的。具体来说就像上面的例子中低层级的草叶检测器不能丢弃草一样,因为它们还不知道更高级的显著性特征草地-不是草地/人脸-不是人脸的线索。我们能
5、做的仅仅是在理解和抽象的层面上进行操作。每一个层级接收低下传上来的描述、丢弃它认为不相关的部分并将它们自己对于信息的表示向上传递,直到到达真正知道网络所要搜寻的目标的层。而这也是深度学习之所以深的原因。这并不是一个新颖的观点,早在1959年Oliver Selfridge就提出了类似的观点称为喧嚣,但长期被人工智能界忽略了,但它却提前60年预言了信息自下向上传递的层状架构,这就是今天广泛使用的深度神经网络。那么在具体的程序中是否有支持缩减的操作呢?让我们来看看tensorflow中的算子。我们先来看看池化操作,tensorflow中有超过50个池化操作算子,下图是2*2的最大池化操作:它将邻近
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 利用 Tensorlow 及其 API 进行 讨论 理解 深度 学习 背后 魅力
链接地址:https://www.31doc.com/p-3394496.html