非线性降维算法及其应用的研究计算机科学与技术专业毕业论文.doc
《非线性降维算法及其应用的研究计算机科学与技术专业毕业论文.doc》由会员分享,可在线阅读,更多相关《非线性降维算法及其应用的研究计算机科学与技术专业毕业论文.doc(29页珍藏版)》请在三一文库上搜索。
1、2021届学生毕业设计(论文)材料四 序号0506401-28学 生 毕 业 设 计论 文课题名称非线性降维算法及其应用的研究姓 名学 号院、系、部计算机科学系专 业计算机科学与技术指导教师2021 年 5 月 30 日湖南城市学院本科毕业设计论文诚信声明本人郑重声明:所呈交的本科毕业设计论文,是本人在指导老师的指导下,独立进行研究工作所取得的成果,成果不存在知识产权争议,除文中已经注明引用的内容外,本设计论文不含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究做出重要奉献的个人和集体均已在文中以明确方式标明。本人完全意识到本声明的法律结果由本人承当。 本科毕业设计论文作者签名: 二
2、 年 月 日目 录摘 要 II关键词II AbstractIII Key wordsIII 前言11.概述21.1 降维算法的分类21.2 线性降维方法21.2.1 PCA线性算法31.2.2 LDA线性算法31.2.3 MDA线性算法31.3 非线性降维方法42.数学原理52.1 LLE算法52.1.1 LLE算法原理52.2 ISOMAP算法62.2.1 MDS算法原理72.2.2 ISOMAP算法原理82.3 SVM算法92.4 K阶邻近算法103.LLE和ISOMAP算法的效率与比照113.1 LLE算法的降维效果与效率113.1.1 瑞士卷(Swiss Roll)数据集113.1.2
3、 双峰(twin peaks)数据集123.2 ISOMAP算法的降维效果与效率143.2.1 瑞士卷(Swiss Roll)数据集143.2.3 ISOMAP降维人脸数据143.3 LLE和ISOMAP算法的比拟164.非线性降维算法的应用174.1 基于二类分类的脸部识别174.2 基于多类分类的脸部识别184.2.1 LLE和PCA算法的人脸识别比拟184.2.2 不同条件下LLE算法的人脸识别比拟194.2.3 LLE算法在不同人脸数据库下的人脸识别比拟20结 语22参考文献23致 谢24非线性降维算法及其应用的研究摘 要:非线性降维算法作为当前流行的机器学习算法,是研究人员的研究热点
4、局部线性嵌套和等距流形映射是两个根本非线性降维算法,本文探讨了这两种算法的优点和缺乏,比照测试这两个算法在不同参数下的执行效率。分析和总结这两个算法的适用特点和范围。选择局部线性嵌套算法和主成分分析算法,通过将这两个算法应用于人脸识别中,总结人脸识别的识别率。比拟两者的优劣与差异,加深对于非线性降维算法的认识和了解,期望为其他科学应用提供参考。关键词:流形学习;非线性降维算法;局部线性嵌套;等距流形映射;人脸识别Research of Nonlinear Dimensionality Reduction and Its ApplicationsJING Wei(2021 Year Stude
5、nt of The Major of Computer Science and Technology,Department of Computer Science,Hunan City University,Yiyang,Hunan 413000,China)Abstract: The algorithm of nonlinear dimensionality reduction is popular in the manifold learning,Its one of focus in the research during the researchers.Locally linear e
6、mbedding and Isometric mapping are the basic algorithms of nonlinear dimensionality reduction.This paper discusses both the strengths and weaknesses of algorithms and comparing the two algorithms under different parameters in the implementation of efficiency.The paper also analyses and summarizes th
7、e application of these two characteristics of algorithms.the algorithms of locally linear embedding and principal components analysis are chosed to apply to face recognition,the results of the recognition rate of face recognition are summed up.the understanding to algorithm of nonlinear dimensionali
8、ty reduction is enhanced. and the study is expected to provide reference for other research and applications.Key words: manifold learning;nonlinear dimensionality reduction;locally linearembedding;isometric mapping;face recognition前言在现代社会中,随着科技的日益进步,科研人员面对的数据越来越复杂庞大。在信息处理领域里,他们面对着大量的多维数据,例如在数据压缩、模式识
9、别、全球气候模型和人类基因分布等方面。如果不采用优良的算法有效的处理这些数据,科研人员将会花费大量时间处理数据,有些时间甚至是不可接受的,如几年到几十年,就算得到结果,也已经失去时效。在日常生活中,我们人类的大脑同样需要处理大量的高维输入信息,人类身体有大约3万个听觉神经纤维输入和100万个视觉神经输入,每时每刻都在接受着外界的信息。如眼睛看到一个人,通过检查大脑记忆,就可以判断是谁,并且非常迅速。这些视觉图像就是高位数据。大脑是如何处理这些庞大的高维数据,任然是未解之谜。人类是怎样从这些纷杂的输入中提取出有用的信息(例如怎样认出一张脸) ,然后又怎样根据这些信息进行判断(是我认识的人吗?)
10、到目前为止这些课题仍在研究1。在科学研究中,发现隐藏在高维数据观测值中的有价值的低维结构性信息是一个必须解决的问题,这个过程通常称为维数约简。维数约简是进行有效计算的重要前提和路径。因此维数降维问题在众多领域受到了科研人员的广泛关注,并且随着高维海量数据(如:Web 数据、图像和视频等数据)的不断增加,高维数据的降维问题正日益成为新的研究热点2。1. 概述随着信息时代的到来,数据集增长更快、数据维度更高、非结构化性更突出。技术的落后,造成了信息资源的巨大浪费。我们被信息淹没,却又缺乏知识。如何在保持数据信息足够完整的意义下从海量数据集中提取出有效而又合理的约简数据,满足存储需求和人的感知需要
11、是亟需解决的问题3。在高维数据中进行各种处理需要样本的数量会成指数增加,样本间距离的价值也越来越小,这样就面临维数灾难问题。所幸的是,对于实际中很多问题来说,大局部高维观测数据变量可以用少量几个影响因素来表示,这说明其中包含着大量冗余信息,各成分之间通常也有着较强的相关性,这种现象几何学上表现为数据分布在低维流形上,或者是在低维流形附近。因此,要有效揭示高维观测数据潜在的结构,需要学习和发现嵌入在高维空间中的低维特性。即进行维数约简。也就需要设计高效便捷的降维算法对高维数据进行约简,获得低维的有效数据。从而降维算法的设计就显得举足轻重。1.1 降维算法的分类在研究维数约简的方法过程中,主要的方
12、法是选取高维数据中尽可能多的,有用的特征,根据一定方法获取最突出的特征,即进行特征的约简。特征约简分为两种,一是线性的,另一种是非线性的。下面分别介绍这两种方法。1.2 线性降维方法线性降维方法是通过线性的特征组合来降维的,本质上是把数据投影到低维的线性子空间。线性方法相对而言计算比拟简单。三种经典且广泛使用的线性变换的方法是主分量分析(Principal Components Analysis, PCA)、线性判别分析(Linear Discriminant Analysis,LDA)和多重判别分析(Multiple Discriminant Analysis,MDA)等线性算法。这三种算法
13、能够得到最优子空间,已经被证明是非常有效的方法。然而这些方法假设数据结构是线性的,是建立在全局线性结构根底之上3。1.2.1 PCA线性算法PCA的关键思想来源于K-L变换,其主要目标是通过线性变换寻找一组最优的单位正交向量基,并用它们的线性组合来重构原样本,以使重建构后的样本和原样本的误差最小。即PCA的目的就是寻找能够表示采样数据的最好的投影子空间。求解过程是对样本的散布矩阵进行特征值分解,所求子空间为过样本均值,以最大特征值所对应的特征向量为方向的子空间2。如下图。 图1.1 PCA的求解 图1.2 PCA对于椭圆的学习如下图,PCA对于椭球状分布的样本集有很好的效果,学习所得的主方向就
14、是椭球的主轴方向。尽管PCA在许多模式识别应用中取得了较好的效果,然而PCA是一种非监督的算法,能找到很好地代表所有样本的方向,但这个方向对于分类未必是最有利的。1.2.2 LDA线性算法相对于非监督的PCA方法而言,LDA是一种有监督的降维方法,它是以样本的可区分性为主要目标,通过寻找一组线性变换以到达类内散度最小且类间散度最大的目的,如下图。在模式识别应用中,基于LDA 的算法通常要优于基于PCA的算法。但是LDA的缺乏之处在于存在“奇异值问题,既是:当数据样本来自高维空间时,样本的维数要远大于样本数,从而导致LDA 中散度矩阵的奇异性2。1.2.3 MDA线性算法MDA把LDA推广到多类
15、的情况.对于c-类问题, MDA把样本投影到 c-1 维 图1.3 LDA的思想寻找最能把两类样本分开的投影直线子空间.目标和解法与LDA相似,只是类内散布矩阵的定义更为复杂,求解的广义特征值问题也更为复杂4,如下图。图1.4 MDA算法1.3 非线性降维方法由于线性降维方法的设计并不针对非线性数据,并且现实世界的数据的有用特征并不是特征的线性组合,因此对于非线性数据的处理,线性方法就不再适用。取而代之是非线性方法,非线性方法的研究主要是基于:许多高维采样数据都是由少数几个隐含变量所决定的,如人脸采样由光线亮度,人离相机的距离, 人的头部姿势,人的脸部肌肉等因素决定;从认知心理学的角度,心理学
16、家认为人的认知过程是基于认知流形和拓扑连续性的4。故非线性方法是可行的。近年来,非线性降维算法的研究与应用取得了丰硕的成果,著名的非线性降维算法有;局部线形嵌套(Locally Linear Embedding,LLE)、等距流形映射(Isomeitric Mapping, ISOMAP)、拉普拉斯特征映射(Laplacian eigenmaps)、局部保持投影(Local Preserving Projection,LPP)等。这些方法均能保持原始数据的拓扑结构不变,并能较好解决数据处理中的“维数灾难问题。2. 数学原理在毕业设计过程中,了解和学习过的算法包括LLE和ISOMAP非线性降维算
17、法,分类算法有支持向量机(Support Vector Machine,SVM)算法和K阶最近邻(K-Nearest Neighbors,KNN)算法。接下来分别介绍这些算法思想及其数学原理。2.1 LLE算法LLE算法的主要思想是把输入的数据点以某种方式映射到一个唯一的低维全局坐标系统中,并使得这种映射能够保存相邻数据点之间的某些关系。LLE算法期望每个数据点和它的相邻数据点都能位于某个流形的局部线性块上或其附近。事实上,通过将每个数据点都用它的相邻点的线性组合来估计,就可以捕获到该局部线性块的内在几何特性。这些组合系数对于平移、旋转和缩放三种操作具有不变性。这样,LLE算法就找到了一个低维
18、数据点的集合,使得该集合中的每个数据点能够由其相邻的数据点使用上述原始高维空间中得到的组合系数进行线性重构3。2.1.1 LLE算法原理假设给定数据集合,包括个实值向量,向量的维数为,且这些数据采样于某个潜在的光滑流形。采样数据点要求足够多,并且每个采样数据点及其邻点都落在该潜在流形的一个局部线性块上或该块附近。用每个数据点的邻点集重构该点会得到一组线性系数,然后用这组线性系数就可以刻画流形的局部线性几何性质。最简单的方法是采用欧氏距离来确定每个数据点的个邻点。总的重构误差由如下的代价函数确定 (2.1)式中,权值矩阵为一个维的对称矩阵,权值表示第个数据点对第个数据点的重构所具有的奉献。要求出
19、权值,需要最小化具有如下两个约束条件的代价函数:1. 每个数据点只能由它的个邻点重构,即假设第个数据点不是第个数据点的邻点,那么;2. 权值矩阵各列的元素之和为1,即。具有这两个约束的最优权值可以通过解一个最小二乘问题得到。由上面的约束条件1,重构代价函数可以写为: (2.2)然后,LLE算法构建邻域保存映射把高维观测向量映射成某流形上的低维向量。这一映射过程首先选择维坐标,然后保持不变,通过优化使下面的嵌入代价函数目标值到达最小7 (2.3)算法步骤如下6:1. 使用近邻方法为每一个数据点分配近邻;2. 计算根据近邻线性重构的权值,使得;3. 通过求稀疏对称阵的最小特征值,低维嵌入是 M 的
20、最小的第到第个特征向量。2.2 ISOMAP算法Isomap算法是一种基于全局几何结构的非线性降维方法,其重要思想是应用经典的MDS算法,把数据点从原始高维空间映射到低维空间的坐标系上。Isomap算法的关键在于输入给MDS的数据点的距离不再是欧氏距离,而是流形上的测地线距离。所谓测地线距离,通俗的讲,就是流形上的两点沿流形曲面的最短距离。流形的形状只能从作为样本的输入数据中寻找线索,但并不能准确的得到。这里的短距离是指两个邻点之间的距离。最后,算法将测地线距离作为MDS算法的输入去寻找一个具有类似成对距离的低维数据点的集合。由于测地线距离能够表达流形的真正的低维几何性质,所以等距流形映射算法
21、能够发现隐藏在复杂观测样本之中的非线性自由度。因此,下面我们先简单介绍一下MDS算法2。2.2.1 MDS算法原理MDS算法在降维过程中保存的是数据点之间的欧氏距离。假设有一个数据点的集合,我们可以计算各个数据点两两之间的平方距离;而MDS算法解决的是上述问题的逆问题,它将从这一系列的平方距离出发寻找符合条件的一个数据点的集合;而且新的数据点的坐标将有很小的维数。注意到输出映射将具有任意的位置和方向,因此下面的表达中,输出映射的重心在原点,换言之,为了不失一般性,假设样本点被中心化,即。所以,给定一个具有零均值的维的数据矩阵,它由个维列向量组成,可以从两列之差的内积计算出一系列的平方距离(比方
22、点和点的距离)为 (2.4)设维矩阵为所有数据点之间内积所组成的内积矩阵,那么有 (2.5) (2.6)对于MDS,输入数据可能以矩阵或维平方距离矩阵的形式给出。由开始的假设,有: (2.7)既然已经由得到了,下面一步就是寻找的特征值和对应的特征向量。记的特征值分解为 (2.8)其中为正交阵以及特征值按降序排列,那么 (2.9)为降维的结果,其中为最大的个特征值所对应的特征向量所构成的矩阵。总结MDS算法的步骤:1. 给定数据点两两之间的距离矩阵或者从输入数据中计算出;2. 由双中心化后的距离矩阵得到内积矩阵;3. 计算出内积矩阵的特征值和对应的特征向量;4. 选取内积矩阵的个主分量,将其分解
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 非线性 算法 及其 应用 研究 计算机科学 技术 专业 毕业论文
