信息熵在图像处理特别是图像分割和图像配准中的应用——信息与计算科学毕业论文.doc
《信息熵在图像处理特别是图像分割和图像配准中的应用——信息与计算科学毕业论文.doc》由会员分享,可在线阅读,更多相关《信息熵在图像处理特别是图像分割和图像配准中的应用——信息与计算科学毕业论文.doc(41页珍藏版)》请在三一文库上搜索。
1、河北工程大学毕业设计(论文) 1 摘要摘要 信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统 计等学科相结合而逐步发展起来的一门新兴交叉学科。而熵是信息论中事件出现概率 的不确定性的量度,能有效反映事件包含的信息。随着科学技术,特别是信息技术的 迅猛发展,信息理论在通信领域中发挥了越来越重要的作用,由于信息理论解决问题 的思路和方法独特、新颖和有效,信息论已渗透到其他科学领域。随着计算机技术和 数学理论的不断发展,人工智能、神经网络、遗传算法、模糊理论的不断完善,信息 理论的应用越来越广泛。在图像处理研究中,信息熵也越来越受到关注。为了寻找快 速有效的图像处理方法,信息理
2、论越来越多地渗透到图像处理技术中。本文通过进一 步探讨概论率中熵的概念,分析其在图像处理中的应用,通过概念的分析理解,详细 讨论其在图像处理的各个方面:如图像分割、图像配准、人脸识别,特征检测等的应 用。 本文介绍了信息熵在图像处理中的应用,总结了一些基于熵的基本概念,互信息 的定义。并给出了信息熵在图像处理特别是图像分割和图像配准中的应用,最后实现 了信息熵在图像配准中的方法。 关键词:关键词:信息熵,互信息,图像分割,图像配准 河北工程大学毕业设计(论文) 2 Abstract Information theory is a new interdisciplinary subject de
3、veloped in people long-term communication practice, combining with communication technology, theory of probability, stochastic processes, and mathematical statistics. Entropy is a measure of the uncertainty the probability of the occurrence of the event in the information theory, it can effectively
4、reflect the information event contains. With the development of science and technology, especially the rapid development of information technology, information theory has played a more and more important role in the communication field, because the ideas and methods to solve the problem of informati
5、on theory is unique, novel and effective, information theory has penetrated into other areas of science. With the development of computer technology and mathematical theory, continuous improvement of artificial intelligence, neural network, genetic algorithm, fuzzy theory, there are more and more ex
6、tensive applications of information theory. In the research of image processing, the information entropy has attracted more and more attention. In order to find the fast and effective image processing method, information theory is used more and more frequently in the image processing technology. In
7、this paper, through the further discussion on concept of entropy, analyzes its application in image processing, such as image segmentation, image registration, face recognition, feature detection etc. This paper introduces the application of information entropy in image processing, summarizes some b
8、asic concepts based on the definition of entropy, mutual information. And the information entropy of image processing especially for image segmentation and image registration. Finally realize the information entropy in image registration. Keywords: Information entropy, Mutual information, Image segm
9、entation, Image registration 河北工程大学毕业设计(论文) 3 目目 录录 摘 要1 ABSTRACT.2 目 录3 1 引言5 1.1 信息熵的概念 .5 1.2 信息熵的基本性质及证明 .6 1.2.1 单峰性.6 1.2.2 对称性.7 1.2.3 渐化性.7 1.2.4 展开性.7 1.2.5 确定性.8 2 基于熵的互信息理论9 2.1 互信息的概述.9 2.2 互信息的定义.9 2.3 熵与互信息的关系.9 3 信息熵在图像分割中的应用11 3.1 图像分割的基本概念11 3.1.1 图像分割的研究现状.11 3.1.2 图像分割的方法.11 3.2 基
10、于改进粒子群优化的模糊熵煤尘图像分割12 3.2.1 基本粒子群算法.12 3.2.2 改进粒子群优化算法.13 3.2.3 Morlet 变异13 3.2.4 改建粒子群优化的图像分割方法14 3.2.5 实验结果及分析.16 3.3 一种新信息熵的定义及其在图像分割中的应用.19 3.3.1 香农熵的概念及性质.19 3.3.2 一种信息熵的定义及证明.19 3.3.3 信息熵计算复杂性分析.21 3.3.4 二维信息熵阈值法.22 3.3.5 二维信息熵阈值法的复杂性分析.24 3.3.6 结论及分析25 4 信息熵在图像配准中的应用27 4.1 图像配准的基本概述 .27 4.2 基于
11、互信息的图像配准 .27 4.3 POWELL算法28 河北工程大学毕业设计(论文) 4 4.4 变换 .28 4.4.1 平移变换.29 4.4.2 旋转变换.30 4.5 基于互信息的图像配准的设计与实现 .31 4.5.1 总体设计思路和图像配准实现 31 4.5.2 直方图33 4.5.3 联合直方图.33 4.5.4 灰度级差值技术34 4.4.5 优化搜索办法级结论.35 5 结 语37 致 谢38 参考文献39 河北工程大学毕业设计(论文) 5 1 引言引言 1.1.信息熵的概念信息熵的概念 1948年,美国科学家香农(CEShannon)发表了一篇著名的论文通信的数学理 论。他
12、从研究通信系统传输的实质出发,对信息做了科学的定义,并进行了定性和 定量的描述。 他指出,信息是事物运动状态或存在方式的不确定性的描述。其通信系统的模型如 下所示: 信信 源源编编 码码信信 道道 信号信号 解解 码码信信 宿宿 干干 扰扰 噪噪 声声 图 1.1 信息的传播 信息的基本作用就是消除人们对事物的不确定性。信息熵是信息论中用于度量 信息量的一个概念。 假定是随机变量的集合,表示其概率密度,计算此X)(xP 随机变量的信息熵的公式是:)(xH x xpxpXH)(log)()( 表示一对随机变量的联合密度函数,他们的联合熵可以表示为:),(yxP),(yxH ),(log),(),
13、(YXpyxpYXH Yyx 信息熵描述的是信源的不确定性,是信源中所有目标的平均信息量。信息量是信息 论的中心概念,将熵作为一个随机事件的不确定性或信息量的量度,它奠定了现代信 息论的科学理论基础,如果一条信息是由个字符连成的字符串组成,并且每个字符n 有种可能,那么这条信息就有种不同的排列情况,那么可以用度量信息量,m n m n m 但这时的信息量随着消息的长度按指数增加,为了使信息量的度量值按线性增加,n Hartley 给出了取对数的信息量的定义: (1.1)mnmH n 22 loglog 由上式可以看出,信息量随着消息的可能性组合增多而增多,如果消息只有一m 种可能性时即事件为必
14、然事件时,那么消息中包含的信息量为零。因此可以01log2 看出,可能收到的不同消息越多,对收到哪条消息的不确定性就越大;相反,收到只有 一种可能性的消息,不确定性为零,Hartley 对消息的度量实际是对不确定性的度量。 Hartley 度量方法的不足之处是他所定义信息量是假定所有符号发生的概率相同, 但实际情况各符号并不一定都等概发生,为此,Shannon 用概率加权来衡量消息出现的 河北工程大学毕业设计(论文) 6 可能性,对 Hartley 的度量方法做出改进。 设某一随机过程中有 k 种可能的情况,每种情况发生的概率分别是, 1 P 2 P ,Shannon 给出了熵的如下定义: k
15、 P (1.2) ii i i pp p pH 22 log 1 log 当所有可能的事件均以相等的概率发生时,上式就成了 Hartley 定 义的熵,并且这 时熵取得最大值,即 (1.3) nn nnn mm mmm H 222 loglog 11 log 1 所以,Hartley 熵是,Shannon 熵的特殊情形,而 Shannon 更具有一般性。 Shannon 熵包含三种含义:第一种含义是度量信息量,事件发生概率与获得的信息 量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越 小,所以可用熵的大小来度量信息量,熵越大,信息量越大;第二是度量事件概率分布
16、的分散度,概率集中分布时熵值小,分散性越强,熵越大;三含义是度量事件发生的 不确定性,概率越大,事件的不确定性越小,熵越小。利用上面第三个含义,可以用 Shannon 熵,来度量图像包含的信息量,图像灰度值的概率分布是每灰度值出现的次数 除以图像中所有灰度值出现的总次数,此时图像的信息量可依据这个概率分布来计算, 一幅图像中不同的灰度值较少,各灰度值出现的概率较高,则对应的灰度值较低,意 味着这幅图像含有的信息量很少。反之,如果一幅图像中含有很多不同的灰度值,且 各灰度值发生的概率又基本一致,则它的熵值会很高,那么这幅图像包含的信息量很 大。 1.2 信息熵的基本性质及证明信息熵的基本性质及证
17、明 1.2.1单峰性单峰性 信息熵的单峰性可表述为:先考察由、两个事件构成的概率系统,其产生 1 X 2 X 的概率分别为和则该系统的信息PP-1).1 (log)1 (log( 22 PPPPH 通过求极限 不难证明:0loglim 2 0 xx x (1) 当时,这是一种产生的概率为0,0P. 0)01 (log)01 (log0( 22 H 1 X 产生的概率为1 的确定系统。 2 X (2) 当时这是一种产生的概率为1,1P . 0 )11 (log) 11 (1log1 ( 22 H 1 X 产生的概率为0 的确定系统。 2 X (3) 对函数可以通过求导数的方式寻找其极值).1 (
18、log)1 (log( 22 PPPPH 河北工程大学毕业设计(论文) 7 点。该函数的一阶导数为令则有,求得. )1 ( log2 P P dP dH 0 dP dH P P)1 ( log2 0 为该函数的驻点。因为二阶导数 当时,恒 2 1 P, 2ln)1 ( 1 2 2 PPdP Hd 10 P 2 2 dP Hd 小于0 , 所以当时函数有极大值。这说明当、两事件产生的概率相同时, 2 1 P 1 X 2 X 具有最大值,这是一种不确定性最大的不确定系统。H (4) 若概率系统中有个事件,当每一事件产生的概率相同(均为)时,则系nn/1 统的信息熵具有最大值。该结论可以通过以下的讨
19、论来证明:H 具有个事件的概率系统其信息熵可表示为,这是在约束条件n n i ii PPH 1 2 log 下的极值问题。应用因子法,设: n i i P 1 1 n i n i iii PPPH 11 20 ).1(log 将对事件的概率求一阶偏导数,并令使用约束条件确定 0 H 1 X i P0 0 i P H n i i P 1 1 值,可求得(常数)。同理有(常数),即当 n Pi 1 n PPP n 1 21 时,有极大值。 n PPP n 1 21 H 1.2.2 对称性对称性 信息熵的对称性可表述为:设某一概率系统中n 个事件的概率分布为 ),( 21n PPP 当对事件位置的顺
20、序进行任意置换后,得到新的概率分布为,并有以下关),( 21n PPP 系成立: ).,(),( 2121nn PPPHPPPH 它表示概率系统中事件的顺序虽不同,但概率系统的熵H 是不变的,即概率系统 的熵与事件的顺序无关。 1.2.3 渐化性渐化性 信息熵的渐化性可表述为:设概率为的事件可分解为概率分别为和)(rqPnq 的两个事件,则有:r ).,()(),( ),(),( 121 121121 rq r rq q HrqrqPPPH rqPPPPHPPPPH n nnnn 河北工程大学毕业设计(论文) 8 1.2.4 展开性展开性 信息熵的展开性可表述为:设某一概率系统的概率分布为则系
21、统的信),( 21n PPP 息熵具有展开性质: ). 0 , ,(),( 2121nn PPPHPPPH 在此基础上,进一步展开有: ),( 21n PPPH).0, 0 ,( 21 n PPPH 根据上述展开性不难证明。, 0)log(lim 2 0 PP P 1.2.5 确定性确定性 信息熵的确定性可表述为:设信息系统中,任一事件产生的概率为1,则其他事件 产生的概率为0。这是一种确定的系统,对于这样的系统有: , 0) 1 , 0()0 , 1 ( HH . 0 ) 1 , 0 , 0() 0 , 0 , 1 , 0 , 0() 0 , , 0 , 1 (HHH 根据很容易证明上述性质
22、。, 0)log(lim 2 1 PP P 河北工程大学毕业设计(论文) 9 2 基于熵的互信息理论基于熵的互信息理论 2.1 互信息的概述互信息的概述 互信息(Mutual Information)来自于信息论,是信息论中的一个基本概念,是两 个随机变量统计相关性的测度。当两幅图像达到最佳配准,它们对应像素的灰度互信 息应达到最大。该测度不需要对不同成像模式下图像灰度间的关系作任何假设,也不 需要对图像进行分割或任何预处理,具有自动化程度高的特点。因此,最近几年将互 信息作为图像配准过程的相似性测度,利用最大互信息法进行图像配准成为了图像处 理领域的研究热点。 互信息是基于概率统计论提出的,
23、具有统计特性,它被多数研究者公认为是一个 很好的图像配准准则,许多图像配准算法的研究均是在互信息的基础上加以改进的。 互信息作为医学图像配准的一个相似性测度,多模态医学图像的配准很实用,其配准 原理是两幅基于共同人体解剖结构的图像在配准时具有最大的互信息值。 2.2 互信息定义互信息定义 定义定义1:随机变量和之间的互信息定义为:XY);(YXI )|()();(YXHXHYXI 或定义互信息为:);(XYI )|()();(XYHYHXYI 可以证明二者是相等的,即=。因此,和是随机变量);(XYI);(YXI);(YXI);(XYI 和之间相互提供的信息。XY 另一种定义另一种定义:也可以
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 图像 处理 特别是 分割 中的 应用 计算 科学 毕业论文
链接地址:https://www.31doc.com/p-3910481.html