欢迎来到三一文库! | 帮助中心 三一文库31doc.com 一个上传文档投稿赚钱的网站
三一文库
全部分类
  • 研究报告>
  • 工作总结>
  • 合同范本>
  • 心得体会>
  • 工作报告>
  • 党团相关>
  • 幼儿/小学教育>
  • 高等教育>
  • 经济/贸易/财会>
  • 建筑/环境>
  • 金融/证券>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 三一文库 > 资源分类 > PPT文档下载
     

    信息论第3章信源及信息熵.ppt

    • 资源ID:2161217       资源大小:240.01KB        全文页数:29页
    • 资源格式: PPT        下载积分:6
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录   微博登录  
    二维码
    微信扫一扫登录
    下载资源需要6
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    信息论第3章信源及信息熵.ppt

    第3章 信源及信源熵,重庆交通大学计算机与信息学院 通信工程系 李益才 2012年8月,第3章 信源及信息熵,3.1 信源的分类及其数学模型 3.2 离散单符号信源 3.3 离散多符号信源 3.4 * 连续信源,第3章 信源及信息熵,信源(Information Source)是信息的来源,是产生消息(符号)、时间离散的消息序列(符号序列)以及时间连续的消息的来源。 信源输出的消息都是随机的,因此可用概率来描述其统计特性。在信息论中,用随机变量X、随机矢量X、随机过程 X(e,t)分别表示产生消息、消息序列以及时间连续消息的信源。 信源的主要问题: 如何描述信源(信源的数学建模问题) 怎样计算信源所含的信息量 怎样有效的表示信源输出的消息,也就是信源编码问题,3.1 信源的分类及其数学模型,信源的分类由多种方法,我们常根据信源输出的消息在时间和取值上是离散或连续进行分类:,表3.1 信源的分类,3.1 信源的分类及其数学模型,我们还可以根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源,根据随机变量间是否统计独立将信源分为有记忆信源和无记忆信源。 一个实际信源的统计特性往往是相当复杂的,要想找到精确的数学模型很困难。实际应用时常常用一些可以处理的数学模型来近似。随机序列,特别是离散平稳随机序列是我们研究的主要内容。,随机序列,3.2 离散单符号信源,输出单个离散取值的符号的信源称为离散单符号信源。它是最简单也是最基本的信源,是组成实际信源的基本单元。它用一个离散随机变量表示。信源所有可能输出的消息和消息对应的概率共同组成的二元序对X,P(X) 称为信源的概率空间: 信源输出的所有消息的自信息的统计平均值定义为信源的平均自信息量(信息熵),它表示离散单符号信源的平均不确定性:,3.3 离散多符号信源,定义3.1:对于随机变量序列X1,X2,Xn,,在任意两个不同时刻i和j(i和j为大于1的任意整数)信源发出消息的概率分布完全相同,即对于任意的N,N=0,1,2,,XiXi+1Xi+N和XjXj+1Xj+N具有相同的概率分布。也就是 即各维联合概率分布均与时间起点无关的信源称为离散平稳信源。,3.3 离散多符号信源,对于离散多符号信源, 我们引入熵率的概念,它表示信源输出的符号序列中,平均每个符号所携带的信息量。 定义3.2 随机变量序列中,对前N个随机变量的联合熵求平均: 称为平均符号熵。如果当 时上式极限存在,则 称为熵率,或称为极限熵,记为,3.3.1 离散平稳无记忆信源,离散平稳无记忆信源输出的符号序列是平稳随机序列,并且符号之间是无关的,即是统计独立的。假定信源每次输出的是N长符号序列,则它的数学模型是N维离散随机变量序列:X=X1X2XN , 并且每个随机变量之间统计独立。同时,由于是平稳信源,每个随机变量的统计特性都相同,我们还可以把一个输出N长符号序列的信源记为: 根据统计独立的多维随机变量的联合熵与信息熵之间的关系,可以推出: 离散平稳无记忆信源的熵率:,3.3.2 离散平稳有记忆信源,实际信源往往是有记忆信源。 对于相互间有依赖关系的N维随机变量的联合熵存在以下关系(熵函数的链规则) : 定理3.1 对于离散平稳信源,有以下几个结论: (1)条件熵 随N的增加是递减的; (2)N给定时平均符号熵大于等于条件熵,即 (3)平均符号熵 随N的增加是递减的; (4)如果 ,则 存在,并且,条件熵 随N的增加是递减的,L给定时平均符号熵大于等于条件熵,结合结论1:,平均符号熵 随N的增加是递减的;,运用结论2得:,如果 ,则,3.3.3 马尔可夫信源,有一类信源,信源在某时刻发出的符号仅与在此之前发出的有限个符号有关,而与更早些时候发出的符号无关,这称为马尔可夫性,这类信源称为马尔可夫信源。马尔可夫信源可以在N不很大时得到 。如果信源在某时刻发出的符号仅与在此之前发出的 m个符号有关,则称为m阶马尔可夫信源,它的熵率: 通常记作:,(马尔可夫性),(平稳性),3.3.3 马尔可夫信源,马尔可夫信源是一类相对简单的有记忆信源,信源在某一时刻发出某一符号的概率除与该符号有关外,只与此前发出的有限个符号有关。因此我们把前面若干个符号看作一个状态,可以认为信源在某一时刻发出某一符号的概率除了与该符号有关外,只与该时刻信源所处的状态有关,而与过去的状态无关。信源发出一个符号后,信源所处的状态即发生改变,这些状态的变化组成了马氏链。,图3.1 马尔可夫信源,3.3.3 马尔可夫信源,对于一般的m阶马尔可夫信源,它的概率空间可以表示成: 令 ,从而得到马尔 可夫信源的状态空间: 状态空间由所有状态及状态间的状态转移概率组成。通过引入状态转移概率,可以将对马尔可夫信源的研究转化为对马尔可夫链的研究。,3.3.3 马尔可夫信源,遍历m阶马尔可夫信源的熵率计算 当时间足够长后,遍历的马尔可夫信源可以视作平稳信源来处理,又因为m阶马尔可夫信源发出的符号只与最近的m个符号有关,所以极限熵 等于条件熵 。 对于齐次遍历的马尔可夫链,其状态 由 唯一确定,因此有 所以,3.3.3 马尔可夫信源,求遍历的马尔可夫信源的极限熵需要求状态转移概率和状态的平稳概率分布. 设状态的平稳分布为:W=(W1 W2 W3 W4 ) 根据马尔可夫链遍历的充分条件有WP=W 其中P为状态转移概率矩阵,W1+W2+=1,例:设一个二元一阶马尔可夫信源,信源符号集为0,1,信源输出符号的条件概率为: p(0|0)=0.25;p(0|1)=0.5;p(1|0)=0.75;p(1|1)=0.5 求状态转移概率矩阵并画出状态转移图.,例:设有一个二元二阶马尔可夫信源,其信源符号集合为X=0,1,输出符号的条件概率为: p(0|00)=p(1|11)=0.8; p(0|01)=p(0|10)=p(1|01)=p(0|10)=0.5; p(1|00)=p(0|11)=0.2 1. 求状态转移概率矩阵并画出状态转移图; 2. 求该信源的极限熵.,一个三元一阶马尔可夫信源的基本符号为0、1、2,这3个符号等概率出现,并且具有相同的转移概率。 (1)写出状态转移矩阵; (2)画出状态图; (3)求各符号稳态分布; (4)求各状态稳态分布; (5)求信源极限熵。,有一马尔可夫信源,已知状态转移概率:p(s1|s1)=2/3 p(s2|s1)=1/3 p(s1|s2)=1 p(s2|s2)=0。 (1)写出状态转移矩阵; (2)画出状态图; (4)求各状态稳态分布; (5)求信源极限熵。,3.3.4 信源的相关性和剩余度,根据定理3.1可得 由此看出,由于信源输出符号间的依赖关系也就是信源的相关性使信源的实际熵减小。信源输出符号间统计约束关系越长,信源的实际熵越小。当信源输出符号间彼此不存在依赖关系且为等概率分布时,信源的实际熵等于最大熵 。 定义3.3 一个信源的熵率(极限熵)与具有相同符号集的最大熵的比值称为熵的相对率: 信源剩余度为:,3.3.4 信源的相关性和剩余度,信源的剩余度来自两个方面,一是信源符号间的相关性,相关程度越大,符号间的依赖关系越长,信源的实际熵越小,另一方面是信源符号分布的不均匀性使信源的实际熵越小。 为了更经济有效的传送信息,需要尽量压缩信源的剩余度,压缩剩余度的方法就是尽量减小符号间的相关性,并且尽可能的使信源符号等概率分布。 从提高信息传输效率的观点出发,人们总是希望尽量去掉剩余度。但是从提高抗干扰能力角度来看,却希望增加或保留信源的剩余度,因为剩余度大的消息抗干扰能力强。 信源编码是减少或消除信源的剩余度以提高信息的传输效率,而信道编码则通过增加冗余度来提高信息传输的抗干扰能力。,3.4* 连续信源,3.4.1 连续信源的微分熵 连续随机变量的取值是连续的,一般用概率密度函数来描述其统计特征。 单变量连续信源的数学模型为 ,并满足 是实数域,表示 的取值范围。 对于取值范围有限的连续信源还可以表示成: ,并满足 ,(a,b)是X的取值范围。 通过对连续变量的取值进行量化分层,可以将连续随机变量用离散随机变量来逼近。量化间隔越小,离散随机变量与连续随机变量越接近。当量化间隔趋于0时,离散随机变量就变成了连续随机变量。通过这种方式,我们来推导连续随机变量的熵。,3.4.1 连续信源的微分熵,定义连续信源的微分熵为: 微分熵又称为差熵。虽然已不能代表连续信源的平均不确定性,也不能代表连续信源输出的信息量,但是它具有和离散熵相同的形式,也满足离散熵的主要特性,比如可加性,但是不具有非负性。 同样,我们可以定义两个连续随机变量的联合熵: 以及条件熵,3.4.2 连续信源的最大熵,离散信源当信源符号为等概分布时有最大熵。连续信源微分熵也有极大值,但是与约束条件有关,当约束条件不同时,信源的最大熵不同。我们一般关心的是下面两种约束下的最大熵。 定理3.1 在输出幅度受限的情况,服从均匀分布的随机变量X具有最大输出熵。 定理3.2 对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵。 (对于均值为m ,方差为 的连续随机变量,平均功率p=直流功率+交流功率= ),3.4.3 连续信源的熵功率,均值为零,平均功率限定为p的连续信源当服从高斯分布时达到最大熵: 也就是说高斯信源的熵值与p有确定的对应关系: 现在假定限定的平均功率为p,某连续信源的熵为h(X),则与它具有相同熵的高斯信源的平均功率 定义为熵功率即 所以, ,当该连续信源为高斯信源时等号成立。 的大小可以表示连续信源剩余的大小。如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。所以信源平均功率和熵功率之差 称为连续信源的剩余度。,

    注意事项

    本文(信息论第3章信源及信息熵.ppt)为本站会员(本田雅阁)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    经营许可证编号:宁ICP备18001539号-1

    三一文库
    收起
    展开