首页 理论教育 离散有记忆序列信源的熵分析

离散有记忆序列信源的熵分析

时间:2023-06-25 理论教育 版权反馈
【摘要】:因此,无记忆信源的理论适用范围是有限的。计算该离散二维平稳信源的无记忆信源熵、条件熵、联合熵和平均符号熵,并验证这些熵之间的关系。因此,给出如下定义:定义2.17 定义H∞为离散平稳信源的极限熵。性质2.38~性质2.40表明,对于离散平稳信源,当考虑记忆关系为无限长时,平均符号熵和条件熵都非递增地一致趋于平稳信源的信息熵(极限熵)。

离散有记忆序列信源的熵分析

1.离散平稳信源

通常,实际信源不是简单的无记忆信源。因此,无记忆信源的理论适用范围是有限的。实际信源的输出往往是空间或时间的离散随机序列,而且序列中的符号之间有记忆关系。

一般情况下离散信源X的输出序列为X1X2,…,Xi,…。其中,第i时刻信源序列的分量Xii=1,2,…)是随机变量,并输出随机事件xiXi的值域是A:{a1a2,…,ar}。根据离散信源X的概率分布函数满足的条件,给出如下平稳信源的定义:

定义2.16 1若离散信源X的一维概率分布与时间推移无关即满足

P(x1=Pi(xi=Pj(xj),i,j=23,…ij2.69

则称信源X是离散一维平稳信源或一维平稳信源)。

2若离散信源X二维联合概率分布与时间推移无关即满足

P(x1x2=Pi(xixi+1=Pj(xjxj+1),i,j=23,…ij2.70

则称信源X是离散二维平稳信源或二维平稳信源)。

3若离散信源Xk(k≥2维联合概率分布与时间推移无关即满足

P(x1x2…xk=Pi(xixi+1…xi+k-1=Pj(xjxj+1…xi+k-1),i,j=23,…ij2.71

则称信源X是离散k维平稳信源或k维平稳信源)。

4若离散信源X的各维联合概率分布均与时间推移无关即满足

P(x1x2…xN+1=Pi(xixi+1…xi+N=Pj(xjxj+1…xj+N),ijN=12,…2.72

则称信源X是离散完全平稳信源或完全平稳信源)。

需要说明的是,k维平稳信源的定义中k是某一确定值,如二维平稳信源就是k=2的k维平稳信源。而在完全平稳信源中,需要对所有的N值都要满足式(2.72)。

根据概率的边缘分布公式978-7-111-51126-7-Chapter02-160.jpg,由式(2.71)可以证明下式成立:

Px1x2xk-1)=Pixixi+1xi+k-2)=Pjxjxj+1xi+k-2

上式说明,若信源Xk维平稳信源,则该信源一定是k-1维平稳信源。

因为联合概率与条件概率有下列关系:

978-7-111-51126-7-Chapter02-161.jpg

根据k维平稳信源的定义,可得

978-7-111-51126-7-Chapter02-162.jpg

所以,k维平稳信源的k-1阶条件概率均与时间推移无关,只与关联长度k有关。

2.二维平稳信源的熵

设离散二维平稳信源X的概率空间为

978-7-111-51126-7-Chapter02-163.jpg

该信源的连续两个信源符号出现的联合概率分布为Paiaj)(ij=1,2,…,r),并有

978-7-111-51126-7-Chapter02-164.jpg

根据概率关系可以求得已知ai符号出现后,跟着aj符号出现的条件概率为

978-7-111-51126-7-Chapter02-165.jpg

可见,信源输出的符号序列中相邻两个符号是有关联的。

因为离散二维平稳信源输出的符号序列中相邻两个符号是有记忆的,即只与前一个符号有关联,而且记忆关系不随时间推移而变化。那么就可以把这个二维平稳信源输出的随机序列分成每两个符号一组,每组代表新信源X=X1X2中的一个消息,并假设组与组之间是统计独立的(实际上前一组最后一个符号与后一组第一个符号有关联)。这时就可以等效成一个新的离散无记忆信源X1X2,该信源的联合概率空间为

978-7-111-51126-7-Chapter02-166.jpg

信源X=X1X2的熵为

978-7-111-51126-7-Chapter02-167.jpg

式(2.78)是信源X=X1X2输出任意一对消息的共熵。

为此,可以用平均符号熵978-7-111-51126-7-Chapter02-168.jpg(见定义式(2.66))作为离散二维平稳信源X信息熵的近似值。根据熵的性质和信源特性,可得

978-7-111-51126-7-Chapter02-169.jpg

由式(2.79)可以推得HX)≥H2(X)。这说明,离散无记忆信源的平均不确定度HX)大于离散有记忆信源的平均不确定度H2(X)。

再由式(2.79),还可以推得离散二维平稳信源X的条件熵HX2X1)、平均符号熵H2X)和无记忆信源熵H(X)三者之间的关系为

978-7-111-51126-7-Chapter02-170.jpg

式(2.80)说明了有记忆的离散二维平稳信源的联合熵、条件熵、平均符号熵与无记忆信源熵之间的定量关系,这是有关平稳信源的非常重要的结论。

【例2.30】

离散二维平稳信源X的联合概率分布Paiaj)见表2.5。

计算该离散二维平稳信源的无记忆信源熵、条件熵、联合熵和平均符号熵,并验证这些熵之间的关系。

解利用下面两个公式:

978-7-111-51126-7-Chapter02-171.jpg

计算该信源的一维概率Pai)和条件概率Pajai),结果列于表2.6和表2.7。当认为信源符号之间无记忆关系时,计算得信源X的信息熵为

表2.5 例2.30信源的联合概率

978-7-111-51126-7-Chapter02-172.jpg

表2.6 例2.30信源的一维概率

978-7-111-51126-7-Chapter02-173.jpg

表2.7 例2.30信源的条件概率

978-7-111-51126-7-Chapter02-174.jpg

978-7-111-51126-7-Chapter02-175.jpg(www.xing528.com)

当考虑符号之间有记忆关系时,计算得条件熵为

978-7-111-51126-7-Chapter02-176.jpg

可见,信源的条件熵HX2|X1)比信源无记忆时的熵HX)减少了0.670bit,这正是因为符号之间有记忆性所造成的。而联合熵为

978-7-111-51126-7-Chapter02-177.jpg

平均符号熵为

978-7-111-51126-7-Chapter02-178.jpg

可见,各种熵之间满足HX2|X1)≤H2(X)≤HX)。

3.平稳信源的极限熵

对于一般的离散平稳信源X,输出符号之间的相互记忆关系不仅存在于相邻两个符号之间,而且存在于更多(N>2)个符号之间。

若将信源看成是N维序列信源X=(X1X2,…,XN)(N=2,3,…),其联合熵H(X)=HXN)由式(2.65)所定义,并可以用平均符号熵978-7-111-51126-7-Chapter02-179.jpgN=2,3,…)来近似

表示该信源的实际熵。另外,也可以用条件熵

978-7-111-51126-7-Chapter02-180.jpg

来近似表示该信源的实际熵。

对于一般的离散平稳信源,当HX)<∞时,这两种近似熵具有下列性质:

性质2.37 条件熵H(XN|X1X2…XN-1N的增加是非递增的

性质2.38 N给定时平均符号熵大于等于条件熵HN(X)H(XN|X1X2…XN-1)。

性质2.39 平均符号熵HNXN的增加是非递增的

性质2.40 978-7-111-51126-7-Chapter02-181.jpg存在并且

978-7-111-51126-7-Chapter02-182.jpg

性质2.40表明,HN(X)和HXN|X1X2XN-1)有相同的极限熵H∞。因此,给出如下定义:

定义2.17 定义H为离散平稳信源的极限熵或极限信息量熵率)。

性质2.37表明,在信源输出序列中符号之间前后记忆关系越长,前面若干个符号发出后,其后发生什么符号的平均不确定度就越弱。也就是说,条件较多的熵必小于或等于条件较少的熵,而条件熵必小于等于无条件熵。

性质2.38~性质2.40表明,对于离散平稳信源,当考虑记忆关系为无限长时,平均符号熵和条件熵都非递增地一致趋于平稳信源的信息熵(极限熵)。所以可以用条件熵或者平均符号熵来近似描述信源。

证明(性质2.37~性质2.40)运用熵的性质HYX)≤HY)和平稳信源的平稳特性,有

978-7-111-51126-7-Chapter02-183.jpg

由此递推,对于平稳信源有

978-7-111-51126-7-Chapter02-184.jpg

证得性质2.37。

由熵的强可加性(式(2.39)),可知

978-7-111-51126-7-Chapter02-185.jpg

直接运用条件熵的非递增性(性质2.37),得

978-7-111-51126-7-Chapter02-186.jpg

所以,证得性质2.38,即

HN(X)≥HXN|X1X2XN-1) (2.84)

同理,由熵的强可加性(性质2.17),得

978-7-111-51126-7-Chapter02-187.jpg

再利用性质2.38,得

NHN(X)≤HN(X)+(N-1)HN-1(X)

所以,有HN(X)≤HN-1(X),即HN(X)随N的增加是非递增的。证得性质2.39。

又因为HN(X)≥0,即有0≤HN(X)≤HN-1(X)≤…≤H1X)=HX)<∞,故H∞=978-7-111-51126-7-Chapter02-188.jpg存在,且处于零和HX)之间的某一有限值。

另设一整数k,由熵的强可加性(式(2.39)),有

978-7-111-51126-7-Chapter02-189.jpg

根据条件熵的非递增性(性质2.37)和信源平稳性,有

978-7-111-51126-7-Chapter02-190.jpg

k足够大(k→∞)时,有978-7-111-51126-7-Chapter02-191.jpg978-7-111-51126-7-Chapter02-192.jpg。且N是固定的,此时HX1X2XN-1)和HXN|X1X2XN-1)为定值,因此,由上式可以推导出

978-7-111-51126-7-Chapter02-193.jpg

再令上式中的N→∞,因极限存在978-7-111-51126-7-Chapter02-194.jpg,所以得

978-7-111-51126-7-Chapter02-195.jpg

由性质2.38(见式(2.84)),令N→∞得

978-7-111-51126-7-Chapter02-196.jpg

最后,由式(2.85)和式(2.86)得性质2.40成立,即

978-7-111-51126-7-Chapter02-197.jpg

【证毕】

一般的离散平稳信源实际上就是原始信源在不断地发出符号,符号之间的统计关联关系也并不限于长度N之内,而是伸向无穷远。所以要研究实际信源,必须求出信源的极限熵H∞,才能确切地表达平稳的离散有记忆序列信源平均每发出一个符号所提供的信息量。

要准确地计算出极限熵值H,就必须测定信源的无穷阶联合概率分布或条件概率分布,这是相当困难的。有时为了简化分析,往往用条件熵HXN|X1X2XN-1)或平均符号熵HN(X)作为极限熵H的近似值。通常即使N值并不很大,这些熵也很接近于H。实践中常使用条件熵HXN|X1X2XN-1)来估算H∞,这是因为计算条件熵更容易一些。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈