信源的分类

授课题目

首次授课时间

教学目标 信息论的数学基础与信源的分类 授课类型 学时 理论课 2课时 掌握信息论涉及的数学基础;

理解信源的分类;

信息论的数学基础;

平稳信源、MARKOV 信源的理解; 重点与难点

教学手段与方法 讲授

教学过程:(包括授课思路、过程设计、讲解要点及各部分具体内容、时间分配等) 授课思路与过程设计:

(1)

(2)

(3)

讲解要点:

(1) 信源的分类,注意对平稳信源、无记忆信源以及扩展信源的理解;

(2) 信源的基本单位与举例说明

(3) 信息熵的基本概念与理解

时间分配:

内 容

复习

信源的分类

信源的单位与举例说明

信息熵

小结 时间分配 5分钟 20分钟 30分钟 30分钟 5分钟 信源的分类,特别是离散信源的分类:离散无记忆信源、N 次扩展信源、平稳信源。 信源的单位与举例说明 信息熵

若信源输入的消息可以用N 维随机矢量(X 1, X 2, K , X N ) 来描述,其中每个随机分量X i 都是取值为连续的连续型随机变量,并且满足随机矢量X 的各维密度函数与时间起点无关,也就是在任意两个不同时刻随机矢量X 的各维密度函数均相同,这样的信源称为连续平稳信源。例如,语音信号、热噪声信号等。

在某些简单的离散平稳信源情况下,信源先后发出的一个个符号彼此是统计独立的,也就是说信源输出的随机矢量X =(X 1, X 2, K , X N ) 中,各随机变量X i 之间是无依赖的、统计独立的,则N 维随机矢量的联合概率分布满足

P (X ) =P (X 1X 2L X N ) =P 1(X 1) P 2(X 2) L P N (X N )

由于信源是平稳的,根据平稳随机序列的统计特性可知,各变量X i 的一维概率分布都相同,即P 1(X i ) =P 2(X i ) =L =P N (X i ) ,则得

P (X ) =P (X 1) P (X 2) L P (X N ) =∏P (X i )

i =1N

若不同时刻的随机变量又取值于同一符号集A :{a 1, a 2, K , a q },则有

P (X =αi ) =P (a i 1a i 2L a i N ) =P (a i 1) P (a i 2) L P (a i N )

=∏P (a i k ) k =1N

式中,αi 是N 维随机矢量的一个取值,即αi =(a i 1a i 2L a i N ) 。

由符号集A :{a 1, a 2, K , a q }与概率测度P (a i ) (i =1, 2, K , q )构成一个概率空间

K , a 2, a q ⎤⎡X ⎤⎡a 1,

⎢P (x ) ⎥=⎢P (a ), P (a ), K , P (a ) ⎥

12q ⎦⎣⎦⎣

我们称由信源空间[X , P (x )]描述的信源X 为离散无记忆信源,这信源在不同时刻发出的符号之间是无依赖的,彼此统计独立的。

把由离散无记忆信源所输出的随机矢量X 所描述的信源称为离散无记忆信源X 的N 次扩展信源,可见,N 次扩展信源是由离散无记忆信源输出N 长的随机序列构成的信源。

离散无记忆信源的N 次扩展信源的数学模型是X 信源空间的N 重空间:

α2, K , αq N ⎤⎡X N ⎤⎡α1,

⎢⎥=⎢P (α), P (α), K , P (α) ⎥

12q N ⎥⎣P (αi ) ⎦⎢⎣⎦

式中αi =(a i 1a i 2L a i N ) ,并满足

P (αi ) =P (a i 1a i 2L a i N ) =P (a i 1) P (a i 2) L P (a i N )

∑P (α) =∑(P (a i

i =1i =1q N q N i 1) P (a i 2) L P (a i N )) =1

一般情况下,信源输出的信息是非平稳的随机序列,且序列中在不同时刻发出的符号之间是相互依赖的,也就是信源输出的随机序列X 中,各随机变量X i 之间是有依赖的,这种信源称为有记忆信源。我们需要在N 维随机矢量的联合概率分布中,引入条件概率来说明它们之间的关联。

表述有记忆信源比无记忆信源困难得多,实际上信源发出的符号往往只与前若干个符号的依赖关系强,而与更前面的符号依赖关系弱。为此,可以限制随机序列的记忆长度。当记忆长度为m +1时,称这种有记忆信源为m 阶Markov 信源,即信源每次发出的符号只与前面m 个符号有关,与更前面的符号无关。描述随机序列中各随机变量之间依赖关系的条件概率为

P (x i |L x i +2x i +1x i −1x i −2L x 1) =P (x i |x i −1x i −2L x i −m )

如果上述条件概率与时间起点i 无关,即信源输出的符号序列可以看成为时齐Markov 链,则此信源称为时齐Markov 信源。

更一般地,实际信源输出的消息常常是时间和取值都是连续的,例如语音信号、电视图像信号等。对于这种信源输出的信息,可用随机过程来描述,称这类信源为随机波形信源(又称模拟信源)。

分析一般随机波形信源比较复杂和困难,常见的随机波形信源输出的消息是时间上或频率上为有限的随机过程。根据取样定理,只要时间上或频率上受限的随机过程,都可以把随机过程用一系列时间(或频率)域上离散的取样值来表示,而每个取样值都是连续型随机变量。这样,就可把随机过程转换成时间上离散的随机序列来处理,甚至在某些条件下可以转换成随机变量间统计独立的随机序列。如果随机过程是平稳的随机过程,时间离散化后可转换成平稳的随机序列,这样,随机波形信源可以转换为连续平稳信源来处理,再对每个取值进行分层(量化),就可以将连续的取值转换成离散信源来处理。

二、信息的单位

自信息采用的单位取决于对数所选取的底,由于P (a i ) 是小于1的正数,又根据实际情况,自信息I (a i ) 肯定是正数,因此,对数的底必然为大于1的任意数。如果以2为底,所得的信息量单位为比特;如果采用以e 为底的自然对数,所得的信息量单位为奈特;若采用以10为底的对数,所得的信息量单位为哈特。同样可以根据对数的运算公式找出比特、奈特和哈特之间的数量关系。

这样,平均摸取一次所能获得的信息量约为

H (X ) =−[P (a 1) log P (a 1) +P (a 2) log P (a 2)]

=−∑P (a i ) log P (a i )

i =12

显然,这就是信源X 的信息熵,因此信息熵是从平均意义上来表征信源的总体信息测度的一个量,信息熵具有以以下三种物理意义:

第一,信息熵H (X ) 是表示信源输出后,每个消息或符号所提供的平均信息量; 第二,信息熵H (X ) 是表示信源输出前,信源的平均不确定性。例如有两个信源,其概率空间分别为

a 2⎤⎡Y ⎤⎡b 1, b 2⎤⎡X ⎤⎡a 1, =⎢P (x ) ⎥⎢0. 99, 0. 01⎥,⎢P (y ) ⎥=⎢0. 5, 0. 5⎥

⎣⎦⎣⎦⎣⎦⎣⎦

则信息熵分别为

H (X ) =0. 08比特/符号

H (Y ) =1比特/符号

可见H (Y ) >H (X ) ,即信源Y 比信源X 的平均不确定性要大。原因是信源Y 的两个输出消息是等可能性的,所以在信源没有输出消息之前,事先猜测哪一个消息出现的不确定性要大,而对于信源X ,它的两个输出消息不是等概率的,事先猜测两个事件哪一个出现,虽然具有不确定性,但大致可以猜测a 1会出现,因为它出现的概率要大得多,所以前一个信源的不确定性要小,因此,信息熵反映了信源输出消息前,接收者对信源存在的平均不确定程度的大小。

第三,用信息熵H (X ) 来表征随机变量X 的随机性,如前例,变量Y 取b 1和b 2是等概率的,所以其随机性大,而前一个变量则不同,因此随机性就小。因此H (X ) 反映了变量的随机性,信息熵H (X ) 正是描述随机变量X 所需的比特性。

需要注意的是,信息熵是信源的平均不确定的描述,一般情况下,它并不等于平均获得的信息量,只是在无噪情况下,接收者才能准确无误地接收到信源所发出的消息,全部消除了H (X ) 大小的平均不确定性,所以获得的平均信息量就等于H (X ) 。在一般情况下所获得的信息量是两熵之差,并不是信息熵本身。

【例3-3】进一步分析例3-1,8个灯泡构成一信源X ,每个灯泡损坏的概率都相等,这个信源为

授课题目

首次授课时间

教学目标 信息论的数学基础与信源的分类 授课类型 学时 理论课 2课时 掌握信息论涉及的数学基础;

理解信源的分类;

信息论的数学基础;

平稳信源、MARKOV 信源的理解; 重点与难点

教学手段与方法 讲授

教学过程:(包括授课思路、过程设计、讲解要点及各部分具体内容、时间分配等) 授课思路与过程设计:

(1)

(2)

(3)

讲解要点:

(1) 信源的分类,注意对平稳信源、无记忆信源以及扩展信源的理解;

(2) 信源的基本单位与举例说明

(3) 信息熵的基本概念与理解

时间分配:

内 容

复习

信源的分类

信源的单位与举例说明

信息熵

小结 时间分配 5分钟 20分钟 30分钟 30分钟 5分钟 信源的分类,特别是离散信源的分类:离散无记忆信源、N 次扩展信源、平稳信源。 信源的单位与举例说明 信息熵

若信源输入的消息可以用N 维随机矢量(X 1, X 2, K , X N ) 来描述,其中每个随机分量X i 都是取值为连续的连续型随机变量,并且满足随机矢量X 的各维密度函数与时间起点无关,也就是在任意两个不同时刻随机矢量X 的各维密度函数均相同,这样的信源称为连续平稳信源。例如,语音信号、热噪声信号等。

在某些简单的离散平稳信源情况下,信源先后发出的一个个符号彼此是统计独立的,也就是说信源输出的随机矢量X =(X 1, X 2, K , X N ) 中,各随机变量X i 之间是无依赖的、统计独立的,则N 维随机矢量的联合概率分布满足

P (X ) =P (X 1X 2L X N ) =P 1(X 1) P 2(X 2) L P N (X N )

由于信源是平稳的,根据平稳随机序列的统计特性可知,各变量X i 的一维概率分布都相同,即P 1(X i ) =P 2(X i ) =L =P N (X i ) ,则得

P (X ) =P (X 1) P (X 2) L P (X N ) =∏P (X i )

i =1N

若不同时刻的随机变量又取值于同一符号集A :{a 1, a 2, K , a q },则有

P (X =αi ) =P (a i 1a i 2L a i N ) =P (a i 1) P (a i 2) L P (a i N )

=∏P (a i k ) k =1N

式中,αi 是N 维随机矢量的一个取值,即αi =(a i 1a i 2L a i N ) 。

由符号集A :{a 1, a 2, K , a q }与概率测度P (a i ) (i =1, 2, K , q )构成一个概率空间

K , a 2, a q ⎤⎡X ⎤⎡a 1,

⎢P (x ) ⎥=⎢P (a ), P (a ), K , P (a ) ⎥

12q ⎦⎣⎦⎣

我们称由信源空间[X , P (x )]描述的信源X 为离散无记忆信源,这信源在不同时刻发出的符号之间是无依赖的,彼此统计独立的。

把由离散无记忆信源所输出的随机矢量X 所描述的信源称为离散无记忆信源X 的N 次扩展信源,可见,N 次扩展信源是由离散无记忆信源输出N 长的随机序列构成的信源。

离散无记忆信源的N 次扩展信源的数学模型是X 信源空间的N 重空间:

α2, K , αq N ⎤⎡X N ⎤⎡α1,

⎢⎥=⎢P (α), P (α), K , P (α) ⎥

12q N ⎥⎣P (αi ) ⎦⎢⎣⎦

式中αi =(a i 1a i 2L a i N ) ,并满足

P (αi ) =P (a i 1a i 2L a i N ) =P (a i 1) P (a i 2) L P (a i N )

∑P (α) =∑(P (a i

i =1i =1q N q N i 1) P (a i 2) L P (a i N )) =1

一般情况下,信源输出的信息是非平稳的随机序列,且序列中在不同时刻发出的符号之间是相互依赖的,也就是信源输出的随机序列X 中,各随机变量X i 之间是有依赖的,这种信源称为有记忆信源。我们需要在N 维随机矢量的联合概率分布中,引入条件概率来说明它们之间的关联。

表述有记忆信源比无记忆信源困难得多,实际上信源发出的符号往往只与前若干个符号的依赖关系强,而与更前面的符号依赖关系弱。为此,可以限制随机序列的记忆长度。当记忆长度为m +1时,称这种有记忆信源为m 阶Markov 信源,即信源每次发出的符号只与前面m 个符号有关,与更前面的符号无关。描述随机序列中各随机变量之间依赖关系的条件概率为

P (x i |L x i +2x i +1x i −1x i −2L x 1) =P (x i |x i −1x i −2L x i −m )

如果上述条件概率与时间起点i 无关,即信源输出的符号序列可以看成为时齐Markov 链,则此信源称为时齐Markov 信源。

更一般地,实际信源输出的消息常常是时间和取值都是连续的,例如语音信号、电视图像信号等。对于这种信源输出的信息,可用随机过程来描述,称这类信源为随机波形信源(又称模拟信源)。

分析一般随机波形信源比较复杂和困难,常见的随机波形信源输出的消息是时间上或频率上为有限的随机过程。根据取样定理,只要时间上或频率上受限的随机过程,都可以把随机过程用一系列时间(或频率)域上离散的取样值来表示,而每个取样值都是连续型随机变量。这样,就可把随机过程转换成时间上离散的随机序列来处理,甚至在某些条件下可以转换成随机变量间统计独立的随机序列。如果随机过程是平稳的随机过程,时间离散化后可转换成平稳的随机序列,这样,随机波形信源可以转换为连续平稳信源来处理,再对每个取值进行分层(量化),就可以将连续的取值转换成离散信源来处理。

二、信息的单位

自信息采用的单位取决于对数所选取的底,由于P (a i ) 是小于1的正数,又根据实际情况,自信息I (a i ) 肯定是正数,因此,对数的底必然为大于1的任意数。如果以2为底,所得的信息量单位为比特;如果采用以e 为底的自然对数,所得的信息量单位为奈特;若采用以10为底的对数,所得的信息量单位为哈特。同样可以根据对数的运算公式找出比特、奈特和哈特之间的数量关系。

这样,平均摸取一次所能获得的信息量约为

H (X ) =−[P (a 1) log P (a 1) +P (a 2) log P (a 2)]

=−∑P (a i ) log P (a i )

i =12

显然,这就是信源X 的信息熵,因此信息熵是从平均意义上来表征信源的总体信息测度的一个量,信息熵具有以以下三种物理意义:

第一,信息熵H (X ) 是表示信源输出后,每个消息或符号所提供的平均信息量; 第二,信息熵H (X ) 是表示信源输出前,信源的平均不确定性。例如有两个信源,其概率空间分别为

a 2⎤⎡Y ⎤⎡b 1, b 2⎤⎡X ⎤⎡a 1, =⎢P (x ) ⎥⎢0. 99, 0. 01⎥,⎢P (y ) ⎥=⎢0. 5, 0. 5⎥

⎣⎦⎣⎦⎣⎦⎣⎦

则信息熵分别为

H (X ) =0. 08比特/符号

H (Y ) =1比特/符号

可见H (Y ) >H (X ) ,即信源Y 比信源X 的平均不确定性要大。原因是信源Y 的两个输出消息是等可能性的,所以在信源没有输出消息之前,事先猜测哪一个消息出现的不确定性要大,而对于信源X ,它的两个输出消息不是等概率的,事先猜测两个事件哪一个出现,虽然具有不确定性,但大致可以猜测a 1会出现,因为它出现的概率要大得多,所以前一个信源的不确定性要小,因此,信息熵反映了信源输出消息前,接收者对信源存在的平均不确定程度的大小。

第三,用信息熵H (X ) 来表征随机变量X 的随机性,如前例,变量Y 取b 1和b 2是等概率的,所以其随机性大,而前一个变量则不同,因此随机性就小。因此H (X ) 反映了变量的随机性,信息熵H (X ) 正是描述随机变量X 所需的比特性。

需要注意的是,信息熵是信源的平均不确定的描述,一般情况下,它并不等于平均获得的信息量,只是在无噪情况下,接收者才能准确无误地接收到信源所发出的消息,全部消除了H (X ) 大小的平均不确定性,所以获得的平均信息量就等于H (X ) 。在一般情况下所获得的信息量是两熵之差,并不是信息熵本身。

【例3-3】进一步分析例3-1,8个灯泡构成一信源X ,每个灯泡损坏的概率都相等,这个信源为


相关文章

  • 信息论与编码
  • <信息论与编码>复习提纲 第1章 绪论 1.信息的概念,通俗.广义.狭义的概念 2.信息.消息.信号 3.通信系统模型 4.通信系统的技术指标,有效性.可靠性 第2章 信源与信息熵 1.信源的分类 2.信源的数学模型 3.马尔克 ...查看


  • 信息论报告
  • 1 香农信息信息的定义 信息是对事物运动状态或存在方式的不确定性的描述.用数学的语言来讲,不确定性就是随机性,具有不确定性的事件就是随机事件因此,可运用研究随机事件的数学工具--概率--来测度不确定性的大小.在信息论中,我们把消息用随机事件 ...查看


  • 老师整理的信息论知识点
  • Chp02知识点: 自信息量: 1) I (x i ) =-log p (x i ) 2)对数采用的底不同,自信息量的单位不同. 2----比特(bit ).e----奈特(nat ).10----哈特(Hart ) 3)物理意义:事件x ...查看


  • 广播电视系统组成及特点
  • 广播电视系统组成及特点 主要讲解:广播电视系统基本组成.广播电视系统的分类.模拟广播电视系统.数字广播电视系统 一.广播电视系统基本组成 广播电视技术系统由节目制作.节目播出.节目传送.节目信号发射和节目信号监测与接收五个环节构成. 二.广 ...查看


  • 移动通信技术
  • 移动通信技术复习资料 第一章数字移动通信的基本原理 1.移动通信的定义 在通信中单方或双方均处于移动状态. 2.5W的含义 任何人.在任何地点.任何时间都能和另一个人.进行任何方式便利通信的个人通信. 3.有线信道.无线信道和移动通信的区别 ...查看


  • 现代通信网与支撑技术1
  • 现代通信网与支撑技术概述 通信技术的飞速发展为现代信息技术提供了强有力的支持,本篇主要讲述现代通信网的构成要素.现代通信网的支撑技术和现代通信技术的发展趋势. 第l 章 现代通信网与支撑技术概述 当今社会正在经受信息技术迅猛发展浪潮的冲击, ...查看


  • 中国信息安全行业研究分析报告
  • 中国市场调研在线 行业市场研究属于企业战略研究范畴,作为当前应用最为广泛的咨询服务,其研究成果以报告形式呈现,通常包含以下内容: 一份专业的行业研究报告,注重指导企业或投资者了解该行业整体发展态势及经济运行状况,旨在为企业或投资者提供方向性 ...查看


  • 信息论在认识和记忆中的运用
  • 第4卷增刊 2004年6月 J咖叫0fGIlaI姆dong咖ve商tyof删lIm蛔(sodalsd∞懒删廿oⅡ) 广东工业大学学报(社会科学版) V01.4 SupplJ哪.2004 信息论在认识和记忆中的运用 张辰文元美 (广东工业大学 ...查看


  • 一种广义信息系统模型
  • 一种广义信息系统模型1 王勇 桂林电子科技大学计算机与控制学院,广西桂林(541004) E-mail: 摘 要:分析了香农通信系统模型在现实信息系统中应用时存在的局限性,同时指出了香农通信系统模型和现实中信息系统的相似性,特别是对信息可靠 ...查看


热门内容