什么是平均值符号是什么符号熵

以下试题来自:
判断题离散平稳有记忆信源符号序列的平均符号熵随着序列长度L的增大而增大。 错
为您推荐的考试题库
您可能感兴趣的试卷
你可能感兴趣的试题
1.判断题 错2.判断题 错3.判断题 对4.判断题 对5.填空题 40;8当前位置: >>
第2章信源熵-多符号离散信源熵
信息论导论通信与信息工程学院 杨海芬yanghf@ 日 信源熵信源熵第二讲? 单符号离散信源、自信息量、熵;? 熵的严格上凸性 ? 最大熵定理 ? 习题? 多符号离散信源、联合自信息量、联合熵;? 条件自信息量
、条件熵? 离散平稳信源、联合熵 ? 离散平稳无记忆信源、联合熵 信源熵二、多符号离散信源及其熵1、多符号离散信源定义如果任何时刻信源发出的消息都是有限或可数的 符号序列,而这些符号都取值于同一个有限或可 数的集合,则该信源为多符号离散信源。* 多符号离散信源发出的符号序列记为X1X 2 ?X N 信源熵序列中任一符号都取值于同一集合Xk ?{x1, x 2 ,?, x n }, k ? 1,2,?, N表示a2 ? anN ? ? X1X 2 ? X N ? ? a1 ?P(X X ? X )? ? ?P(a ) P(a ) ? P(a )? 2 N ? ? 1 2 nN ? ? 1x1x1 ? x 2 ? x n x n ? x n ? ? x1x1 ? x1 ?? ? ?P( x1x1 ? x1 ) P( x1x1 ? x 2 ) ? P( x n x n ? x n )? 信源熵其中,a i ? xi1 xi 2 ?xi Ni ? 1,2,?, nNi1, i2 ,?, i N ? 1,2,?, n0 ? P (a i ) ? P ( x i 1 x i 2 ? x i N ) ? P( x i1 )P( x i 2 / x i1 )? P( x i N / x i1 x i 2 ? x i N?1 ) ? 1且? P(a i ) ? ??? ? P( x i1 x i 2 ? x i N ) ? 1i ?1 i1 ?1 i 2 ?1 i N ?1 nN n n n例1? X1X 2 ? ? x1x1 x1x 2 x1x 3 x 2 x1 x 2 x 2 x 2 x 3 x 3x1 x 3x 2 x 3x 3 ? ?P(X X )? ? ?7 / 36 1/ 18 0 1/ 18 1/ 3 1/ 18 0 1/ 18 1/ 4 ? ? ? 1 2? ? 信源熵2、联合自信息量 定义消息xi1xi2…xiN的概率P(xi1xi2…xiN)对数的负值为该 消息的自信息量,也称联合自信息量,用 I(xi1xi2…xiN) 表示。表示I( x i1 x i 2 ? x i N ) ? ? log P( x i1 x i 2 ? x i N ) 信源熵? ? log P(x i1 ) ? log P(x i 2 / x i1 )? ? log P(x i N / x i1 ? x i N?1 )记I( x i 2 / x i1 ) ? ? log P( x i 2 / x i1 ) ? I( x i N / x i1 ? x i N?1 ) ? ? log P( x i N / x i1 ? x i N?1 )称为条件自信息量条件自信息量*信息的链接准则I(x i1 x i 2 ? x i N ) ? I(x i1 ) ? I(x i 2 / x i1 ) ? ? ? I(x i N / x i1 ? x i N?1 ) 信源熵例1X1, X2 ?{x1, x 2 , x 3}P(X1 ) ?{1/ 4,4 / 9,11/ 36} P(X2 / X1 )xi1x1 x2 x3求信源各消息的联合自信息量xi2x1 7/9 1/8 0x2 2/9 3/4 2/11x3 0 1/8 9/11 信源熵例1 Q3:概率为0事件的信源熵。 P(X1 ) ?{1/ 4,4 / 9,11/ 36} 不是概率越小信息量越大吗?P(X2 / X1 )xi1x1 x2 x3求信源各消息的联合自信息量X1, X2 ?{x1, x 2 , x 3}Q2: P(A|B) 等于 P(B|A)吗?xi2x1 7/9 1/8 0x2 2/9 3/4 2/11x3 0 1/8 9/11?Q1 信源熵? 条件概率谬论 ? 数学家John Allen Paulos 《数学盲》 ? 例子? 若想分辨某些个体是否有重大疾病,以便早 期治疗,我们可能会对一大群人进行检验。 虽然其益处明显可见,但同时,检验行为有 一个地方引起争议,就是有检出假阳性的结 果的可能。这个问题的重要性,最适合用条 件概率的观点来解释。 信源熵? 假设人群中有1%的人罹患此疾病,? P(disease) = 1% = 0.01 ? P(well) = 99% = 0.99.? 假设检验动作实施在未患病的人身上时,有1%的 机率其结果为假阳性(阳性以positive表示)? P(positive/well) = 1% ? P(negative/well) = 99%.? 假设检验动作实施在患病的人身上时,有1%的机 率其结果为假阴性(阴性以negative表示)? P(negative/disease) = 1% ? P(positive/disease) = 99%。求某人被测出为阳性时,实际上真的得了病的机率P(disease/positive) 信源熵? ? ? ??P(well & negative)=p(well)* P(negative/well) =0.9801 P(disease&positive)= 0.0099 P(well&positive)=0.0099 P(disease&negative)=0.0001P(positive)=0.9=0.0198?P(disease/positive) = P(disease&positive)/ p(positive)=0.5 ?比较P(positive|disease)=99% ?被测定为阳性者,其中的半数实际上是假阳性。某人被测出为阳性时,实际上真的得了病的机率 信源熵Q3:概率为0事件的信源熵。 不是概率越小信息量越大吗?A3:熵的确定性,即 H (1,0) ? H (1,0,0) ? H (1,0, ? ,0) ? 0这个性质意味着从总体来看,信源虽然有不同的输出符 号,但它只有一个符号几乎必然出现,而其它符号 都是几乎不可能出现,那么,这个信源是一个确知 信源,其熵等于零。 信源熵? Q4:多符号离散信源的表达a2 ? anN ? ? X1X 2 ? X N ? ? a1 ?P(X X ? X )? ? ?P(a ) P(a ) ? P(a )? 2 N ? ? 1 2 nN ? ? 1x1x1 ? x 2 ? x n x n ? x n ? ? x1x1 ? x1 ?? ? ?P( x1x1 ? x1 ) P( x1x1 ? x 2 ) ? P( x n x n ? x n )? 信源熵信源各消息的联合自信息量? X1X 2 ? ? x1x1 x1x 2 x1x 3 x 2 x1 x 2 x 2 x 2 x 3 x 3x1 x 3x 2 x 3x 3 ? ?P(X X )? ? ?7 / 36 1/ 18 0 1/ 18 1/ 3 1/ 18 0 1/ 18 1/ 4 ? ? ? 1 2? ?I( x i1 x i 2 ? x i N ) ? ? log P( x i1 x i 2 ? x i N ) 信源熵I(x1x1 ) ? ? log P(x1x1 ) ? log( 36 / 7) ? 2.36(bit ) I(x1x 2 ) ? ? log P(x1x 2 ) ? log 18 ? 4.17(bit )I(x1x 3 ) ? ? log P(x1x 3 ) ? log ? ? ?I(x 2 x1 ) ? ? log P(x 2 x1 ) ? log 18 ? 4.17(bit ) I(x 2 x 2 ) ? ? log P(x 2 x 2 ) ? log 3 ? 1.59(bit )I(x 2 x 3 ) ? ? log P(x 2 x 3 ) ? log 18 ? 4.17(bit ) I(x 3x1 ) ? ? log P(x 3x1 ) ? log ? ? ? I(x 3x 2 ) ? ? log P(x 3x 2 ) ? log 18 ? 4.17(bit ) I(x 3x 3 ) ? ? log P(x 3x 3 ) ? log 4 ? 2(bit ) I(x i1 x i 2 ? x i N ) ? I(x i1 ) ? I(x i 2 / x i1 ) ? ? ? I(x i N / x i1 ? x i N?1 )I(x1x 2 ) ? I(x1 ) ? I(x 2 / x1 ) ? log 4 ? log( 9 / 2) ? 2 ? 2.17 ? 4.17(bit )信源熵I(x1x1 ) ? I(x1 ) ? I(x1 / x1 ) ? log 4 ? log( 9 / 7) ? 2 ? 0.36 ? 2.36(bit )I(x1x 3 ) ? I(x1 ) ? I(x 3 / x1 ) ? log 4 ? log ? ? 2 ? ? ? ?I(x 2 x1 ) ? I(x 2 ) ? I(x1 / x 2 ) ? log( 9 / 4) ? log 8 ? 1.17 ? 3 ? 4.17(bit )I(x 2 x 2 ) ? I(x 2 ) ? I(x 2 / x 2 ) ? log( 9 / 4) ? log( 4 / 3) ? 1.17 ? 0.42 ? 1.59(bit )I(x 2 x 3 ) ? I(x 2 ) ? I(x 3 / x 2 ) ? log( 9 / 4) ? log 8 ? 1.17 ? 3 ? 4.17(bit )I(x 3x1 ) ? I(x 3 ) ? I(x1 / x 3 ) ? log( 36 /11) ? log ? ? 1.71 ? ? ? ?I(x3x 2 ) ? I(x3 ) ? I(x 2 / x3 ) ? log( 36 /11) ? log( 11/ 2) ? 1.71 ? 2.46 ? 4.17(bit )I(x3x3 ) ? I(x3 ) ? I(x3 / x3 ) ? log( 36 /11) ? log( 11/ 9) ? 1.71 ? 0.29 ? 2(bit ) 信源熵3、联合熵定义信源各消息联合自信息量的数学期望为该信源的 熵,也叫联合熵,用H(X1X2…XN)表示。表示H(X1X 2 ? X N ) ? E[I( x i1 x i 2 ? x i N )] 信源熵? ??? ? P( x i1 x i 2 ? x i N )I( x i1 x i 2 ? x i N )i1 ?1 i 2 ?1 n i N ?1nnn? ???? ? P( x i1 x i 2 ? x i N ) log P( x i1 x i 2 ? x i N )i1 ?1 i 2 ?1n nnni N ?1n? ???? ? P( x i1 x i 2 ? x i N ) log P( x i1 )i1 ?1 i 2 ?1 n i N ?1? ??? ? P( x i1 x i 2 ? x i N ) log P( x i 2 / x i1 )i1 ?1 i 2 ?1 i N ?1nn?? ? ??? ? P( x i1 x i 2 ? x i N ) log P( x i N / x i1 x i 2 ? x i N?1 )i1 ?1 i 2 ?1 i N ?1 n n n 信源熵? ?? P( x i1 ) log P( x i1 )i1 ?1n? ?? P( x i1 x i 2 ) log P( x i 2 / x i1 )i1 ?1 i 2 ?1nn?? ? ??? ? P( x i1 x i 2 ? x i N ) log P( x i N / x i1 x i 2 ? x i N?1 )i1 ?1 i 2 ?1 i N ?1 n n n 信源熵记H ( X 2 / X 1 ) ? ??? P( xi1 xi2 ) log P( xi2 / xi1 )i1 ?1 i2 ?1nn? H ( X N / X 1 X 2 ? X N ?1 )n n n i1 ?1 i2 ?1 i N ?1条件熵为什么要用联合概率?? ??? ? ? P( xi1 xi2 ? xiN ) log P( xiN / xi1 xi2 ? xiN ?1 )称为条件熵条件熵*p16熵的链接准则H(X1X2 ?X N ) ? H(X1 ) ? H(X2 / X1 ) ? ? ? H(X N / X1X2 ?X N ?1 ) 信源熵H ( X1 X 2 ) ? H ( X1 ) ? H ( X 2 / X1 )H ( X1 X 2 ) ? H ( X 2 ) ? H ( X1 / X 2 ) 信源熵条件熵小于无条件熵(1) 条件熵小于信源熵,即 H ( X 2 / X1 ) ? H ( X 2 ) 仅当X1,X2相互独立时,等号成立(2)两个条件下的条件熵小于一个条件下的熵H ( X 3 / X1 X 2 ) ? H ( X 3 / X 2 ) 信源熵(3)联合熵小于信源熵之和,即H ( X1 X 2 ) ? H ( X1 ) ? H ( X 2 )仅当X1,X2相互独立时,等号成立,联合熵达到最大值。熵的界H(X1X 2 ? X N ) ? ? H(X k )k ?1 N 信源熵证明H(X2 / X1 ) ? H(X2 )n nH(X 2 / X1 ) ? H(X 2 ) ? ??? P( x i1 x i 2 ) log P( x i 2 / x i1 ) ? ?? P( x i1 x i 2 ) log P( x i 2 )i1 ?1 i 2 ?1 n i1 ?1 i 2 ?1 n nP ( x i 2 / x i1 ) n n P( x i 2 ) ? log e?? P( x i1 x i 2 )[ ? 1] P ( x i 2 / x i1 ) i1 ?1 i 2 ?1i1 ?1 i 2 ?1? ?? P( x i1 x i 2 ) lognP( x i 2 )? log e[?? P( x i1 )P( x i 2 ) ? ?? P( x i1 x i 2 )]i1 ?1 i 2 ?1 i1 ?1 i 2 ?1nnnn?0 信源熵证明H(X3 / X1X2 ) ? H(X3 / X2 )H ( X 3 / X1 X 2 ) ? H ( X 3 / X 2 ) ? ???? P( xi1 xi2 xi3 ) log P( xi3 / xi1 xi2 )i1 ?1 i2 ?1 i3 ?1 n n n? ??? P( x i1 x i 2 x i 3 ) log P( x i 3 / x i 2 )i1 ?1 i 2 ?1 i 3 ?1 n n nnnn? ??? P( x i1 x i 2 x i 3 ) logi1 ?1 i 2 ?1 i 3 ?1P( x i 3 / x i 2 ) P ( x i 3 / x i1 x i 2 ) 信源熵? log e??? P( x i1 x i 2 x i 3 )[i1 ?1 i 2 ?1 i 3 ?1 n n nnnnP( x i 3 / x i 2 ) P( x i 3 / x i1 x i 2 )n? 1]n n? log e[??? P( x i1 x i 2 )P( x i 3 / x i 2 ) ? ??? P( x i1 x i 2 x i 3 )]i1 ?1 i 2 ?1 i 3 ?1 i1 ?1 i 2 ?1 i 3 ?1?0进而H(X3 / X1X2 ) ? H(X3 / X2 ) ? H(X3 ) … 同理H(X N / X1X2 ?X N ?1 ) ? ? ? H(X N / X N ?1 ) ? H(X N ) 信源熵例1X1, X2 ?{x1, x 2 , x 3}P(X1 ) ?{1/ 4,4 / 9,11/ 36}P(X2 / X1 )xi1x1x2求(X1,X2)信源的联合熵 xi2x1 x2 x37/91/82/93/401/8x302/119/11 信源熵信源的联合熵? X1X 2 ? ? x1x1 x1x 2 x1x 3 x 2 x1 x 2 x 2 x 2 x 3 x 3x1 x 3x 2 x 3x 3 ? ?P(X X )? ? ?7 / 36 1/ 18 0 1/ 18 1/ 3 1/ 18 0 1/ 18 1/ 4 ? ? ? 1 2? ?H(X1X 2 ) ? ??? P( x i1 x i 2 ) log P( x i1 x i 2 )i1 ?1 i 2 ?1337 7 1 1 1 1 1 1 1 1 ? ? log ? log ? log ? log ? log 36 36 18 18 18 18 3 3 18 18 1 1 1 1 ? log ? log 18 18 4 4? 2.412(bit / message ) 信源熵H(X1X2 ?X N ) ? H(X1 ) ? H(X2 / X1 ) ? ? ? H(X N / X1X2 ?X N ?1 )H(X1 ) ? ?? P( x i1 ) log P( x i1 )i1 ?1 31 1 4 4 11 11 ? ? log ? log ? log 4 4 9 9 36 36 ? 1.542(bit / message )H(X 2 / X1 ) ? ??? P( x i1 x i 2 ) log P( x i 2 / x i1 )i1 ?1 i 2 ?1 3 3? ??? P( x i1 )P( x i 2 / x i1 ) log P( x i 2 / x i1 )i1 ?1 i 2 ?133 信源熵17 7 12 2 41 1 43 3 41 1 ?? log ? log ? log ? log ? log 49 9 49 9 98 8 94 4 98 8 11 2 2 11 9 9 ? log ? log 36 11 11 36 11 11 7 7 1 2 1 1 1 3 1 1 ? ? log ? log ? log ? log ? log 36 9 18 9 18 8 3 4 18 8 1 2 1 9 ? log ? log 18 11 4 11 ? 0.870(bit / message )H(X1X 2 ) ? H(X1 ) ? H(X 2 / X1 ) ? 1.542 ? 0.870 ? 2.412(bit / message ) 信源熵4、熵率定义信源各消息符号自信息量的数学期望为该信源的 熵率,也叫平均符号熵,用HN(X1X2…XN)表示。表示1 H N (X1X 2 ? X N ) ? H(X1X 2 ? X N ) N熵率的单位为比特/符号(bit/symbol) 。 信源熵例2X1, X2 ?{x1, x 2 , x 3}P(X1 ) ?{1/ 4,4 / 9,11/ 36}P(X2 / X1 )xi1x1x2xi2x1x2x37/91/82/93/401/8x302/119/11 信源熵信源的平均符号熵1 H 2 (X1X 2 ) ? H(X1X 2 ) 22.412 ? ? 1.206(bit / symbol ) 2 信源熵三、离散平稳无记忆信源及其熵1、离散平稳信源定义多符号离散信源对任意两个不同时间起点k和l,其 概率分布及直到N维的各维联合概率分布都相同, 该信源为N维离散平稳信源。取l=1,N维离散平稳信源 信源熵P(X k ) ? P(X1 ) P(X k X k ?1 ) ? P(X1X 2 ) ? P(X k X k ?1 ? X k ? N ?1 ) ? P(X1X 2 ? X N )2、离散平稳信源的联合熵H(Xk Xk ?1 ?Xk ? N ?1 ) ? H(X1X2 ?X N )? H(X1 ) ? H(X2 / X1 ) ? ? ? H(X N / X1X2 ?X N ?1 )? ? H(X k ) ? NH(X)k ?1 N 信源熵3、离散平稳信源的熵率1 H N (X k X k ?1 ? X k ? N ?1 ) ? H N (X1X 2 ? X N ) ? H(X1X 2 ? X N ) N1 ? [H(X1 ) ? H(X 2 / X1 ) ? ? ? H(X N / X1X 2 ? X N ?1 )] N1 N ? ? H(X k ) ? H(X) N k ?1 信源熵极限熵定理N→∞时, N维离散平稳信源平均符号熵的极限存 在且等于N阶条件熵的极限值,称为N维离散平稳 信源的极限熵,用H∞表示。*H? ? lim H N (X1X 2 ? X N ) ? lim H(X N /X1X 2 ? X N ?1 )N ?? N ??极限熵存在的证明:NHN (X1X 2 ? X N ) ? H(X1X 2 ? X N ) ? H(X1 ) ? H(X 2 / X1 ) ? ? ? H(X N / X1X 2 ? X N ?1 ) 信源熵? H(X N ) ? H(X N / X N ?1 ) ? ? ? H(X N / X1X2 ?X N ?1 ) ? H(X N / X1X2 ?X N ?1 ) ? ? ? H(X N / X N ?1 ) ? H(X N )? H N (X1X 2 ? X N ) 1 ? [H(X N ) ? H(X N / X N ?1 ) ? ? ? H(X N / X1X 2 ? X N ?1 )] N ? H(X N / X1X 2 ? X N ?1 )NHN (X1X 2 ? X N ) ? H(X1X 2 ? X N ) ? H(X1X 2 ? X N ?1 ) ? H(X N / X1X 2 ? X N ?1 ) 信源熵? ( N ? 1)H N ?1 (X1X2 ?X N ?1 ) ? H(X N / X1X2 ?X N ?1 ) ? ( N ? 1)H N ?1 (X1X2 ?X N ?1 ) ? H N (X1X2 ?X N )? H N (X1X2 ?X N ) ? H N ?1 (X1X2 ?X N ?1 )同理H N (X1X2 ?X N ?1 ) ? ? ? H2 (X1X2 ) ? H(X1 )平均符号熵单调有界,极限熵存在 信源熵极限熵等于N阶条件熵极限值的证明:NH N (X1X 2 ? X N1 ? X N ) ? H(X1X 2 ? X N1 ? X N ) ? H(X1X 2 ? X N1 ?1 ) ? H(X N1 / X1X 2 ? X N1 ?1 ) ? ? ? H(X N / X1X 2 ? X N ?1 )? ( N1 ? 1)H N1 ?1 (X1X 2 ? X N1 ?1 ) ? ( N ? N1 ? 1)H(X N1 / X1X 2 ? X N1 ?1 )? H N (X1X 2 ? X N1 ? X N ) N1 ? 1 N ? N1 ? 1 ? H N1 ?1 (X1X 2 ? X N1 ?1 ) ? H(X N1 / X1X 2 ? X N1 ?1 ) N N 信源熵固定N1条件下令N→∞H? ? lim H N (X1X 2 ? X N1 ? X N )N ??? lim H(X N1 / X1X 2 ? X N1 ?1 )N ??? H N1 (X1X 2 ?X N1 ) ? H(X N1 / X1X 2 ?X N1 ?1 )再令N1→∞H? ? lim H N1 (X1X2 ?X N1 ) ? lim H(X N1 / X1X2 ?X N1 ?1 )N1 ? ? N1 ? ?? H? ? lim H(X N / X1X 2 ? X N ?1 )N ?? 信源熵4、离散平稳无记忆信源 定义N维离散平稳信源的符号序列中各符号相互独立, 该信源为N维离散平稳无记忆信源。表示a2 ? anN ? ? X1X 2 ? X N ? ? a1 ?P(X X ?X )? ? ?P(a ) P(a ) ? P(a )? 2 N ? ? 1 2 nN ? ? 1 信源熵x1x1 ? x 2 ? x n x n ? x n ? ? x1x1 ? x1 ?? ? ?P( x1x1 ? x1 ) P( x1x1 ? x 2 ) ? P( x n x n ? x n )? x1x1 ? x1 x1x1 ? x 2 ? x n xn ?x n ? ? ?? ? ?P(x1 )P(x1 )?P(x1 ) P(x1 )P(x1 )?P(x 2 ) ? P(x n )P(x n )?P(x n )?? XN ? ?? N ? ? P( X ) ?相当于单符号离散信源扩展N次,也称为N次扩展 信源。 信源熵5、离散平稳无记忆信源的联合熵H(X k X k ?1 ?X k ? N ?1 ) ? H(X1X 2 ?X N ) ? H(X N )? ? H(X k ) ? NH(X)k ?1 N例1? X ? ? x1 x 2 x 3 ? ?P(X)? ? ?1 / 2 1 / 4 1 / 4? 求二次扩展信源的联合熵 ? ? ? ? 信源熵①二次扩展信源? X 2 ? ?x1x1 x1x 2 x1x 3 x 2 x1 x 2 x 2 x 2 x 3 x 3x1 x 3x 2 x 3x 3 ? ? ? 2 ??? ?P(X )? ? 1/ 4 1/ 8 1/ 8 1/ 8 1/16 1/ 16 1/ 8 1/16 1/ 16 ?②二次扩展信源的联合熵H(X 2 ) ? ?? P(a i ) log P(a i )i ?1 91 1 1 1 1 1 ? ? log ? 4 ? log ? 4 ? log ? 3(bit / message ) 4 4 8 8 16 16 信源熵H(X) ? ?? P( x i ) log P( x i )i ?131 1 1 1 ? ? log ? 2 ? log ? 1.5(bit / symbol ) 2 2 4 4H(X ) ? 2H(X) ? 2 ? 1.5 ? 3(bit / message )2 信源熵6、离散平稳无记忆信源的熵率1 1 N H N (X ) ? H(X ) ? NH(X) ? H(X) N NNH? ? lim H N (X ) ? lim H(X) ? H(X)N N ?? N ??H? ? lim H(X N /X1X 2 ? X N ?1 ) ? lim H(X N ) ? H(X)N ?? N ??例1? X ? ? x1 x 2 x 3 ? ?P(X)? ? ?1 / 2 1 / 4 1 / 4? ? ? ? ?求二次扩展信源的熵率 信源熵二次扩展信源的熵率H(X) ? ?? P( x i ) log P( x i )i ?1 31 1 1 1 ? ? log ? 2 ? log ? 1.5(bit / symbol ) 2 2 4 4H2 (X ) ? H(X) ? 1.5(bit / symbol )2习题2-3,2-4,2-6,2-13习题:(P68-70)
第二章 信源及信源熵 47页 免费 第2章信源熵 77页 免费 第二章 离散信源与信息熵... 73页 免费 2-第二讲 信源的信息熵 49页 免费 第二章 离散信源...198页 免费 信源及信源熵 23页 免费 第2章信源与信息熵 74页 免费喜欢...2、使用 matlab 软件求解离散单符号信源熵,请自己构造两个信源 空间,根 据...1/2 相关文档推荐 计算离散信源的熵matlab实... ...信源熵 30页 1财富值 第2章信源熵 77页 免费喜欢...本文通过MATLAB分析一个二进制的二符号信源,分别采用...
All rights reserved Powered by
copyright &copyright 。文档资料库内容来自网络,如有侵犯请联系客服。标准摩尔熵_百度百科
声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。
标准摩尔熵
标准摩尔熵(standard molar entropy)是一个热力学和化学名词,指在下,1摩尔纯物质的规定熵。通常会用So的符号来表示。
标准摩尔熵体系的混乱度与熵
所谓体系的混乱度,就是指体系内部所有物质微粒(包括分子、原子、离子、电子、原子核、原子团,以及由这些基本粒子组成的更大的集合体、团粒等)所处状态的混乱程度。这是与这些微粒的排列有序性相反的一个概念。 熵是人们用来描述、表征体系混乱度的函数。或者说,熵是体系混乱度的量度。体系的混乱度越大,熵值也越大,反之亦然。而体系的混乱度是体系本身所处的状态的特征之一。指定体系处于指定状态时,其混乱度也是确定的,而如果体系混乱度改变了,则体系的状态也就随之有相应的改变。因此,熵也和热力学能、等一样,具有的特性,熵也是一种状态函数。
标准摩尔熵热力学第三定律与物质的规定熵
是在很低的温度下研究凝聚体系的的实验结果所推出的结论。它解决了如何通过实验测求规定熵的问题。
热力学第三定律有好几种表述方法,这些表述方法字面上虽然各不相同,但其内容实质具有一定的联系和等效性。对热力学第三定律的一种基本表述为:“不能用有限的手续把一个物体的温度降到”。而中最普遍采用的表述为:“在绝对零度时任何纯物质的完整晶体的熵等于零”。这里所谓完整晶体是指晶体中的原子或分子都只有一种排列形式。热力学第三定律的内容与熵的概念是一致的。在绝对零度时,纯物质的完整晶体中,所有的微粒都处于理想的结点位置上,没有任何热运动,是一种理想的完全有序状态,自然具有最小的混乱度,所以其熵值为零。根据热力学第三定律S。=0,利用热力学的方法,热化学测量,可以求得纯物质的完整晶体从绝对零度加热到某一温度T的过程的△S(T),(真正的完整晶体和绝对零度都是达不到的,实际上用在相当接近这一理想状态的条件下得到的实验结果外推后,用图解积分的方法求得的)。
因为:△S(T)=ST—S0,而S0=0,所以ST=△S(T),即用上述方法测得的熵变△S(T),就等于在温度T时,该物质的熵值,称为该物质的规定熵。由此可定义:
在下,1mol纯物质的规定熵,即为该物质的标准摩尔规定熵,简称物质的标准熵。以Sm(-)表示,单位是J·K-1·mol-1。 应该注意,任一种稳定的规定熵和标准熵值都不为零。这是与物质的标准不同之处。
标准摩尔熵化学反应的标准摩尔熵变
对于化学反应而言,若和产物都处于下,则反应过程的熵变,即为该反应的标准熵变。当为单位反应进度时,反应的标准熵变为该反应的标准摩尔熵变,以△rSm(-)表示。与反应的标准的计算相似,化学反应的标准摩尔熵变,可由生成物与反应物的标准熵求得。对于反应 aA+Bb=eE+dD,有
△rSm一(298k)=(eS m一(E)+ dH m一(D))-(aH m一(A)+ bH m一(B))
例3、 计算反应 203(g)=302(g)在298K时的△rSm一。
【解】 查表得 Sm(-)(O2,g)=205.1 J·mol-1·K-1
Sm(-)(O3,g)=238.9 J·mol-1·K-1
△rSm一(298k)=3 Sm(-)(O2,g)-2 Sm(-)(O3,g)=3×205.1-2×238.9=137.5 J·mol-1·K-1
答 该反应的标准摩尔熵变为137.5J·mol-1·K-1
标准摩尔熵熵变和反应方向
对于孤立体系而言,在其中发生的任何反应变化必然是自发的。告诉我们:在孤立体系中发生的任何变化或化学反应,总是向着增大的方向进行,即向着△S孤立&0的方向进行的。而当达到平衡时△S孤立=0,此时熵值达到最大。
如果不是孤立体系,则可以把体系与其周围的环境一起作为一个新的孤立体系考虑,仍然是适用的。由此可以得出,是向着(△ S体系+△S环境)&0的方向进行的。大家知道,在下,当温度低于273K时,水会自发地结成冰。这个过程中体系的熵是减小的,似乎违背了熵增原理。但应注意到,这个体系并非孤立体系。在体系和环境间发生了热交换。从水变成冰的过程中体系放热给环境。环境吸热后增大了,而且环境熵值的增加超过了体系熵值的减小。因而体系的加上环境的熵变仍是大于零的,所以上述自发反应是符合热力学第二定律的

我要回帖

更多关于 平均值符号是什么 的文章

 

随机推荐