13,228
回編集
(→情報量とは) |
(→情報量とは) |
||
| 73行目: | 73行目: | ||
[[ファイル:Entropy 1.png|フレームなし|中央]] | [[ファイル:Entropy 1.png|フレームなし|中央]] | ||
<center>図. 情報量 <math>- \log_{2} p</math> のグラフ</center><br> | <center>図. 情報量 <math>- \log_{2} p</math> のグラフ</center><br> | ||
<br> | |||
また、一般のq源の情報源Sから得られる情報量 <math>\bar{I}</math> に関しては、各情報源記号から得られる情報量の平均として定義される。<br> | |||
これを[[情報理論_-_情報量#エントロピーとの関係|平均情報量]]という。<br> | |||
<math>\bar{I} = - \sum_{i = 1}^{q} p_i \log_{2} p_i</math> | |||
<br> | |||
記憶のある情報源の場合、記憶が及ぶ範囲をnとして、n個の連続するシンボルを1つにまとめて考えるn次拡大の操作をすればよい。<br> | |||
これについては、[[情報理論_-_情報源符号化|情報源符号化のページ]]を参照すること。<br> | |||
<br><br> | <br><br> | ||