「情報理論 - 情報量」の版間の差分

ナビゲーションに移動 検索に移動
73行目: 73行目:
[[ファイル:Entropy 1.png|フレームなし|中央]]
[[ファイル:Entropy 1.png|フレームなし|中央]]
<center>図. 情報量 <math>- \log_{2} p</math> のグラフ</center><br>
<center>図. 情報量 <math>- \log_{2} p</math> のグラフ</center><br>
<br>
また、一般のq源の情報源Sから得られる情報量 <math>\bar{I}</math> に関しては、各情報源記号から得られる情報量の平均として定義される。<br>
これを[[情報理論_-_情報量#エントロピーとの関係|平均情報量]]という。<br>
<math>\bar{I} = - \sum_{i = 1}^{q} p_i \log_{2} p_i</math>
<br>
記憶のある情報源の場合、記憶が及ぶ範囲をnとして、n個の連続するシンボルを1つにまとめて考えるn次拡大の操作をすればよい。<br>
これについては、[[情報理論_-_情報源符号化|情報源符号化のページ]]を参照すること。<br>
<br><br>
<br><br>


案内メニュー