HUFFMANコードの最適性の証明
MacKayの本で、5章の練習問題5.16にある話だが、答えを見ても良く意味が分からない。 Cover and Thomasを見ると、5.8にその節があって、証明は割とちゃんとしてるがノーテーションが分かりにくい。
という事でCover and Thomasの5.8を中心に証明をまとめてみる。 5.8そのままでは無いのと、MacKayのノートからリンクを貼りたいので別ポストとした。
示したい事、ハフマンコードは最適である
最適とは長さの期待値が最小な事。 前提としてはアルファベットの出現確率は知っている。
アルファベットはm種類とする。 1からmまでインデックスが振られてるとし、1番目のアルファベットが一番出やすく、m番目が一番出にくいように出やすさ順でインデックスを振るとして一般性を失わない。
補題、5.8.1 3つの性質を満たすinstantaneous codeの存在
この補題を前提に証明をするので、まずこの補題を理解するのが大切。
- 長さが確率の逆順に振られている (つまり pi<pj なら li≥lj )
- 長さの上位2つのコードワードは同じ長さ
- 長さの上位2つは最後のビットだけ違って、それらは登場確率の下位2つに割り当てられてる
1は満たしてない所が一箇所あれば、それをi, jとしてコードワードを入れ替えて、元との長さの期待値の差を計算すると矛盾が示せる。
2はinstanteous codeなので、もし片方が長ければ同じ長さになるまで削っても良いはずだが、削ったらoptimalよりoptimal になってしまうから矛盾、ですぐ示せる。
3は満たしてなくてもoptimalな可能性はある。 ただ、2の理屈で、一番長いコードワードは2つ以上はあるはずで、満たしてないのは長いコードワードか複数あって、確率の下位2つが別々の分枝に入ってしまってるようなケース。
一番長いコードワードはprefixコードである事とoptimalityから、かならず兄弟がいるはずなので、この兄弟の枝に確率の下位2つを持ってくるのは、同じ長さの間での入れ替えのはずなので期待値は変わらない(性質1から下位の2番目は長さは二番目に長いはずだから同じ長さ)。
という事で性質3を満たすoptimalなコードは必ず作れる。
この3つの性質を満たすコードをカノニカルなコードと言う事にする。
証明
Cover and Thomasはノーテーションが分かりにくいので、決め直す。
今回用いるノーテーション
pがp1からpmまで順番に並んだ確率分布を表していて、それとm-2まで同じで、その次の項がpm−1+pmとなってる、p−という物を考える。
そして、pとp−のそれぞれの最適なコードを別々に考える。
p−の最適なコードをC−m−1とする。p−起源のコードはマイナスをつける。
pの最適なコードでカノニカルな物の一つを、Cmと呼ぶ。
証明のあらすじ
証明のあらすじとしては、C−m−1から一つ伸ばして作ったC−mが最適になってる、という事を示すことで、あとは再帰的に、要素2つからこの手続を繰り返せば、ハフマンコードが最適な事を言える。
C−mが最適になってる事を示す為には、Cmから一つ減らして作ったCm−1を作って、この2つのpとp−の長さの期待値を比較する事で示す。
証明の中心の所
C−m−1で、m-1番目のコードにもう一桁足して、0をm-1、1をmのコードに割り当てた物をC−mとする。
C−m−1による長さの期待値をL−m−1と呼び、C−mによる長さの期待値をL−mと呼ぶとする。
すると証明したいのはL−mが最小、という事。
L−mは、m-1とm以外はL−m−1と同じで、m-1とmは1だけ長い。
m-1が出る確率はpm−1で、mはpmだから、
L−m=L−m−1+pm−1+pm定義によりL−m−1は最小。 ただL−mは最小かはこの時点では不明。
同様にCm起源のコードの長さをそれぞれLm,Lm−1とすると、 Lm−1はLmに最後二項をマージして一つ短いコードを割り当てることに相当する。
Lmをシグマで書き下してみると明らかなように、
Lm−1=Lm−pm−pm−1となる。 Lmは定義により最小。だがLm−1は最小かはこの時点では分からない。
この2つの式から
Lm≤L−m=L−m−1+pm−1+pm ≤Lm−1+pm−1+pm≤Lm
なので
Lm=L−mが言えた。