witam wszystkich,
mam do napisania program z drzewem Huffmana. Jest jednak problem: słowa kodowe mogą mieć maksymalnie 12 bitów: jak programowo ograniczyć długość słów kodowych do 12 bitów ?
Jedna propozycja to w przypadku małych prawdopodobieństw wystąpienia znaku zwiększać prawdopodobieństwo kosztem np. najbardziej prawdopodobnych znaków tracąc skuteczność kompresji.
Druga to przesyłać mało prawdopodobne znaki z prefiksem np: 1111[znak]: dane wejściowe są 8-bitowe, ale wtedy mogą się pokryć ze znakami zakodowanymi Huffmanem...
proszę o propozycje i opinię na temat tych przedstawionych przeze mnie