Entropia n^2 komunikatów

stefan13
Użytkownik
Użytkownik
Posty: 150
Rejestracja: 11 cze 2014, o 21:33
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 41 razy

Entropia n^2 komunikatów

Post autor: stefan13 »

Jest \(\displaystyle{ n^{2}}\) jednakowo prawdopodobnych komunikatów. Jaka jest entropia tego źródła komunikatów?

Według mnie jest to:
\(\displaystyle{ \sum_{n^{2}}^{i=1} \log_2 \frac{1}{ n^{2} }}\)
Czy jest to poprawne rozumowanie?
MatPiotr
Użytkownik
Użytkownik
Posty: 20
Rejestracja: 14 paź 2016, o 20:46
Płeć: Mężczyzna
Lokalizacja: pzn
Podziękował: 1 raz
Pomógł: 1 raz

Entropia n^2 komunikatów

Post autor: MatPiotr »

Nie jest to poprawne rozumowanie. Wzór na entropię to: \(\displaystyle{ \sum_{i=1}^{n} p_i \log_2( \frac{1}{p_i} )}\) \(\displaystyle{ n}\)-ilość różnych komunikatów, \(\displaystyle{ p_i}\) - prawdopobobieństwa ich wystąpienia.
ODPOWIEDZ