Jest \(\displaystyle{ n^{2}}\) jednakowo prawdopodobnych komunikatów. Jaka jest entropia tego źródła komunikatów?
Według mnie jest to:
\(\displaystyle{ \sum_{n^{2}}^{i=1} \log_2 \frac{1}{ n^{2} }}\)
Czy jest to poprawne rozumowanie?
Entropia n^2 komunikatów
-
- Użytkownik
- Posty: 20
- Rejestracja: 14 paź 2016, o 20:46
- Płeć: Mężczyzna
- Lokalizacja: pzn
- Podziękował: 1 raz
- Pomógł: 1 raz
Entropia n^2 komunikatów
Nie jest to poprawne rozumowanie. Wzór na entropię to: \(\displaystyle{ \sum_{i=1}^{n} p_i \log_2( \frac{1}{p_i} )}\) \(\displaystyle{ n}\)-ilość różnych komunikatów, \(\displaystyle{ p_i}\) - prawdopobobieństwa ich wystąpienia.