Zadania z entropii informacji

Definicja klasyczna. Prawdopodobieństwo warunkowe i całkowite. Zmienne losowe i ich parametry. Niezależność. Prawa wielkich liczb oraz centralne twierdzenia graniczne i ich zastosowania.
jacek2342
Użytkownik
Użytkownik
Posty: 1
Rejestracja: 14 sty 2015, o 15:22
Płeć: Mężczyzna
Lokalizacja: Warszawa

Zadania z entropii informacji

Post autor: jacek2342 »

Witam, potrzebuje rozwiązać dwa zadania z entropii informacji. Proszę o wyjaśnienie jak je zrobić.
Strzelec trafia w dziesiątkę z prawdopodobieństwem 0.9; wiadomością jest uzyskanie k dziesiątek w 4 strzałach,
k <=4. Obliczyć średnią ilość informacji zawartą w takiej wiadomości.

Przy rzucie dwiema kostkami wiadomością jest uzyskanie określonej sumy oczek. Obliczyć entropię źródła takich wiadomości.
Ostatnio zmieniony 14 sty 2015, o 17:42 przez Afish, łącznie zmieniany 1 raz.
Powód: Temat umieszczony w złym dziale.
ODPOWIEDZ