estymator największej wiarygodności
estymator największej wiarygodności
Mam w kieszeni dwie nieodróżnialne kostki do gry: jedna jest symetryczna, druga może mieć dowolne prawdopodobieństwa wypadnięcia poszczególnych ścianek. Interesuje mnie oszacowanie prawdopodobieństwa \(\displaystyle{ p}\) wypadnięcia szóstki na drugiej kości. W tym celu wyciągam z kieszeni losowo jedną z tych kości i rzucam \(\displaystyle{ n}\)-krotnie, notując ile razy wypadła szóstka. Wyznacz estymator największej wiarygodności parametru \(\displaystyle{ p}\). Zbadaj jego nieobciążoność. Oblicz granicę średniego błędu kwadratowego tego estymatora, gdy \(\displaystyle{ n \rightarrow \infty}\).
-
- Użytkownik
- Posty: 209
- Rejestracja: 26 lis 2009, o 23:45
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 17 razy
- Pomógł: 8 razy
estymator największej wiarygodności
Może jakoś tak:
Niech \(\displaystyle{ X_n}\)- wynik losowania. Mamy \(\displaystyle{ k}\) szóstek w \(\displaystyle{ X_n, \ k\in\{0,1,...,n\}}\).
Funkcja wiarygodności:
\(\displaystyle{ l(X_n,p)=\frac{1}{2}\cdot \left(\frac{1}{6}\right)^k\left(1-\frac{1}{6}\right)^{n-k}+\frac{1}{2}\cdot p^k(1-p)^k}\)
Jeżeli notujemy tylko wartość \(\displaystyle{ k}\), a nie całą strukturę \(\displaystyle{ X_n}\), to trzeba oba składniki pomnożyć przez \(\displaystyle{ n \choose k}\), ale to nic nie zmieni w rachunkach.
Wygląda na to, że pierwszy skłądnik nie ma znczenia. Maksymalizując ze względu na \(\displaystyle{ p}\) ( np logarytmując, a następnie licząc pochodną i porównując do zera) dostajemy
\(\displaystyle{ \hat{p}=\frac{k}{n}}\)
Teraz obciążenie:
\(\displaystyle{ \mathbb{E}\hat{p}=\sum\limits_{i=0}^{n} \frac{i}{n} \mathbb{P}_p(k=i), \ p \in [0,1]}\)
Teraz można skorzystać z tego, że wartość oczekiwana rozkładu Bernoulliego z p-stwem sukcesu\(\displaystyle{ p}\) przy \(\displaystyle{ n}\) próbach jest równa \(\displaystyle{ \frac{n}{p}}\) i powiedzieć, że np dla \(\displaystyle{ p=1}\) lub \(\displaystyle{ p}\) bliskich jedynce nie zachodzi równość
\(\displaystyle{ \mathbb{E}\hat{p} =p}\),
czyli estymator jest obciążony.
Niech \(\displaystyle{ X_n}\)- wynik losowania. Mamy \(\displaystyle{ k}\) szóstek w \(\displaystyle{ X_n, \ k\in\{0,1,...,n\}}\).
Funkcja wiarygodności:
\(\displaystyle{ l(X_n,p)=\frac{1}{2}\cdot \left(\frac{1}{6}\right)^k\left(1-\frac{1}{6}\right)^{n-k}+\frac{1}{2}\cdot p^k(1-p)^k}\)
Jeżeli notujemy tylko wartość \(\displaystyle{ k}\), a nie całą strukturę \(\displaystyle{ X_n}\), to trzeba oba składniki pomnożyć przez \(\displaystyle{ n \choose k}\), ale to nic nie zmieni w rachunkach.
Wygląda na to, że pierwszy skłądnik nie ma znczenia. Maksymalizując ze względu na \(\displaystyle{ p}\) ( np logarytmując, a następnie licząc pochodną i porównując do zera) dostajemy
\(\displaystyle{ \hat{p}=\frac{k}{n}}\)
Teraz obciążenie:
\(\displaystyle{ \mathbb{E}\hat{p}=\sum\limits_{i=0}^{n} \frac{i}{n} \mathbb{P}_p(k=i), \ p \in [0,1]}\)
Teraz można skorzystać z tego, że wartość oczekiwana rozkładu Bernoulliego z p-stwem sukcesu\(\displaystyle{ p}\) przy \(\displaystyle{ n}\) próbach jest równa \(\displaystyle{ \frac{n}{p}}\) i powiedzieć, że np dla \(\displaystyle{ p=1}\) lub \(\displaystyle{ p}\) bliskich jedynce nie zachodzi równość
\(\displaystyle{ \mathbb{E}\hat{p} =p}\),
czyli estymator jest obciążony.