szukanie zaawansowane
 [ Posty: 16 ]  Przejdź na stronę 1, 2  Następna strona
Autor Wiadomość
Mężczyzna Offline
PostNapisane: 19 kwi 2019, o 00:26 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
Niech X_1,...,X_n będzie próba prostą z rozkładu Poissona o intensywności \theta
P(X_i=x)= \frac{\theta^x}{x!}e^{-\theta}

a) Znajdź \overline{\theta} estymator największej wiarygodności parametru \theta.
b) Oblicz obciążenie oraz wariancję estymatora \overline{\theta}, uzyskanego w poprzednim podpunkcie.
c) Jak duże powinno być n, żeby błąd średniokwadratowy dla \theta=1 był mniejszy niż 0,01, gdzie

MSE(\theta}=\EE_{\theta}(\theta-\overline{\theta})^2.

Prosiłbym, aby ktoś pomógł mi przebrnąć przez to zadanie krok po kroku. Weźmy na początek podpunkt a).
Uniwersytet Wrocławski Instytut Matematyczny - rekrutacja 2019
Góra
Mężczyzna Offline
PostNapisane: 19 kwi 2019, o 00:41 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
No to zacznijmy od (a). Jak wiesz, rozkład Poissona jest dyskretny. Tutaj Ci napisałem, co się robi w celu zastosowania metody największej wiarygodności w przypadku próby z rozkładu dyskretnego:
439998.htm

W tym przypadku niech x_1, x_2, ldots x_n in NN (łącznie z zerem) będą obserwacjami, wtedy z niezależności X_1, ldots X_n mamy
mathbf{P}(X_1=x_1, X_2=x_2, ldots X_n=x_n|	heta=	heta_0)= prod_{i=1}^{n}mathbf{P}(X_i=x_i|	heta=	heta_0)=\= prod_{i=1}^{n} frac{	heta_0^{x_i}}{x_i!} e^{-	heta_0}=\=ldots
Logarytmujesz to, różniczkujesz i maksymalizujesz ze względu na 	heta_0.
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 14:52 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
No dobra chyba kapuję. Robię tak:
L(x_1,...,x_n,\theta )=p_{\theta}(x_1)...p_{\theta}(x_n)
\ln L=\ln  \frac{\theta^{x_1}}{x_1!}e^{-\theta}+\ln \frac{\theta^{x_2}}{x_2!}e^{-\theta}+....+\ln  \frac{\theta^{x_n}}{x_n!}e^{-\theta}=\ln \theta^{x_1}+\ln e^{-\theta}-\ln x_1!+...+\ln \theta^{x_n}+\ln e^{-\theta}-\ln x_n!=x_1\ln \theta-\theta-\ln x_1!+...+x_n\ln \theta-\theta-\ln x_n!

L'= \frac{x_1}{\theta}-1+ \frac{x_2}{\theta}-1+...+ \frac{x_n}{\theta}-1=0
czyli widać, że maksimum będzie przyjmowane dla
\theta= \frac{x_1+x_2+...+x_n}{n}=\overline{X}

Dobrze?
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 15:07 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
Obliczenia są poprawne, ale nie wykazałeś, że dla \overline{X} faktycznie przyjmowane jest maksimum rozważanej funkcji. Wprawdzie jeżeli mamy tylko jedno rozwiązanie równania powstałego z przyrównania pochodnej do zera, to często pewne warunki regularności z miejsca zapewniają nam, że istotnie tam musi być maksimum, ale to też trzeba napisać, a jak ktoś tych warunków nie pamięta, to policzyć drugą pochodną i określić jej znak w znalezionym punkcie.
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 15:53 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
No dobra to liczę drugą pochodną:
L''=- \frac{x_1}{\theta^2}-...- \frac{x_n}{\theta^2}=- \frac{(x_1+...+x_n)}{\theta^2}=- \frac{n^2}{x_1+...+x_n} no i to powinno być mniejsze od zera, ale skąd wiemy, że x_1,...,x_n>0?

No dobra, a jak policzyć obciążenie estymatora?
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 16:08 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
A, faktycznie, to jest rozkład Poissona, więc x_i jeszcze mogą być równe zero. Jak nie wszystkie są równe zero, to warunek z drugą pochodną działa, w przeciwnym razie można zauważyć, że logarytm funkcji wiarygodności jest niedodatni i równość zaszłaby dla \theta=0=\frac{x_1+x_2+\ldots+x_n}{n}.

Obciążenie estymatora to po prostu wartość oczekiwana różnicy estymatora i estymowanego parametru.
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 18:11 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
To znaczy chyba różnicy wartości oczekiwanej estymatora i estymowanego parametru, z tego co wiem.

Ale jak policzyć wartość oczekiwaną estymatora? Czy to będzie
\EE X=x_1 \cdot  \frac{\theta^{x_1}}{x_1!}e^{-\theta}+...+x_n \frac{\theta^{x_n}}{x_n!}e^{-\theta}
??
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 18:27 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
Nie no. X_1, \ldots X_n mają rozkład Poissona z parametrem \theta, toteż
\mathbf{E}\overline X=\mathbf{E}\left(  \frac{X_1+X_2+\ldots+X_n}{n} \right) =\ldots
(skorzystaj z liniowości wartości oczekiwanej).
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 21:36 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
Aha no dobra to liczę tak:
\mathbf{E}\overline X=\mathbf{E}\left( \frac{X_1+X_2+\ldots+X_n}{n} \right) =
= \frac{1}{n}\left( EX_1+EX_2+...+EX_n\right)= \frac{1}{n}(\theta+\theta+...+\theta)= \frac{1}{n}(n\theta)=\theta. Dobrze?

Czyli obciążenie estymatora będzie wynosić \theta-\theta=0 czyli estymator jest nieobciążony?

No, dobra, a jak policzyć wariancję?
Góra
Mężczyzna Offline
PostNapisane: 22 kwi 2019, o 23:45 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
Zgadza się.
Wariancję łatwo: dla dowolnej stałej c rzeczywistej mamy \mathrm{Var}(cX)=c^2\mathrm{Var}X, a ponadto wariancja skończonej sumy niezależnych zmiennych losowych mających drugi moment to suma ich wariancji.
Góra
Mężczyzna Offline
PostNapisane: 23 kwi 2019, o 14:21 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
No dobra to liczę tak:
Var( \frac{x_1+...+x_n}{n})= \frac{1}{n^2}Var(x_1+x_2+...+x_n)= \frac{1}{n^2}(Var x_1+Var x_2+...+Var x_n)= \frac{1}{n^2}(\theta+\theta+...+\theta)= \frac{\theta}{n}.

Zgadza się?

Ale dlaczego licząc to samo z definicji wariancji tak nie wychodzi? W sensie:
Var \overline{X}=E(\overline{X})^2-(E\overline{X})^2 i dalej:
E(\overline{X})^2= \frac{1}{n^2}E(x_1+x_2+...+x_n)^2
i nie bardzo wiadomo co z tym dalej zrobić. Jakiś komentarz?

No, ale dobra, a jak ten podpunkt c) zrobić?
Góra
Mężczyzna Offline
PostNapisane: 23 kwi 2019, o 14:38 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
Jest w ogóle taki fakt (da się to wykazać z użyciem splotów lub funkcji charakterystycznych):
jeśli zmienne losowe X_1, \ldots X_n są niezależne i mają rozkład Poissona z parametrami \lambda_1, \ldots \lambda_n odpowiednio, to
\sum_{i=1}^{n} X_i ma rozkład \mathrm{Pois}\left(  \sum_{i=1}^{n} \lambda_i\right)
Tutaj \lambda_1=\ldots=\lambda_n=\theta. Można by od razu użyć tego, choć nie trzeba.

A jakbyś rozpisał we wzorze na wariancję to:
\mathrm{E}\left( X_1+\ldots+X_n\right)^2 (wzór na kwadrat sumy:
\left(  \sum_{i=1}^{n}a_i \right)^2 = \sum_{i=1}^{n} a_i^2+2 \sum_{i=1}^{n-1} \sum_{j=i+1}^{n}a_i a_j), skorzystał z liniowości wartości oczekiwanej, pogrupował i skorzystał z tego, że zmienne losowe niezależne mają zerową kowariancję, to by wyszło (tak się dowodzi tego faktu z wariancją sumy).

W c) masz podaną definicję błędu średniokwadratowego i zauważ, że skoro doszedłeś do tego, iż dla
\overline{\theta}= \frac{X_1+\ldots+X_n}{n} mamy w tym przypadku
\mathbf{E}\left(\overline{\theta}\right)=\theta, to ten błąd średniokwadratowy będzie równy tej wariancji \mathrm{Var}\left(  \frac{X_1+\ldots+X_n}{n} \right). Wariancję już masz z poprzedniego podpunktu, wystarczy w jej wzorze podstawić \theta=1 i rozwiązać nierówność z niewiadomą n.
Góra
Mężczyzna Offline
PostNapisane: 23 kwi 2019, o 15:32 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
Czekaj, bo nie bardzo rozumiem jak z tego \EE_{\theta}(\theta-\overline{\theta})^2 doszedłeś do tego, że to się równa temu \mathrm{Var}\left( \frac{X_1+\ldots+X_n}{n} \right). Bo ja to rozpisuję tak:
E_{\theta}(\theta-\overline{\theta})^2=E_{\theta}(\theta^2-2\theta\overline{\theta}+\overline{\theta}^2) i podstawiam jedynkę i dostaję
E_1(1-2\overline{\theta}+\overline{\theta}^2)=E_1(1)-2E_1\overline{\theta}+E_1\overline{\theta}^2
i co dalej z tym? W tym kierunku trzeba iść?
Góra
Mężczyzna Offline
PostNapisane: 23 kwi 2019, o 15:58 
Użytkownik
Avatar użytkownika

Posty: 13689
Lokalizacja: Wrocław
Mamy \matbf{E}(Y^2)=\mathbf{E}((-Y)^2), tutaj
\EE_{\theta}(\theta-\overline{\theta})^2=\EE_{\theta}(\overline{\theta}-\theta)^2
a wyliczyłeś już, że dla \overline{\theta}= \frac{X_1+\ldots+X_n}{n} masz \mathbf{E}\left( \overline{\theta}\right) =\theta, zatem
\EE_{\theta}(\overline{\theta}-\theta)^2=\mathrm{Var}\left( \overline{\theta}\right)
Jak już liczyłeś powyżej wariancję \frac{X_1+\ldots+X_n}{n}, to warto teraz z tego skorzystać, nie ma po co liczyć dwa razy.
Góra
Mężczyzna Offline
PostNapisane: 23 kwi 2019, o 21:25 
Użytkownik

Posty: 2236
Lokalizacja: Kraków
A bo Ty korzystasz z tego drugiego wzoru na wariancję, w sensie:
Var(X)=E\left[ \left( X-\mu\right)^2 \right],
gdzie:
\mu jest wartością oczekiwaną zmiennej X. I to pasuje do tego co tu mamy. A swoją drogą dlaczego te dwa wzory są równoważne?

No dobra to \EE_{\theta}(\theta-\overline{\theta})^2= \frac{\theta}{n} czyli
\frac{1}{n}<0.01 czyli n>100, zgadza się?
Góra
Utwórz nowy temat Odpowiedz w temacie  [ Posty: 16 ]  Przejdź na stronę 1, 2  Następna strona


 Zobacz podobne tematy
 Tytuł tematu   Autor   Odpowiedzi 
 Określić modalność rozkładu  zyznos321  1
 Asymptotyczność rozkładu t-studenta  tiago1989  0
 asymetria rozkładu  puszi  2
 Definicja rozkładu normalnego  Piotrek71  7
 proces Poissona - symulacja  xardas26  0
 
Atom [Regulamin Forum] [Instrukcja LaTeX-a] [Poradnik] [F.A.Q.] [Reklama] [Kontakt]
Copyright (C) Karpatka.pl