Metodą największej wiarygodności wyznaczyć estymator parametru \(\displaystyle{ \theta}\) w rozkładzie o gęstości \(\displaystyle{ f(x)=\begin{cases} \theta x^{\theta - 1} \text{ dla } x \in (0,1)\\0 \text{ dla } x \notin (0, 1)\end{cases}}\)
gdzie \(\displaystyle{ \theta>0}\)
Sprawdzić czy obliczony estymator jest zgodny.
Z częścią pierwszą sobie poradziłem, wynik to
\(\displaystyle{ \hat{\theta}=-\frac{n}{\sum_{i=1}^{n}\ln X_{i}}}\)
Najpierw należy pokazać, że estymator jest nieobciążony czyli
\(\displaystyle{ E\hat{\theta} = \theta}\)
jak obliczyć wartość oczekiwaną?
Gdy to zostanie pokazane to należy obliczyć wariancję estymatora i pokazać, że
\(\displaystyle{ Var\hat{\theta}\rightarrow0\text{ dla }x\rightarrow\infty}\)
Estymator parametru i jego zgodność
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5220 razy
Estymator parametru i jego zgodność
Poprawnie wyznaczyłeś estymator największej wiarygodności parametru \(\displaystyle{ \theta}\).
Natomiast kompletnie nie rozumiem, o co Ci chodzi z tym, co później napisałeś. Przecież masz sprawdzić, czy estymator jest zgodny (tj. czy zachodzi zbieżność tego estymatora według prawdopodobieństwa do estymowanego parametru), a nie czy jest nieobciążony. Moim zdaniem to, co próbujesz robić, jest totalnie "od czapy" (choć może się nie znam).-- 26 cze 2016, o 12:20 --W zasadzie to sobie popierdziałem i ponarzekałem jak stara baba, a nie napisałem, jak zrobić zadanko...
Wybacz.
Zdaje się, że ze słabego prawa wielkich liczb wynika, iż
\(\displaystyle{ \frac{1}{n} \sum_{i=1}^{n} \ln X_i \rightarrow - \frac{1}{\theta}}\) wg prawdopodobieństwa. Stąd już łatwo wynika zgodność tego estymatora, który podałeś.
Natomiast kompletnie nie rozumiem, o co Ci chodzi z tym, co później napisałeś. Przecież masz sprawdzić, czy estymator jest zgodny (tj. czy zachodzi zbieżność tego estymatora według prawdopodobieństwa do estymowanego parametru), a nie czy jest nieobciążony. Moim zdaniem to, co próbujesz robić, jest totalnie "od czapy" (choć może się nie znam).-- 26 cze 2016, o 12:20 --W zasadzie to sobie popierdziałem i ponarzekałem jak stara baba, a nie napisałem, jak zrobić zadanko...
Wybacz.
Zdaje się, że ze słabego prawa wielkich liczb wynika, iż
\(\displaystyle{ \frac{1}{n} \sum_{i=1}^{n} \ln X_i \rightarrow - \frac{1}{\theta}}\) wg prawdopodobieństwa. Stąd już łatwo wynika zgodność tego estymatora, który podałeś.
-
- Użytkownik
- Posty: 23
- Rejestracja: 7 sty 2010, o 16:45
- Płeć: Mężczyzna
- Lokalizacja: Mazowieckie
- Podziękował: 2 razy
Estymator parametru i jego zgodność
Dzięki za odpowiedź, mógłbyś jednak dokładniej napisać skąd wynika
\(\displaystyle{ \frac{1}{n} \sum_{i=1}^{n} \ln X_i \rightarrow - \frac{1}{\theta}}\)
Zastosowałeś trochę za szybki skrót myślowy, albo nie dostrzegam czegoś oczywistego
\(\displaystyle{ \frac{1}{n} \sum_{i=1}^{n} \ln X_i \rightarrow - \frac{1}{\theta}}\)
Zastosowałeś trochę za szybki skrót myślowy, albo nie dostrzegam czegoś oczywistego
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5220 razy
Estymator parametru i jego zgodność
Dobra, spróbuję opisać to trochę dokładniej.
Tu masz o słabym prawie wielkich liczb: 61656.htm
To, z czego bezpośrednio korzystam, znajduje się w części dot. SPWL Czebyszewa (jest to podane jako wniosek).
Skoro \(\displaystyle{ X_i}\) są niezależnymi zmiennymi losowymi o tym samym rozkładzie z gęstością \(\displaystyle{ f(x)}\), to również zmienne losowe \(\displaystyle{ Y_i=\ln X_i, i \in \NN}\) są niezależne o tym samym rozkładzie (gdyż logarytm jest ciągły w swojej dziedzinie, a więc borelowski) oraz
\(\displaystyle{ \mathbf{E} \ln X_i= \int_{0}^{1} \ln x \theta x^{\theta-1}\mbox{d}x=- \frac{1}{\theta}}\)
(zakładamy tu, że \(\displaystyle{ \theta>0}\) - inaczej ta \(\displaystyle{ f(x)}\) nie jest gęstością, bo odpowiednia całka nie równa się \(\displaystyle{ 1}\), tylko jest rozbieżna)
i \(\displaystyle{ \mathbf{E}[\ln^2 X_i]< \infty}\) (przy tym cichym założeniu, że \(\displaystyle{ \theta>0}\), bez którego zadanie nie ma sensu, bo \(\displaystyle{ f}\) nie jest gęstością; wystarczy scałkować przez części).
Aha, potem aby z tego, że \(\displaystyle{ \frac{ \sum_{i=1}^{n} \ln X_i}{n}}\) zbiega do \(\displaystyle{ - \frac{1}{\theta}}\) wg prawdopodobieństwa wywnioskować, że minus odwrotność z tego, czyli
\(\displaystyle{ -\frac{n}{\sum_{i=1}^{n}\ln X_{i}}}\) zbiega do \(\displaystyle{ \theta}\) wg prawdopodobieństwa, potrzebny jest jeszcze taki fakt, że gdy \(\displaystyle{ f_n}\) - ciąg funkcji mierzalnych zbieżny wg miary (w skończonej przestrzeni miarowej, tj. takiej, że \(\displaystyle{ \mu(\Omega)< \infty}\); oczywiście przestrzeń probabilistyczna zawsze to spełnia, bo \(\displaystyle{ \mathbf{P}(\Omega)=1}\)) do \(\displaystyle{ f}\), to \(\displaystyle{ \frac{1}{f_n}}\) zbiega według miary do
\(\displaystyle{ \frac{1}{f}}\). no i dużo trywialniejsze (choć tamto tez nietrudne) spostrzeżenie, że gdy
f_n zbiega do f według miary (tu akurat: wg prawdopodobieństwa), to także
\(\displaystyle{ \alpha f_n}\) zbiega do \(\displaystyle{ \alpha \cdot f}\) wg prawdopodobieństwa. [\(\displaystyle{ alpha}\)- dowolna stała]
-- 26 cze 2016, o 14:07 --
A, no i jeszcze ta funkcja graniczna (tutaj jest to stała) musi być niezerowa.
Tu masz o słabym prawie wielkich liczb: 61656.htm
To, z czego bezpośrednio korzystam, znajduje się w części dot. SPWL Czebyszewa (jest to podane jako wniosek).
Skoro \(\displaystyle{ X_i}\) są niezależnymi zmiennymi losowymi o tym samym rozkładzie z gęstością \(\displaystyle{ f(x)}\), to również zmienne losowe \(\displaystyle{ Y_i=\ln X_i, i \in \NN}\) są niezależne o tym samym rozkładzie (gdyż logarytm jest ciągły w swojej dziedzinie, a więc borelowski) oraz
\(\displaystyle{ \mathbf{E} \ln X_i= \int_{0}^{1} \ln x \theta x^{\theta-1}\mbox{d}x=- \frac{1}{\theta}}\)
(zakładamy tu, że \(\displaystyle{ \theta>0}\) - inaczej ta \(\displaystyle{ f(x)}\) nie jest gęstością, bo odpowiednia całka nie równa się \(\displaystyle{ 1}\), tylko jest rozbieżna)
i \(\displaystyle{ \mathbf{E}[\ln^2 X_i]< \infty}\) (przy tym cichym założeniu, że \(\displaystyle{ \theta>0}\), bez którego zadanie nie ma sensu, bo \(\displaystyle{ f}\) nie jest gęstością; wystarczy scałkować przez części).
Aha, potem aby z tego, że \(\displaystyle{ \frac{ \sum_{i=1}^{n} \ln X_i}{n}}\) zbiega do \(\displaystyle{ - \frac{1}{\theta}}\) wg prawdopodobieństwa wywnioskować, że minus odwrotność z tego, czyli
\(\displaystyle{ -\frac{n}{\sum_{i=1}^{n}\ln X_{i}}}\) zbiega do \(\displaystyle{ \theta}\) wg prawdopodobieństwa, potrzebny jest jeszcze taki fakt, że gdy \(\displaystyle{ f_n}\) - ciąg funkcji mierzalnych zbieżny wg miary (w skończonej przestrzeni miarowej, tj. takiej, że \(\displaystyle{ \mu(\Omega)< \infty}\); oczywiście przestrzeń probabilistyczna zawsze to spełnia, bo \(\displaystyle{ \mathbf{P}(\Omega)=1}\)) do \(\displaystyle{ f}\), to \(\displaystyle{ \frac{1}{f_n}}\) zbiega według miary do
\(\displaystyle{ \frac{1}{f}}\). no i dużo trywialniejsze (choć tamto tez nietrudne) spostrzeżenie, że gdy
f_n zbiega do f według miary (tu akurat: wg prawdopodobieństwa), to także
\(\displaystyle{ \alpha f_n}\) zbiega do \(\displaystyle{ \alpha \cdot f}\) wg prawdopodobieństwa. [\(\displaystyle{ alpha}\)- dowolna stała]
-- 26 cze 2016, o 14:07 --
A, no i jeszcze ta funkcja graniczna (tutaj jest to stała) musi być niezerowa.