Estymator njmw

Procesy stochastyczne. Sposoby racjonalizowania wielkich ilości informacji. Matematyka w naukach społecznych.
ola_air
Użytkownik
Użytkownik
Posty: 40
Rejestracja: 6 paź 2013, o 12:33
Płeć: Kobieta
Podziękował: 5 razy

Estymator njmw

Post autor: ola_air »

Jak wyznaczyć estymator njmw rozkładu:

\(\displaystyle{ \text{Bin}\left( 1,\right p),\ g\left( p\right)= p^{3}}\) ?
Ostatnio zmieniony 23 sty 2018, o 23:33 przez SlotaWoj, łącznie zmieniany 3 razy.
Powód: Poprawa wiadomości.
janusz47
Użytkownik
Użytkownik
Posty: 7920
Rejestracja: 18 mar 2009, o 16:24
Płeć: Mężczyzna
Podziękował: 30 razy
Pomógł: 1671 razy

Estymator njmw

Post autor: janusz47 »

Czy są to dwa oddzielne rozkłady: dwumianowy i geometryczny?
ola_air
Użytkownik
Użytkownik
Posty: 40
Rejestracja: 6 paź 2013, o 12:33
Płeć: Kobieta
Podziękował: 5 razy

Estymator njmw

Post autor: ola_air »

Nie, w zadaniu należy wyznaczyć estymator rozkładu \(\displaystyle{ \text{Bin}(1,p)}\) wartości \(\displaystyle{ g(p)=p^{3}}\) .
Z tego, co wiem trzeba to rozwiązać metodą równań.
Ostatnio zmieniony 23 sty 2018, o 23:34 przez SlotaWoj, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości.
SlotaWoj
Użytkownik
Użytkownik
Posty: 4211
Rejestracja: 25 maja 2012, o 21:33
Płeć: Mężczyzna
Lokalizacja: Kraków PL
Podziękował: 2 razy
Pomógł: 758 razy

Re: Estymator njmw

Post autor: SlotaWoj »

A co oznacza njmw? Czy aby nie miało to być njww = największej wiarygodności?

Jeżeli nawet miałaś podane njmw, to powinnaś zauważyć, że od strony językowej ten skrót jest bez sensu i skorygować, a najlepiej podać temat zadania „otwartym tekstem”, bez skrótów.
Nauka jest tą sferą działalności ludzkiej, w której są ważne szczegóły, również językowe (precyzja wypowiedzi).
janusz47
Użytkownik
Użytkownik
Posty: 7920
Rejestracja: 18 mar 2009, o 16:24
Płeć: Mężczyzna
Podziękował: 30 razy
Pomógł: 1671 razy

Estymator njmw

Post autor: janusz47 »

Znajdujemy MNW parametr \(\displaystyle{ p}\) rozkładu \(\displaystyle{ \text{Bin}(1, p)}\) .

\(\displaystyle{ P(X_{i}=x) = p^{x}(1 -p)^{1-x}, \ \ x=0,1}\)

Z niezależności zmiennych losowych wynika, że łączna funkcja gęstości:

\(\displaystyle{ f(x_{1},...,x_{n}|p) = P(X_{1}=x_{1},...,X_{n}=x_{n}|p)= p^{x_{1}}(1-p)^{1-x_{1}}...p^{x_{n}}(1- p)^{1-x_{n}} = p^{\sum_{i=1}^{n}x_{i}(1-p)^{n-\sum_{i=1}^{n} x_{i}}}, x_{i}=0,1, \ \ i=1,...,n}\)

Aby znaleźć maksimum wartości parametru \(\displaystyle{ p}\) , logarytmujemy funkcję \(\displaystyle{ f}\) logarytmem naturalnym:

\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)] = \sum_{i=1}^{n}x_{i}\ln(p) + \left(n - \sum_{i=1}^{n}x_{i}\right)\ln(1- p)}\) (2)

Obliczając pochodną I rzędu:

\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)]^{'}= \frac{\sum_{i=1}^{n}x_{i}}{p} - \frac{(n - \sum_{i=1}^{n}x_{i})}{1-p}}\)

i porównując z zerem:

\(\displaystyle{ \frac{\sum_{i=1}^{n}x_{i}}{\hat{p}} =\frac{(n - \sum_{i=1}^{n}x_{i})}{1-\hat{p}}}\)

otrzymujemy EMNW parametru \(\displaystyle{ p}\) :

\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}x_{i}}\)

Kładąc \(\displaystyle{ n =1}\)

\(\displaystyle{ \hat{p} = x_{1}}\)

Statystyka:

\(\displaystyle{ G(\hat{p}) =\hat{p}^3= X^3_{1}}\)

jest EMNW.
ola_air
Użytkownik
Użytkownik
Posty: 40
Rejestracja: 6 paź 2013, o 12:33
Płeć: Kobieta
Podziękował: 5 razy

Estymator njmw

Post autor: ola_air »

janusz47 pisze:Znajdujemy MNW parametr \(\displaystyle{ p}\) rozkładu \(\displaystyle{ \text{Bin}(1, p)}\) .

\(\displaystyle{ P(X_{i}=x) = p^{x}(1 -p)^{1-x}, \ \ x=0,1}\)

Z niezależności zmiennych losowych wynika, że łączna funkcja gęstości:

\(\displaystyle{ f(x_{1},...,x_{n}|p) = P(X_{1}=x_{1},...,X_{n}=x_{n}|p)= p^{x_{1}}(1-p)^{1-x_{1}}...p^{x_{n}}(1- p)^{1-x_{n}} = p^{\sum_{i=1}^{n}x_{i}(1-p)^{n-\sum_{i=1}^{n} x_{i}}}, x_{i}=0,1, \ \ i=1,...,n}\)

Aby znaleźć maksimum wartości parametru \(\displaystyle{ p}\) , logarytmujemy funkcję \(\displaystyle{ f}\) logarytmem naturalnym:

\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)] = \sum_{i=1}^{n}x_{i}\ln(p) + \left(n - \sum_{i=1}^{n}x_{i}\right)\ln(1- p)}\) (2)

Obliczając pochodną I rzędu:

\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)]^{'}= \frac{\sum_{i=1}^{n}x_{i}}{p} - \frac{(n - \sum_{i=1}^{n}x_{i})}{1-p}}\)

i porównując z zerem:

\(\displaystyle{ \frac{\sum_{i=1}^{n}x_{i}}{\hat{p}} =\frac{(n - \sum_{i=1}^{n}x_{i})}{1-\hat{p}}}\)

otrzymujemy EMNW parametru \(\displaystyle{ p}\) :

\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}x_{i}}\)

Kładąc \(\displaystyle{ n =1}\)

\(\displaystyle{ \hat{p} = x_{1}}\)

Statystyka:

\(\displaystyle{ G(\hat{p}) =\hat{p}^3= X^3_{1}}\)

jest EMNW.
Jak wyglądałoby rozwiązanie w przypadku estymatora najmniejszej wariancji?

Dziękuję uprzejmie.
janusz47
Użytkownik
Użytkownik
Posty: 7920
Rejestracja: 18 mar 2009, o 16:24
Płeć: Mężczyzna
Podziękował: 30 razy
Pomógł: 1671 razy

Estymator njmw

Post autor: janusz47 »

Wariancja rozkładu dwumianowego:

\(\displaystyle{ \text{Var}(n, p) = n\cdot p \cdot (1 - p)}\)

Dla Pani rozkładu

\(\displaystyle{ n =1}\)

\(\displaystyle{ \text{Var}(1, \hat{p}) = \hat{p}\cdot (1 -\hat{p})}\)

\(\displaystyle{ \hat{\text{Var}(X_{1})} = X_{1}\cdot (1 - X_{1})}\)-- 24 sty 2018, o 23:42 --Chodzi Pani o estymator nieobciążony o minimalnej wariancji ENMW dla rozkładu \(\displaystyle{ X_{i}\sim Bin( 1, p).}\)

Ponieważ jak pokazaliśmy w poprzednim poście metodą największej wiarygodności - estymator
\(\displaystyle{ \hat{X} = \frac{1}{n}\sum_{i=1}^{n}X_{i}}\)

i funkcją zupełnej statystyki dostatecznej \(\displaystyle{ T}\),

jest więc estymatorem \(\displaystyle{ ENMW[\theta].}\)

Weźmy pod wagę wariancję \(\displaystyle{ g(\theta) = \theta\cdot (1-\theta)}\)

Statystyka \(\displaystyle{ T}\) ma rozkład dwumianowy:

\(\displaystyle{ P_{\theta}(T=t) = {n\choose t}\theta^{t}(1-\theta)^{n-t}.}\)

Problem wyznaczenia ENMW dla \(\displaystyle{ g(\theta)}\) sprowadza się do wyznaczenia funkcji \(\displaystyle{ U}\) takiej, że:

\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\theta^{t}(1-\theta)^{n-t}=\theta(1-\theta),}\)

lub równoważnie:

\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\left(\frac{\theta}{1-\theta}\right)^{t} = \frac{\theta}{1-\theta}\cdot \frac{1}{(1-\theta)^{n-2}}, \ \ \theta\in \Theta.}\)

Oznaczmy przez \(\displaystyle{ v = \frac{\theta}{1-\theta}.}\)

Wówczas

\(\displaystyle{ \sum_{t=0}^{n} U(t){n\choose t}v^{t} = v(v+1)^{n-2}, \ \ v\in (0, \infty).}\)

Ponieważ

\(\displaystyle{ (v+1)^{n-2}=\sum_{t=0}^{n-2}{n-2 \choose t}v^{t}=\sum_{t=1}^{n-1}{n-2\choose t-1}v^{t-1},}\)

to otrzymujemy

\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}v^{t} = \sum_{t=1}^{n-1}{n-2 \choose t-1}v^{t},\ \ v\in(0, \infty).}\)

Porównując współczynniki obu wielomianów przy odpowiednich potegach, otrzymujemy

\(\displaystyle{ U(t){n\choose t} = {n-2 \choose t- 1}, \ \ t=1,2,...,n-1.}\)

Stąd

\(\displaystyle{ U(t) = \frac{{n-2 \choose t- 1}}{{n\choose t}} = \frac{(n-2)!t!(n-t)!}{(t-1)!(n-t-1)!n!}= \frac{t(n-t)}{n(n-1)}.}\)

\(\displaystyle{ U(0)= U(n) =0.}\)

Zatem statystyka:

\(\displaystyle{ U(T) = \frac{T(n-T)}{n(n-1)} = \frac{n}{n-1}[\overline{X}- (\overline{X})^2]}\)

jest \(\displaystyle{ ENMW[g(\theta)].}\)

Dla \(\displaystyle{ X_{i}\sim Bin (1, p)}\) otrzymujemy statystykę:

\(\displaystyle{ \hat{\theta} = \frac{n}{n-1}\cdot \hat{p}( 1- \hat{p}),}\)

gdzie:

\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}X_{i}.}\)
ODPOWIEDZ