Jak wyznaczyć estymator njmw rozkładu:
\(\displaystyle{ \text{Bin}\left( 1,\right p),\ g\left( p\right)= p^{3}}\) ?
Estymator njmw
Estymator njmw
Nie, w zadaniu należy wyznaczyć estymator rozkładu \(\displaystyle{ \text{Bin}(1,p)}\) wartości \(\displaystyle{ g(p)=p^{3}}\) .
Z tego, co wiem trzeba to rozwiązać metodą równań.
Z tego, co wiem trzeba to rozwiązać metodą równań.
Ostatnio zmieniony 23 sty 2018, o 23:34 przez SlotaWoj, łącznie zmieniany 1 raz.
Powód: Poprawa wiadomości.
Powód: Poprawa wiadomości.
-
- Użytkownik
- Posty: 4211
- Rejestracja: 25 maja 2012, o 21:33
- Płeć: Mężczyzna
- Lokalizacja: Kraków PL
- Podziękował: 2 razy
- Pomógł: 758 razy
Re: Estymator njmw
A co oznacza njmw? Czy aby nie miało to być njww = największej wiarygodności?
Jeżeli nawet miałaś podane njmw, to powinnaś zauważyć, że od strony językowej ten skrót jest bez sensu i skorygować, a najlepiej podać temat zadania „otwartym tekstem”, bez skrótów.
Nauka jest tą sferą działalności ludzkiej, w której są ważne szczegóły, również językowe (precyzja wypowiedzi).
Jeżeli nawet miałaś podane njmw, to powinnaś zauważyć, że od strony językowej ten skrót jest bez sensu i skorygować, a najlepiej podać temat zadania „otwartym tekstem”, bez skrótów.
Nauka jest tą sferą działalności ludzkiej, w której są ważne szczegóły, również językowe (precyzja wypowiedzi).
-
- Użytkownik
- Posty: 7920
- Rejestracja: 18 mar 2009, o 16:24
- Płeć: Mężczyzna
- Podziękował: 30 razy
- Pomógł: 1671 razy
Estymator njmw
Znajdujemy MNW parametr \(\displaystyle{ p}\) rozkładu \(\displaystyle{ \text{Bin}(1, p)}\) .
\(\displaystyle{ P(X_{i}=x) = p^{x}(1 -p)^{1-x}, \ \ x=0,1}\)
Z niezależności zmiennych losowych wynika, że łączna funkcja gęstości:
\(\displaystyle{ f(x_{1},...,x_{n}|p) = P(X_{1}=x_{1},...,X_{n}=x_{n}|p)= p^{x_{1}}(1-p)^{1-x_{1}}...p^{x_{n}}(1- p)^{1-x_{n}} = p^{\sum_{i=1}^{n}x_{i}(1-p)^{n-\sum_{i=1}^{n} x_{i}}}, x_{i}=0,1, \ \ i=1,...,n}\)
Aby znaleźć maksimum wartości parametru \(\displaystyle{ p}\) , logarytmujemy funkcję \(\displaystyle{ f}\) logarytmem naturalnym:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)] = \sum_{i=1}^{n}x_{i}\ln(p) + \left(n - \sum_{i=1}^{n}x_{i}\right)\ln(1- p)}\) (2)
Obliczając pochodną I rzędu:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)]^{'}= \frac{\sum_{i=1}^{n}x_{i}}{p} - \frac{(n - \sum_{i=1}^{n}x_{i})}{1-p}}\)
i porównując z zerem:
\(\displaystyle{ \frac{\sum_{i=1}^{n}x_{i}}{\hat{p}} =\frac{(n - \sum_{i=1}^{n}x_{i})}{1-\hat{p}}}\)
otrzymujemy EMNW parametru \(\displaystyle{ p}\) :
\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}x_{i}}\)
Kładąc \(\displaystyle{ n =1}\)
\(\displaystyle{ \hat{p} = x_{1}}\)
Statystyka:
\(\displaystyle{ G(\hat{p}) =\hat{p}^3= X^3_{1}}\)
jest EMNW.
\(\displaystyle{ P(X_{i}=x) = p^{x}(1 -p)^{1-x}, \ \ x=0,1}\)
Z niezależności zmiennych losowych wynika, że łączna funkcja gęstości:
\(\displaystyle{ f(x_{1},...,x_{n}|p) = P(X_{1}=x_{1},...,X_{n}=x_{n}|p)= p^{x_{1}}(1-p)^{1-x_{1}}...p^{x_{n}}(1- p)^{1-x_{n}} = p^{\sum_{i=1}^{n}x_{i}(1-p)^{n-\sum_{i=1}^{n} x_{i}}}, x_{i}=0,1, \ \ i=1,...,n}\)
Aby znaleźć maksimum wartości parametru \(\displaystyle{ p}\) , logarytmujemy funkcję \(\displaystyle{ f}\) logarytmem naturalnym:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)] = \sum_{i=1}^{n}x_{i}\ln(p) + \left(n - \sum_{i=1}^{n}x_{i}\right)\ln(1- p)}\) (2)
Obliczając pochodną I rzędu:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)]^{'}= \frac{\sum_{i=1}^{n}x_{i}}{p} - \frac{(n - \sum_{i=1}^{n}x_{i})}{1-p}}\)
i porównując z zerem:
\(\displaystyle{ \frac{\sum_{i=1}^{n}x_{i}}{\hat{p}} =\frac{(n - \sum_{i=1}^{n}x_{i})}{1-\hat{p}}}\)
otrzymujemy EMNW parametru \(\displaystyle{ p}\) :
\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}x_{i}}\)
Kładąc \(\displaystyle{ n =1}\)
\(\displaystyle{ \hat{p} = x_{1}}\)
Statystyka:
\(\displaystyle{ G(\hat{p}) =\hat{p}^3= X^3_{1}}\)
jest EMNW.
Estymator njmw
Jak wyglądałoby rozwiązanie w przypadku estymatora najmniejszej wariancji?janusz47 pisze:Znajdujemy MNW parametr \(\displaystyle{ p}\) rozkładu \(\displaystyle{ \text{Bin}(1, p)}\) .
\(\displaystyle{ P(X_{i}=x) = p^{x}(1 -p)^{1-x}, \ \ x=0,1}\)
Z niezależności zmiennych losowych wynika, że łączna funkcja gęstości:
\(\displaystyle{ f(x_{1},...,x_{n}|p) = P(X_{1}=x_{1},...,X_{n}=x_{n}|p)= p^{x_{1}}(1-p)^{1-x_{1}}...p^{x_{n}}(1- p)^{1-x_{n}} = p^{\sum_{i=1}^{n}x_{i}(1-p)^{n-\sum_{i=1}^{n} x_{i}}}, x_{i}=0,1, \ \ i=1,...,n}\)
Aby znaleźć maksimum wartości parametru \(\displaystyle{ p}\) , logarytmujemy funkcję \(\displaystyle{ f}\) logarytmem naturalnym:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)] = \sum_{i=1}^{n}x_{i}\ln(p) + \left(n - \sum_{i=1}^{n}x_{i}\right)\ln(1- p)}\) (2)
Obliczając pochodną I rzędu:
\(\displaystyle{ \ln[f(x_{1},...,x_{n}|p)]^{'}= \frac{\sum_{i=1}^{n}x_{i}}{p} - \frac{(n - \sum_{i=1}^{n}x_{i})}{1-p}}\)
i porównując z zerem:
\(\displaystyle{ \frac{\sum_{i=1}^{n}x_{i}}{\hat{p}} =\frac{(n - \sum_{i=1}^{n}x_{i})}{1-\hat{p}}}\)
otrzymujemy EMNW parametru \(\displaystyle{ p}\) :
\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}x_{i}}\)
Kładąc \(\displaystyle{ n =1}\)
\(\displaystyle{ \hat{p} = x_{1}}\)
Statystyka:
\(\displaystyle{ G(\hat{p}) =\hat{p}^3= X^3_{1}}\)
jest EMNW.
Dziękuję uprzejmie.
-
- Użytkownik
- Posty: 7920
- Rejestracja: 18 mar 2009, o 16:24
- Płeć: Mężczyzna
- Podziękował: 30 razy
- Pomógł: 1671 razy
Estymator njmw
Wariancja rozkładu dwumianowego:
\(\displaystyle{ \text{Var}(n, p) = n\cdot p \cdot (1 - p)}\)
Dla Pani rozkładu
\(\displaystyle{ n =1}\)
\(\displaystyle{ \text{Var}(1, \hat{p}) = \hat{p}\cdot (1 -\hat{p})}\)
\(\displaystyle{ \hat{\text{Var}(X_{1})} = X_{1}\cdot (1 - X_{1})}\)-- 24 sty 2018, o 23:42 --Chodzi Pani o estymator nieobciążony o minimalnej wariancji ENMW dla rozkładu \(\displaystyle{ X_{i}\sim Bin( 1, p).}\)
Ponieważ jak pokazaliśmy w poprzednim poście metodą największej wiarygodności - estymator
\(\displaystyle{ \hat{X} = \frac{1}{n}\sum_{i=1}^{n}X_{i}}\)
i funkcją zupełnej statystyki dostatecznej \(\displaystyle{ T}\),
jest więc estymatorem \(\displaystyle{ ENMW[\theta].}\)
Weźmy pod wagę wariancję \(\displaystyle{ g(\theta) = \theta\cdot (1-\theta)}\)
Statystyka \(\displaystyle{ T}\) ma rozkład dwumianowy:
\(\displaystyle{ P_{\theta}(T=t) = {n\choose t}\theta^{t}(1-\theta)^{n-t}.}\)
Problem wyznaczenia ENMW dla \(\displaystyle{ g(\theta)}\) sprowadza się do wyznaczenia funkcji \(\displaystyle{ U}\) takiej, że:
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\theta^{t}(1-\theta)^{n-t}=\theta(1-\theta),}\)
lub równoważnie:
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\left(\frac{\theta}{1-\theta}\right)^{t} = \frac{\theta}{1-\theta}\cdot \frac{1}{(1-\theta)^{n-2}}, \ \ \theta\in \Theta.}\)
Oznaczmy przez \(\displaystyle{ v = \frac{\theta}{1-\theta}.}\)
Wówczas
\(\displaystyle{ \sum_{t=0}^{n} U(t){n\choose t}v^{t} = v(v+1)^{n-2}, \ \ v\in (0, \infty).}\)
Ponieważ
\(\displaystyle{ (v+1)^{n-2}=\sum_{t=0}^{n-2}{n-2 \choose t}v^{t}=\sum_{t=1}^{n-1}{n-2\choose t-1}v^{t-1},}\)
to otrzymujemy
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}v^{t} = \sum_{t=1}^{n-1}{n-2 \choose t-1}v^{t},\ \ v\in(0, \infty).}\)
Porównując współczynniki obu wielomianów przy odpowiednich potegach, otrzymujemy
\(\displaystyle{ U(t){n\choose t} = {n-2 \choose t- 1}, \ \ t=1,2,...,n-1.}\)
Stąd
\(\displaystyle{ U(t) = \frac{{n-2 \choose t- 1}}{{n\choose t}} = \frac{(n-2)!t!(n-t)!}{(t-1)!(n-t-1)!n!}= \frac{t(n-t)}{n(n-1)}.}\)
\(\displaystyle{ U(0)= U(n) =0.}\)
Zatem statystyka:
\(\displaystyle{ U(T) = \frac{T(n-T)}{n(n-1)} = \frac{n}{n-1}[\overline{X}- (\overline{X})^2]}\)
jest \(\displaystyle{ ENMW[g(\theta)].}\)
Dla \(\displaystyle{ X_{i}\sim Bin (1, p)}\) otrzymujemy statystykę:
\(\displaystyle{ \hat{\theta} = \frac{n}{n-1}\cdot \hat{p}( 1- \hat{p}),}\)
gdzie:
\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}X_{i}.}\)
\(\displaystyle{ \text{Var}(n, p) = n\cdot p \cdot (1 - p)}\)
Dla Pani rozkładu
\(\displaystyle{ n =1}\)
\(\displaystyle{ \text{Var}(1, \hat{p}) = \hat{p}\cdot (1 -\hat{p})}\)
\(\displaystyle{ \hat{\text{Var}(X_{1})} = X_{1}\cdot (1 - X_{1})}\)-- 24 sty 2018, o 23:42 --Chodzi Pani o estymator nieobciążony o minimalnej wariancji ENMW dla rozkładu \(\displaystyle{ X_{i}\sim Bin( 1, p).}\)
Ponieważ jak pokazaliśmy w poprzednim poście metodą największej wiarygodności - estymator
\(\displaystyle{ \hat{X} = \frac{1}{n}\sum_{i=1}^{n}X_{i}}\)
i funkcją zupełnej statystyki dostatecznej \(\displaystyle{ T}\),
jest więc estymatorem \(\displaystyle{ ENMW[\theta].}\)
Weźmy pod wagę wariancję \(\displaystyle{ g(\theta) = \theta\cdot (1-\theta)}\)
Statystyka \(\displaystyle{ T}\) ma rozkład dwumianowy:
\(\displaystyle{ P_{\theta}(T=t) = {n\choose t}\theta^{t}(1-\theta)^{n-t}.}\)
Problem wyznaczenia ENMW dla \(\displaystyle{ g(\theta)}\) sprowadza się do wyznaczenia funkcji \(\displaystyle{ U}\) takiej, że:
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\theta^{t}(1-\theta)^{n-t}=\theta(1-\theta),}\)
lub równoważnie:
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}\left(\frac{\theta}{1-\theta}\right)^{t} = \frac{\theta}{1-\theta}\cdot \frac{1}{(1-\theta)^{n-2}}, \ \ \theta\in \Theta.}\)
Oznaczmy przez \(\displaystyle{ v = \frac{\theta}{1-\theta}.}\)
Wówczas
\(\displaystyle{ \sum_{t=0}^{n} U(t){n\choose t}v^{t} = v(v+1)^{n-2}, \ \ v\in (0, \infty).}\)
Ponieważ
\(\displaystyle{ (v+1)^{n-2}=\sum_{t=0}^{n-2}{n-2 \choose t}v^{t}=\sum_{t=1}^{n-1}{n-2\choose t-1}v^{t-1},}\)
to otrzymujemy
\(\displaystyle{ \sum_{t=0}^{n}U(t){n\choose t}v^{t} = \sum_{t=1}^{n-1}{n-2 \choose t-1}v^{t},\ \ v\in(0, \infty).}\)
Porównując współczynniki obu wielomianów przy odpowiednich potegach, otrzymujemy
\(\displaystyle{ U(t){n\choose t} = {n-2 \choose t- 1}, \ \ t=1,2,...,n-1.}\)
Stąd
\(\displaystyle{ U(t) = \frac{{n-2 \choose t- 1}}{{n\choose t}} = \frac{(n-2)!t!(n-t)!}{(t-1)!(n-t-1)!n!}= \frac{t(n-t)}{n(n-1)}.}\)
\(\displaystyle{ U(0)= U(n) =0.}\)
Zatem statystyka:
\(\displaystyle{ U(T) = \frac{T(n-T)}{n(n-1)} = \frac{n}{n-1}[\overline{X}- (\overline{X})^2]}\)
jest \(\displaystyle{ ENMW[g(\theta)].}\)
Dla \(\displaystyle{ X_{i}\sim Bin (1, p)}\) otrzymujemy statystykę:
\(\displaystyle{ \hat{\theta} = \frac{n}{n-1}\cdot \hat{p}( 1- \hat{p}),}\)
gdzie:
\(\displaystyle{ \hat{p} = \frac{1}{n}\sum_{i=1}^{n}X_{i}.}\)