Witam,
mam obliczyć estymator rozkładu wykładniczego, wykazać, że jest on obiążony i obliczyć to obciążenie.
Obliczyłem estymator, wyszło mi: \(\displaystyle{ \hat{\theta} = \frac{1}{\tilde{x}} }\)
Wiem, że estymator jest nieobciążony, gdy wartość oczekiwana jest równa estymatorowi
Wartość oczekiwana w rozkładzie wykładniczym: \(\displaystyle{ EX= \frac{1}{\theta}}\)
I teraz nie za bardzo wiem jak to dalej pociągnąć. Napisać, że \(\displaystyle{ \frac{1}{\theta} \neq \frac{1}{\tilde{x}} }\) ?
Proszę o jakąś wskazówkę
Obciążenie estymatora rozkładu wykładniczego
-
- Użytkownik
- Posty: 31
- Rejestracja: 9 paź 2019, o 21:35
- Płeć: Mężczyzna
- wiek: 22
- Podziękował: 17 razy
-
- Użytkownik
- Posty: 7917
- Rejestracja: 18 mar 2009, o 16:24
- Płeć: Mężczyzna
- Podziękował: 30 razy
- Pomógł: 1671 razy
Re: Obciążenie estymatora rozkładu wykładniczego
\(\displaystyle{ X_{1}, X_{2}, ..., X_{n} \sim \mathcal{E}xp(\theta), \ \ \theta>0. }\) - próba prosta
Metodą Największej Wiarygodności (MNW) estymator parametru \(\displaystyle{ \theta }\)
\(\displaystyle{ \hat{\theta} = \frac{1}{\frac{1}{n}\sum_{i=1}^{n}X_{i}} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) (proszę sprawdzić).
Korzystamy z twierdzenia
Jeśli
\(\displaystyle{ X_{1}, X_{2}, ..., X_{n} \sim \mathcal{E}xp(\theta), \ \ \theta>0, }\) to \(\displaystyle{ X_{1}+X_{2} +...+X_{n} \sim Gamma(\theta, n) }\)
i własności
\(\displaystyle{ \Gamma(n+1) = n\cdot \Gamma(n), \ \ n\in\NN }\) ( proszę udowodnić).
\(\displaystyle{ \begin{align*}
E\bigg(\frac{n}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^{n-1}\cdot\theta}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{n}{n-1}\cdot\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}
\end{align*}}\)
Estymator \(\displaystyle{ \hat{\theta} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) nie jest estymator nieobciążonym rozkładu wykładniczego.
\(\displaystyle{ \begin{align*}
E\bigg(\frac{n-1}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\lambda^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\lambda x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{\theta^{n-1}\cdot\theta}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta
\end{align*}.}\)
Estymator \(\displaystyle{ \hat{\theta^{*}} = \frac{n-1}{\sum_{i=1}^{n}X{i}} }\) jest estymator nieobciążonym rozkładu wykładniczego.
Dodano po 10 minutach 24 sekundach:
Różnicę \(\displaystyle{ B_{\theta} = E(\hat{\theta}) - \hat{\theta} }\) nazywamy obciążeniem estymatora parametru \(\displaystyle{ \theta.}\)
Metodą Największej Wiarygodności (MNW) estymator parametru \(\displaystyle{ \theta }\)
\(\displaystyle{ \hat{\theta} = \frac{1}{\frac{1}{n}\sum_{i=1}^{n}X_{i}} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) (proszę sprawdzić).
Korzystamy z twierdzenia
Jeśli
\(\displaystyle{ X_{1}, X_{2}, ..., X_{n} \sim \mathcal{E}xp(\theta), \ \ \theta>0, }\) to \(\displaystyle{ X_{1}+X_{2} +...+X_{n} \sim Gamma(\theta, n) }\)
i własności
\(\displaystyle{ \Gamma(n+1) = n\cdot \Gamma(n), \ \ n\in\NN }\) ( proszę udowodnić).
\(\displaystyle{ \begin{align*}
E\bigg(\frac{n}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^{n-1}\cdot\theta}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{n}{n-1}\cdot\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}
\end{align*}}\)
Estymator \(\displaystyle{ \hat{\theta} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) nie jest estymator nieobciążonym rozkładu wykładniczego.
\(\displaystyle{ \begin{align*}
E\bigg(\frac{n-1}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\lambda^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\lambda x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{\theta^{n-1}\cdot\theta}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta
\end{align*}.}\)
Estymator \(\displaystyle{ \hat{\theta^{*}} = \frac{n-1}{\sum_{i=1}^{n}X{i}} }\) jest estymator nieobciążonym rozkładu wykładniczego.
Dodano po 10 minutach 24 sekundach:
Różnicę \(\displaystyle{ B_{\theta} = E(\hat{\theta}) - \hat{\theta} }\) nazywamy obciążeniem estymatora parametru \(\displaystyle{ \theta.}\)
-
- Użytkownik
- Posty: 31
- Rejestracja: 9 paź 2019, o 21:35
- Płeć: Mężczyzna
- wiek: 22
- Podziękował: 17 razy
Re: Obciążenie estymatora rozkładu wykładniczego
Bardzo dziękuję za pomoc.
Na wykładzie jeszcze miałem porównanie użycia estymatora \(\displaystyle{ \hat{\theta}}\) oraz \(\displaystyle{ \hat{\theta}}\)* na 1000 wygenerowanych próbach rozmiaru 2.
Zastanawiam się jak to zrobić samemu... chyba nie do końca jeszcze to rozumiem.
ENW polega na wybraniu maximum z próby, więc dla próby:
\(\displaystyle{ \lbrace{0.2,0.3}\rbrace,\lbrace{0.1,0.4}\rbrace,\lbrace{0.2,0.4}\rbrace,\lbrace{0.2,0.2}\rbrace,... }\)
w przypadku estymatora \(\displaystyle{ \hat{\theta}= \frac{n}{ \sum_{1000}^{i=1} X_{i}} }\) dzielimy wielkość próby przez maximum z próby czyli:
\(\displaystyle{ \lbrace{\frac{2}{0.3} , \frac{2}{0.4} , \frac{2}{0.4} , \frac{2}{0.2} , ... }\rbrace}\)
natomiast w przypadku estymatora \(\displaystyle{ \hat{\theta}*= \frac{n-1}{ \sum_{1000}^{i=1} X_{i}} }\):
\(\displaystyle{ \lbrace{\frac{1}{0.3} , \frac{1}{0.4} , \frac{1}{0.4} , \frac{1}{0.2} , ... }\rbrace}\)
i potem obliczając średnią z tych dwóch prób utworzonych przy uzyciu \(\displaystyle{ \hat{\theta}*}\) oraz \(\displaystyle{ \hat{\theta}}\) średnia z próby estymowanej \(\displaystyle{ \hat{\theta}*}\) powinna być "bliższa" prawdziwej średniej z próby?
Proszę mnie poprawić
Dodano po 1 godzinie 23 minutach 18 sekundach:
Na wykładzie jeszcze miałem porównanie użycia estymatora \(\displaystyle{ \hat{\theta}}\) oraz \(\displaystyle{ \hat{\theta}}\)* na 1000 wygenerowanych próbach rozmiaru 2.
Zastanawiam się jak to zrobić samemu... chyba nie do końca jeszcze to rozumiem.
ENW polega na wybraniu maximum z próby, więc dla próby:
\(\displaystyle{ \lbrace{0.2,0.3}\rbrace,\lbrace{0.1,0.4}\rbrace,\lbrace{0.2,0.4}\rbrace,\lbrace{0.2,0.2}\rbrace,... }\)
w przypadku estymatora \(\displaystyle{ \hat{\theta}= \frac{n}{ \sum_{1000}^{i=1} X_{i}} }\) dzielimy wielkość próby przez maximum z próby czyli:
\(\displaystyle{ \lbrace{\frac{2}{0.3} , \frac{2}{0.4} , \frac{2}{0.4} , \frac{2}{0.2} , ... }\rbrace}\)
natomiast w przypadku estymatora \(\displaystyle{ \hat{\theta}*= \frac{n-1}{ \sum_{1000}^{i=1} X_{i}} }\):
\(\displaystyle{ \lbrace{\frac{1}{0.3} , \frac{1}{0.4} , \frac{1}{0.4} , \frac{1}{0.2} , ... }\rbrace}\)
i potem obliczając średnią z tych dwóch prób utworzonych przy uzyciu \(\displaystyle{ \hat{\theta}*}\) oraz \(\displaystyle{ \hat{\theta}}\) średnia z próby estymowanej \(\displaystyle{ \hat{\theta}*}\) powinna być "bliższa" prawdziwej średniej z próby?
Proszę mnie poprawić
Dodano po 1 godzinie 23 minutach 18 sekundach:
Chyba tutaj jednak w mianowniku powinna być normalnie suma a nie maximum .. sam już nie wiem.Rafcio_srubka pisze: ↑24 mar 2021, o 20:50
w przypadku estymatora \(\displaystyle{ \hat{\theta}= \frac{n}{ \sum_{1000}^{i=1} X_{i}} }\) dzielimy wielkość próby przez maximum z próby czyli:
\(\displaystyle{ \lbrace{\frac{2}{0.3} , \frac{2}{0.4} , \frac{2}{0.4} , \frac{2}{0.2} , ... }\rbrace}\)