Obciążenie estymatora rozkładu wykładniczego

Procesy stochastyczne. Sposoby racjonalizowania wielkich ilości informacji. Matematyka w naukach społecznych.
Rafcio_srubka
Użytkownik
Użytkownik
Posty: 31
Rejestracja: 9 paź 2019, o 21:35
Płeć: Mężczyzna
wiek: 22
Podziękował: 17 razy

Obciążenie estymatora rozkładu wykładniczego

Post autor: Rafcio_srubka »

Witam,
mam obliczyć estymator rozkładu wykładniczego, wykazać, że jest on obiążony i obliczyć to obciążenie.

Obliczyłem estymator, wyszło mi: \(\displaystyle{ \hat{\theta} = \frac{1}{\tilde{x}} }\)

Wiem, że estymator jest nieobciążony, gdy wartość oczekiwana jest równa estymatorowi
Wartość oczekiwana w rozkładzie wykładniczym: \(\displaystyle{ EX= \frac{1}{\theta}}\)

I teraz nie za bardzo wiem jak to dalej pociągnąć. Napisać, że \(\displaystyle{ \frac{1}{\theta} \neq \frac{1}{\tilde{x}} }\) ?

Proszę o jakąś wskazówkę
janusz47
Użytkownik
Użytkownik
Posty: 7917
Rejestracja: 18 mar 2009, o 16:24
Płeć: Mężczyzna
Podziękował: 30 razy
Pomógł: 1671 razy

Re: Obciążenie estymatora rozkładu wykładniczego

Post autor: janusz47 »

\(\displaystyle{ X_{1}, X_{2}, ..., X_{n} \sim \mathcal{E}xp(\theta), \ \ \theta>0. }\) - próba prosta

Metodą Największej Wiarygodności (MNW) estymator parametru \(\displaystyle{ \theta }\)

\(\displaystyle{ \hat{\theta} = \frac{1}{\frac{1}{n}\sum_{i=1}^{n}X_{i}} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) (proszę sprawdzić).

Korzystamy z twierdzenia

Jeśli

\(\displaystyle{ X_{1}, X_{2}, ..., X_{n} \sim \mathcal{E}xp(\theta), \ \ \theta>0, }\) to \(\displaystyle{ X_{1}+X_{2} +...+X_{n} \sim Gamma(\theta, n) }\)

i własności

\(\displaystyle{ \Gamma(n+1) = n\cdot \Gamma(n), \ \ n\in\NN }\) ( proszę udowodnić).

\(\displaystyle{ \begin{align*}
E\bigg(\frac{n}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n}{x}\cdot \frac{\theta^{n-1}\cdot\theta}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{n}{n-1}\cdot\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\frac{n}{n-1}
\end{align*}}\)


Estymator \(\displaystyle{ \hat{\theta} = \frac{n}{\sum_{i=1}^{n}X_{i}} }\) nie jest estymator nieobciążonym rozkładu wykładniczego.

\(\displaystyle{ \begin{align*}
E\bigg(\frac{n-1}{\sum_{i=1}^{n}{X_i}}\bigg) &= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\lambda^n}{\Gamma(n)}\cdot x^{n-1}\cdot e^{-\lambda x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{(n-1)\cdot\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{n-1}{x}\cdot \frac{\theta^n}{\Gamma(n-1)}\cdot x^{n-1}\cdot e^{-\theta x}dx}\\
&= \int_{0}^{\infty}{\frac{\theta^{n-1}\cdot\theta}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta\cdot\int_{0}^{\infty}{\frac{\theta^{n-1}}{\Gamma(n-1)}\cdot x^{(n-1)-1}\cdot e^{-\theta x}dx}\\
&= \theta
\end{align*}.}\)


Estymator \(\displaystyle{ \hat{\theta^{*}} = \frac{n-1}{\sum_{i=1}^{n}X{i}} }\) jest estymator nieobciążonym rozkładu wykładniczego.

Dodano po 10 minutach 24 sekundach:
Różnicę \(\displaystyle{ B_{\theta} = E(\hat{\theta}) - \hat{\theta} }\) nazywamy obciążeniem estymatora parametru \(\displaystyle{ \theta.}\)
Rafcio_srubka
Użytkownik
Użytkownik
Posty: 31
Rejestracja: 9 paź 2019, o 21:35
Płeć: Mężczyzna
wiek: 22
Podziękował: 17 razy

Re: Obciążenie estymatora rozkładu wykładniczego

Post autor: Rafcio_srubka »

Bardzo dziękuję za pomoc.

Na wykładzie jeszcze miałem porównanie użycia estymatora \(\displaystyle{ \hat{\theta}}\) oraz \(\displaystyle{ \hat{\theta}}\)* na 1000 wygenerowanych próbach rozmiaru 2.
Zastanawiam się jak to zrobić samemu... chyba nie do końca jeszcze to rozumiem.

ENW polega na wybraniu maximum z próby, więc dla próby:
\(\displaystyle{ \lbrace{0.2,0.3}\rbrace,\lbrace{0.1,0.4}\rbrace,\lbrace{0.2,0.4}\rbrace,\lbrace{0.2,0.2}\rbrace,... }\)
w przypadku estymatora \(\displaystyle{ \hat{\theta}= \frac{n}{ \sum_{1000}^{i=1} X_{i}} }\) dzielimy wielkość próby przez maximum z próby czyli:
\(\displaystyle{ \lbrace{\frac{2}{0.3} , \frac{2}{0.4} , \frac{2}{0.4} , \frac{2}{0.2} , ... }\rbrace}\)

natomiast w przypadku estymatora \(\displaystyle{ \hat{\theta}*= \frac{n-1}{ \sum_{1000}^{i=1} X_{i}} }\):
\(\displaystyle{ \lbrace{\frac{1}{0.3} , \frac{1}{0.4} , \frac{1}{0.4} , \frac{1}{0.2} , ... }\rbrace}\)

i potem obliczając średnią z tych dwóch prób utworzonych przy uzyciu \(\displaystyle{ \hat{\theta}*}\) oraz \(\displaystyle{ \hat{\theta}}\) średnia z próby estymowanej \(\displaystyle{ \hat{\theta}*}\) powinna być "bliższa" prawdziwej średniej z próby?

Proszę mnie poprawić

Dodano po 1 godzinie 23 minutach 18 sekundach:
Rafcio_srubka pisze: 24 mar 2021, o 20:50
w przypadku estymatora \(\displaystyle{ \hat{\theta}= \frac{n}{ \sum_{1000}^{i=1} X_{i}} }\) dzielimy wielkość próby przez maximum z próby czyli:
\(\displaystyle{ \lbrace{\frac{2}{0.3} , \frac{2}{0.4} , \frac{2}{0.4} , \frac{2}{0.2} , ... }\rbrace}\)
Chyba tutaj jednak w mianowniku powinna być normalnie suma a nie maximum .. sam już nie wiem.
ODPOWIEDZ