Proszę o pomoc w następującym problemie.
Dowieść, że wartość oczekiwana z wariancji empirycznej (poprawionej) jest równa wariancji teoretycznej, czyli, że
\(\displaystyle{ E \hat{S}^{2}=D^{2}(X)}\)
dla
\(\displaystyle{ \hat{S}^{2}=\frac{1}{n-1} \sum_{k=1}^{n} (X_{k}-\overline{X}) ^{2}.}\)
Napiszę, co wydedukowałem do tej pory i gdzie się zatrzymałem.
Otóż wariancję empiryczną możemy rozpisać jako:
\(\displaystyle{ \hat{S}^{2}=\frac{1}{n-1} \sum_{k=1}^{n} X_{k}^{2}-\frac{n}{n-1}\overline{X} ^{2}.}\)
Stąd mamy:
\(\displaystyle{ E \hat{S}^{2}=E (\frac{1}{n-1} \sum_{k=1}^{n} X_{k}^{2}-\frac{n}{n-1}\overline{X}^{2})=\frac{1}{n-1} \sum_{k=1}^{n} E X_{k}^{2}-\frac{n}{n-1} E\overline{X}^{2}=\frac{n}{n-1} E X^{2}-\frac{n}{n-1} E (\frac{1}{n} \sum_{k=1}^{n} X_{k} )^{2}=\frac{n}{n-1} E X^{2}-\frac{1}{n(n-1)} E (\sum_{k=1}^{n} X_{k} )^{2}.}\)
Dalej korzystając z tego, że
\(\displaystyle{ ( \sum_{k=1}^{n} X_{k})^{2}= \sum_{k=1}^{n}X_{k}^{2}+2 \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j},}\)
mam:
\(\displaystyle{ E \hat{S}^{2}=\frac{n}{n-1} E X^{2}-\frac{1}{n(n-1)} E \sum_{k=1}^{n} X_{k}^{2}-\frac{2}{n(n-1)} E \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j} =\frac{n}{n-1} E X^{2}-\frac{1}{n-1} E X^{2}-\frac{2}{n(n-1)} E \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}=E X^{2}-\frac{2}{n(n-1)} E \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}}\)
Pozostało więc pokazać, że
\(\displaystyle{ \frac{2}{n(n-1)} E \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}=E^{2}X}\)
Niestety nie wiem jak to zrobić
Wariancja empiryczna a wariancja teoretyczna.
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5221 razy
Wariancja empiryczna a wariancja teoretyczna.
Nie sądzę, by takie koszmarne obliczenia były konieczne, nie wiem, czy nie prościej byłoby zauważyć, że \(\displaystyle{ (X_k-\overline X)^2=(X_k-\mathbf{E}X)^2+2\left( X_k-\mathbf{E}X\right) \left(\mathbf{E}X-\overline X \right) +(\mathbf{E}X-\overline X)^2}\)
- alem tego nie sprawdzał, bo mam ochotę na film.
Natomiast Twój prolbem:
Zacznijmy od tego, że tę sumę podwójną:
\(\displaystyle{ \mathbf{E} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}}\) zapiszemy jako pojedynczą:
\(\displaystyle{ \mathbf{E} \sum_{1\le k<j\le n}^{}X_k X_j}\)
- zauważmy tu, że elementów tej sumy jest dokładnie \(\displaystyle{ {n \choose 2}}\), bo parujemy wszystkie \(\displaystyle{ X_k, X_j}\) o różnych indeksach dokładnie raz.
Zatem z liniowości wartości oczekiwanej mamy
\(\displaystyle{ \mathbf{E} \sum_{1\le k<j\le n}^{}X_k X_j= \sum_{1\le k<j\le n}^{} \mathbf{E}X_k X_j= \sum_{1\le k<j\le n}^{} \mathbf{E}X_k \mathbf{E} X_j}\)
- w ostatniej z tych równości skorzystaliśmy z niezależności zmiennych losowych \(\displaystyle{ X_k, X_j}\). Teraz dla wszystkich \(\displaystyle{ k, j}\) mamy \(\displaystyle{ \mathbf{E}X_k =\mathbf{E}X_j=\mathbf{E}X}\), więc każdy składnik tej sumy jest równy
\(\displaystyle{ (\mathbf{E}X)^2}\). Składników jest \(\displaystyle{ {n \choose 2}}\) (oczywista interpretacja kombinatoryczna), toteż ostatecznie:
\(\displaystyle{ \mathbf{E} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}={n \choose 2}(\mathbf{E}X)^2}\),
czyli
\(\displaystyle{ \frac{2}{n(n-1)} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}=(\mathbf{E}X)^2}\),
bo \(\displaystyle{ {n \choose 2}=\frac{n(n-1)}{2}}\),
a tego właśnie potrzebowałeś.
- alem tego nie sprawdzał, bo mam ochotę na film.
Natomiast Twój prolbem:
jest iście trywialny i mam nadzieję, że zaraz to klarownie wyjaśnię. Jak rozumiem, zmienne losowe \(\displaystyle{ X_1, \dots X_n}\) sa niezależne i o tym samym rozkładzie, co \(\displaystyle{ X}\).Pozostało więc pokazać, że
\(\displaystyle{ \frac{2}{n(n-1)} E \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}=E^{2}X}\)
Zacznijmy od tego, że tę sumę podwójną:
\(\displaystyle{ \mathbf{E} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}}\) zapiszemy jako pojedynczą:
\(\displaystyle{ \mathbf{E} \sum_{1\le k<j\le n}^{}X_k X_j}\)
- zauważmy tu, że elementów tej sumy jest dokładnie \(\displaystyle{ {n \choose 2}}\), bo parujemy wszystkie \(\displaystyle{ X_k, X_j}\) o różnych indeksach dokładnie raz.
Zatem z liniowości wartości oczekiwanej mamy
\(\displaystyle{ \mathbf{E} \sum_{1\le k<j\le n}^{}X_k X_j= \sum_{1\le k<j\le n}^{} \mathbf{E}X_k X_j= \sum_{1\le k<j\le n}^{} \mathbf{E}X_k \mathbf{E} X_j}\)
- w ostatniej z tych równości skorzystaliśmy z niezależności zmiennych losowych \(\displaystyle{ X_k, X_j}\). Teraz dla wszystkich \(\displaystyle{ k, j}\) mamy \(\displaystyle{ \mathbf{E}X_k =\mathbf{E}X_j=\mathbf{E}X}\), więc każdy składnik tej sumy jest równy
\(\displaystyle{ (\mathbf{E}X)^2}\). Składników jest \(\displaystyle{ {n \choose 2}}\) (oczywista interpretacja kombinatoryczna), toteż ostatecznie:
\(\displaystyle{ \mathbf{E} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}={n \choose 2}(\mathbf{E}X)^2}\),
czyli
\(\displaystyle{ \frac{2}{n(n-1)} \sum_{k=1}^{n-1} \sum_{j=k+1}^{n}X_{k}X_{j}=(\mathbf{E}X)^2}\),
bo \(\displaystyle{ {n \choose 2}=\frac{n(n-1)}{2}}\),
a tego właśnie potrzebowałeś.
-
- Użytkownik
- Posty: 7
- Rejestracja: 4 lis 2016, o 14:39
- Płeć: Mężczyzna
- Lokalizacja: Kraków
- Podziękował: 2 razy
Wariancja empiryczna a wariancja teoretyczna.
Wielkie dzięki!
- Tak jest, zapomniałem napisać, że mamy do czynienia z próbą prostą.Jak rozumiem, zmienne losowe X_1, dots X_n sa niezależne i o tym samym rozkładzie, co X.