Witam, czy mógłbym prosić o pomoc w rozwiązaniu ?
Niech \(\displaystyle{ \underline{X}_{n} = (X_{1},X_{2},...,X_{n})}\) będzie próbą prostą z populacji, w kórej cecha \(\displaystyle{ X}\) jest zmienną losową o dystrybuancie \(\displaystyle{ F}\) i skończonym momencie rzędu \(\displaystyle{ k, m_{k} = EX^{k}}\). Określmy estymator parametru \(\displaystyle{ m_{k}, \hat{m}_{k,n}}\) - \(\displaystyle{ k}\)-ty moment próbkowy , jako
\(\displaystyle{ \hat{m}_{k,n} = \frac{1}{n}\sum_{i=1}^{n}X_{i}^{k}.}\)
Pokazać, że estymator \(\displaystyle{ \hat{m}_{k,n}}\) jest nieobciążonym estymatorem parametru \(\displaystyle{ m_{k}}\). Wykorzystując mocne prawo wielkich liczb, pokazać, że \(\displaystyle{ \hat{m}_{k,n}}\) jest mocno zgodnym estymatorem parametru \(\displaystyle{ m_{k}}\).
Pokazać, że estymator mk,n jest nieobciążonym estymatorem
-
- Użytkownik
- Posty: 1
- Rejestracja: 22 kwie 2018, o 15:42
- Płeć: Mężczyzna
- Lokalizacja: Katowice
Pokazać, że estymator mk,n jest nieobciążonym estymatorem
Ostatnio zmieniony 22 kwie 2018, o 22:36 przez Jan Kraszewski, łącznie zmieniany 1 raz.
Powód: Używaj LaTeXa TYLKO do wyrażeń matematycznych.
Powód: Używaj LaTeXa TYLKO do wyrażeń matematycznych.
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5220 razy
Pokazać, że estymator mk,n jest nieobciążonym estymatorem
To jest proste zadanie. To, że estymator jest nieobciążony znaczy, że jego wartość oczekiwana równa jest estymowanemu parametrowi. Czyli należy pokazać, że gdy \(\displaystyle{ X, \ X_i}\) j.w. to
\(\displaystyle{ \mathbf{E}\left( \frac{1}{n}\sum_{i=1}^{n}X_{i}^{k}\right) =\mathbf{E}(X^k)}\), a to wystarczy skorzystać z liniowości wartości oczekiwanej.
W drugiej części powinno pomóc następujące twierdzenie, które pochodzi od Kołmogorowa (tak przynajmniej podali w swojej książce Panowie Jakubowski i Sztencel):
jeśli \(\displaystyle{ (X_n)_{n=1}^{\infty}}\) jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie oraz \(\displaystyle{ \mathbf{E}|X_1|<\infty}\), to ciąg \(\displaystyle{ (X_n)}\) spełnia mocne prawo wielkich liczb. Stosujesz to twierdzenie do ciągu \(\displaystyle{ (X_n^k)_{n=1}^{\infty}}\).
Mocna zgodność to zbieżność prawie na pewno.
\(\displaystyle{ \mathbf{E}\left( \frac{1}{n}\sum_{i=1}^{n}X_{i}^{k}\right) =\mathbf{E}(X^k)}\), a to wystarczy skorzystać z liniowości wartości oczekiwanej.
W drugiej części powinno pomóc następujące twierdzenie, które pochodzi od Kołmogorowa (tak przynajmniej podali w swojej książce Panowie Jakubowski i Sztencel):
jeśli \(\displaystyle{ (X_n)_{n=1}^{\infty}}\) jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie oraz \(\displaystyle{ \mathbf{E}|X_1|<\infty}\), to ciąg \(\displaystyle{ (X_n)}\) spełnia mocne prawo wielkich liczb. Stosujesz to twierdzenie do ciągu \(\displaystyle{ (X_n^k)_{n=1}^{\infty}}\).
Mocna zgodność to zbieżność prawie na pewno.