Nierówność Kołmogorowa

Definicja klasyczna. Prawdopodobieństwo warunkowe i całkowite. Zmienne losowe i ich parametry. Niezależność. Prawa wielkich liczb oraz centralne twierdzenia graniczne i ich zastosowania.
Awatar użytkownika
leszczu450
Użytkownik
Użytkownik
Posty: 4414
Rejestracja: 10 paź 2012, o 23:20
Płeć: Mężczyzna
Lokalizacja: Toruń
Podziękował: 1589 razy
Pomógł: 364 razy

Nierówność Kołmogorowa

Post autor: leszczu450 »

Cześć !

Mam problem ze zrozumieniem kilku kroków w dowodzie tej nierówności.

Twierdzenie:

Niech \(\displaystyle{ X_1, \ldots , X_n}\) będzie ciągiem niezależnych zmiennych losowych o skończonych wariancjach. Dla każdego \(\displaystyle{ \varepsilon >0}\) zachodzi:

\(\displaystyle{ P\left(\max_{1 \le k \le n}\left| \sum_{i=1}^{k}\left( X_i - EX_i\right) \right| \ge \varepsilon \right) \le \frac{ \sum_{k=1}^{n}D^2(X_k) }{{\varepsilon}^2}}\)

Dowód:

Bez zmniejszania ogólności możemy założyć, że \(\displaystyle{ EX_k=0}\) dla \(\displaystyle{ k=1, \ldots , n}\). Oznaczmy \(\displaystyle{ S_k= \sum_{i=1}^{k}X_i}\) oraz:

\(\displaystyle{ A_k=\left\{ \left| S_i\right|< \varepsilon \ \text{dla} \ i=1, \ldots k-1 , \left| S_k\right| \ge \varepsilon \right\}}\)

\(\displaystyle{ A=\left\{ \max_{1 \le k \le n} |S_k| \ge \varepsilon\right\}}\)

Oczywiście \(\displaystyle{ A= \bigcup_{k=1}^{n}A_k}\), gdzie \(\displaystyle{ A_k}\) to rozłączne zbiory. Ponieważ z niezależności zmiennych losowych \(\displaystyle{ S_k 1_{A_k}}\) i \(\displaystyle{ S_n - S_k}\)

\(\displaystyle{ ES_k 1_{A_k}(S_n - S_k)= ES_k 1_{A_k}E(S_n - S_k)=0}\)

więc

\(\displaystyle{ ES_n^2 1_{A_k}= E(S_n - S_k + S_k)^2 1_{A_k}= ES_k^2 1_{A_k} + 2ES_k(S_n-S_k)1_{A_k} + E(S_n-S_k)^2 1_{A_k}=ES_k^2 1_{A_k}+ E(S_n-S_k)^2 1_{A_k} \ge ES_k^2 1_{A_k} \ge {\varepsilon}^2 P(A_k)}\).

Stąd:

\(\displaystyle{ P(A)= \sum_{k=1}^{n}P(A_k)= \frac{1}{{\varepsilon}^2} \sum_{k=1}^{n}{\varepsilon}^2 P(A_k) \le \frac{1}{{\varepsilon}^2} \sum_{k=1}^{n}ES_n^2 1_{A_k}= \frac{1}{{\varepsilon}^2} ES_n^2= \frac{ \sum_{k=1}^{n}D^2 (X_k) }{{\varepsilon}^2}}\)

\(\displaystyle{ \blacksquare}\)


Moje pytania:

1. Dlaczego mogę założyć, że wszystkie wartości oczekiwane są zerowe? Czy to nie jest dość mocne uproszczenie?
2.
Ponieważ z niezależności zmiennych losowych \(\displaystyle{ S_k 1_{A_k}}\) i \(\displaystyle{ S_n - S_k}\)

\(\displaystyle{ ES_k 1_{A_k}(S_n - S_k)= ES_k 1_{A_k}E(S_n - S_k)=0}\)
Dlaczego te zmienne są niezależne i dlaczego ta wartość oczekiwana równa jest \(\displaystyle{ 0}\) ?

3.
\(\displaystyle{ ES_k^2 1_{A_k} \ge {\varepsilon}^2 P(A_k)}\)
Skad ta nierówność ?

4.
\(\displaystyle{ \frac{1}{{\varepsilon}^2} \sum_{k=1}^{n}ES_n^2 1_{A_k}= \frac{1}{{\varepsilon}^2} ES_n^2}\)
Skąd ta równość ?

Z góry dziękuję za pomoc : )
bartek118
Użytkownik
Użytkownik
Posty: 5974
Rejestracja: 28 lut 2010, o 19:45
Płeć: Mężczyzna
Lokalizacja: Toruń
Podziękował: 15 razy
Pomógł: 1251 razy

Nierówność Kołmogorowa

Post autor: bartek118 »

1. Wystarczy podstawić \(\displaystyle{ Y_i = X_i - \mathbb{E}X_i}\) i kontynuować dowód dla \(\displaystyle{ Y_i}\).

2. \(\displaystyle{ S_n - S_k = X_{k+1} + \ldots + X_n}\) - nie ma tu zależności od \(\displaystyle{ S_k = X_1 + \ldots + X_k}\).

3. Na zbiorze \(\displaystyle{ A_k}\) masz \(\displaystyle{ |S_k| \geq \varepsilon}\). Zatem \(\displaystyle{ \mathbb{E}S_k^2 \mathbf{1}_{A_k} \geq \mathbb{E} \varepsilon^2 \mathbf{1}_{A_k} = \varepsilon^2 \mathbb{E}\mathbf{1}_{A_k} = \varepsilon^2 \mathbb{P}(A_k)}\).

4.
\(\displaystyle{ \frac{1}{{\varepsilon}^2} \sum_{k=1}^{n}\mathbb{E}S_n^2 \mathbf{1}_{A_k} = \frac{1}{{\varepsilon}^2} \mathbb{E} \left( S_n^2 \sum_{k=1}^{n} \mathbf{1}_{A_k} \right) = \frac{1}{{\varepsilon}^2} \mathbb{E} \left( S_n^2 \cdot 1 \right) = \frac{1}{{\varepsilon}^2} \mathbb{E} S_n^2}\)
Awatar użytkownika
leszczu450
Użytkownik
Użytkownik
Posty: 4414
Rejestracja: 10 paź 2012, o 23:20
Płeć: Mężczyzna
Lokalizacja: Toruń
Podziękował: 1589 razy
Pomógł: 364 razy

Nierówność Kołmogorowa

Post autor: leszczu450 »

bartek118, dzięki ! : )
ODPOWIEDZ