Zbieżność prawie na pewno i według prawdopodobieństwa

Definicja klasyczna. Prawdopodobieństwo warunkowe i całkowite. Zmienne losowe i ich parametry. Niezależność. Prawa wielkich liczb oraz centralne twierdzenia graniczne i ich zastosowania.
Majeskas
Użytkownik
Użytkownik
Posty: 1456
Rejestracja: 14 gru 2007, o 14:36
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 49 razy
Pomógł: 198 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Majeskas »

Zmienne losowe \(\displaystyle{ X_n}\) są niezależne, przy czym \(\displaystyle{ X_n}\) ma rozkład geometryczny z parametrem \(\displaystyle{ p_n=\frac{n^2}{n^2+1}}\), tzn. \(\displaystyle{ \mathbb{P}(X_n=k)=(1-p_n)^{k-1}p_n}\), \(\displaystyle{ k=1,2,\ \ldots}\) Wykazać, że ciąg zmiennych losowych \(\displaystyle{ X_n}\) jest zbieżny według prawdopodobieństwa do zmiennej losowej prawie na pewno równej \(\displaystyle{ 1}\). Rozstrzygnąć, czy ciąg ten jest zbieżny prawie na pewno.

Wszelkie wskazówki mile widziane, bo nawet nie wiem, jak zacząć.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Premislav »

Część pierwsza szłaby chyba jakoś tak: zauważmy, że \(\displaystyle{ \mathbb{E}X_{n}= \frac{1}{p_{n}}= \frac{n^{2}+1}{n^{2}}}\) (jak ktoś tego nie kojarzy z podstawowych wiadomości o rozkładzie geometrycznym, to można policzyć np. zmieniając kolejność sumowania bądź stosując tw. o różniczkowaniu szeregu potęgowego wyraz po wyrazie). Teraz ustalmy dowolne \(\displaystyle{ \epsilon>0}\). Z nierówności Czebyszewa-Bienayme (czy jak to tam się pisze, nie śmigam w jakichś frankofońskich nazwiskach) mamy , że
\(\displaystyle{ \mathbb{P}\left(\left|X_{n}- \frac{n^{2}+1}{n^{2}}\right| \ge \epsilon \right) \le \frac{Var X_{n}}{\epsilon^{2}}}\), no i łatwo policzyć, że np. \(\displaystyle{ Var X_{n} \le \frac{4}{n^{2}}}\).
Stąd dla tegoż ustalonego \(\displaystyle{ \epsilon>0}\) mamy \(\displaystyle{ \lim_{n \to \infty } \mathbb{P}\left( \left|X_{n}- \frac{n^{2}+1}{n^{2}} \right|\ge \epsilon \right)=0}\), a więc... (do dokończenia).

Część druga wygląda na odrobinę bardziej wymagającą. Może ustalmy dowolne \(\displaystyle{ \delta>0}\) i rozpatrzmy szereg \(\displaystyle{ \sum_{n=1}^{ \infty } \mathbb{P}(\left|X_{n}-1\right| \ge \delta)}\). Z wcześniejszych rozważań (zauważmy, że Czebyszew-Bienayme dla ciągu z. losowych \(\displaystyle{ Y_{n}=X_{n}-1}\) jest identyczny jak w powyższych, bo \(\displaystyle{ \mathbb{E}(X-1)=\mathbb{E}X-1}\) oraz \(\displaystyle{ Var(X-1)=Var X}\)+dokładamy kryterium porównawcze) wynika, że jest on zbieżny, a zatem z prawdopodobieństwem 1 zachodzi jedynie skończona liczba zdarzeń "\(\displaystyle{ \left| X_{n}-1\right| \ge \delta}\)".
Pozdrawiam. Chętnie się dowiem, czy to się jakoś trzyma kupy, a jeśli nie, to jakie jest możliwe rozwiązanie.-- 9 wrz 2015, o 01:31 --Jakoś mam przeczucie, że tu czai się blef, ale o tej porze nie mogę go znaleźć. Może po wyspaniu się spojrzę świeższym okiem na ten problem.
Majeskas
Użytkownik
Użytkownik
Posty: 1456
Rejestracja: 14 gru 2007, o 14:36
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 49 razy
Pomógł: 198 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Majeskas »

Dziękuję za pomoc. Skąd "łatwe" oszacowanie \(\displaystyle{ \textrm{Var}X_n\le\frac4{n^2}}\)? Ja po prostu obliczyłem tę wariancję; wyszła \(\displaystyle{ \frac1{n^2}+\frac1{n^4}}\), tak że oszacowanie jest dobre, ale przypuszczam, że znalazłeś je jakoś łatwiej, bez zabaw z szeregami potęgowymi. Byłbym wdzięczny, gdybyś doprowadził to rozwiązanie do końca, bo te zbieżności sprawiają mi kłopot. Kiedy się nad tym zastanowiłem, nie wiem nawet, jak sformułować tezę. Czy tak:
\(\displaystyle{ \forall\varepsilon>0\quad\lim_{n\to\infty}\mathbb{P}(|X_n-X|>\varepsilon)=0}\), gdzie \(\displaystyle{ \mathbb{P}(X=1)=1}\), czy można jakoś prościej?

Co do drugiej części to rozumiem, że idea jest taka, żeby skorzystać z lematu Borela-Cantellego, ale też nie umiem uzupełnić szczegółów tego rozumowania.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Premislav »

Twoje sformułowanie tezy było OK. Winny jestem przeprosiny, Majeskas, bo analizując na spokojnie, stwierdziłem, że moje "rozwiązanie" się sypie, więc w sumie to mogłem Cię sprowadzić na manowce, ale wstydziłem się napisać, dopóki nie wymyślę jakiejś alternatywy.

No to tak: skoro mamy niezależność z.losowych \(\displaystyle{ X_{n}}\), to od razu jakoś z niej skorzystajmy.
Ponieważ \(\displaystyle{ \mathbb{E}X^{2}= \frac{(n^{2}+1)^{2}}{n^{4}} \le 2}\) oraz \(\displaystyle{ \sum_{n=1}^{ \infty } \frac{Var X_{n}}{n^{2}}}\) jest zbieżny (BTW nie pamiętam, jak szacowałem tę wariancję, ale Twoje obliczenia na pewno są poprawne), no i \(\displaystyle{ (X_{n})_{n \in \NN^{+}}}\) jest ciągiem niezależnych zmiennych losowych, zatem z MPWL Kołmogorowa mamy, że \(\displaystyle{ \lim_{n \to \infty } \frac{1}{n} \sum_{k=1}^{n}X_{k}-\mathbb{E}X_{k}=0 \text{ p.n.}}\). Używając twierdzenia Stolza, dostajemy wniosek, że \(\displaystyle{ \lim_{n \to \infty }X_{n}-\mathbb{E}X_{n}=0 \text{ p.n.}}\)
Wobec tego (uwaga: skoro \(\displaystyle{ \mathbb{P}(X=1)=1}\), to wszędzie, gdzie się pojawia prawdopodobieństwo, od razu możemy zastąpić \(\displaystyle{ X}\) przez \(\displaystyle{ 1}\)) ustalmy dowolne \(\displaystyle{ \epsilon>0}\). Mamy
\(\displaystyle{ \mathbb{P}(\left| X_{n}-1\right| \ge \epsilon )=\mathbb{P}(\left| X_{n}-\mathbb{E}X_{n}+\mathbb{E}X_{n}-1\right| \ge \epsilon ) \le\\ \le \mathbb{P}(\left|X_{n}-\mathbb{E}X_{n} \right|+\left|\mathbb{E}X_{n}-1 \right| \ge \epsilon )=\mathbb{P}\left(\left| X_{n}-\mathbb{E}X_{n}\right| \ge \epsilon- \frac{1}{n^{2}}\right)}\). Ponieważ zaś, jak wcześniej napisałem, dostaliśmy
\(\displaystyle{ \lim_{n \to \infty }X_{n}-\mathbb{E}X_{n}=0 \text{ p.n.}}\) oraz dla dowolnego ustalonego \(\displaystyle{ \epsilon>0}\) i dostatecznie dużych \(\displaystyle{ n}\) mamy np. \(\displaystyle{ \epsilon- \frac{1}{n^{2}} \ge \frac{\epsilon}{2}}\), to musi być \(\displaystyle{ \lim_{n \to \infty }\mathbb{P}\left(\left| X_{n}-\mathbb{E}X_{n}\right| \ge \epsilon- \frac{1}{n^{2}}\right)=0}\), a więc i
\(\displaystyle{ \lim_{n \to \infty } \mathbb{P}(\left| X_{n}-1\right| \ge \epsilon )=0}\), co było do udowodnienia.

No a drugiej części nie mogę na razie pokonać, jak coś jeszcze wymyślę, to napiszę.

-- 12 wrz 2015, o 14:12 --

Ajajaj, źle wyliczyłem drugi moment \(\displaystyle{ X_{n}}\), ale grunt że jest on ograniczony!-- 12 wrz 2015, o 14:17 --No to dla spokoju sumienia: skoro, jak sobie wczoraj policzyłem, dla zmiennej losowej \(\displaystyle{ X\sim Geo(p)}\) mamy
\(\displaystyle{ \mathbb{E}X= \frac{1}{p}}\) oraz \(\displaystyle{ Var X= \frac{1-p}{p^{2}}}\), to \(\displaystyle{ \mathb{E}X^{2}= \frac{2-p}{p^{2}}}\), podstawiając \(\displaystyle{ p= \frac{n^{2}}{n^{2}+1}}\), dostajemy \(\displaystyle{ \mathb{E}X_{n}^{2}= \frac{n^{2}+2}{n^{2}+1} \frac{(n^{2}+1)^{2}}{n^{4}}= \frac{(n^{2}+1)(n^{2}+2)}{n^{4}} \le 3}\)
Majeskas
Użytkownik
Użytkownik
Posty: 1456
Rejestracja: 14 gru 2007, o 14:36
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 49 razy
Pomógł: 198 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Majeskas »

Premislav pisze:no i \(\displaystyle{ (X_{n})_{n \in \NN^{+}}}\) jest ciągiem niezależnych zmiennych losowych, zatem z MPWL Kołmogorowa mamy, że
Skorzystanie z MPWL wymaga założenia, że \(\displaystyle{ (X_n)}\) jest ciągiem zmiennych losowych o tym samym rozkładzie, a w wypadku ciągu z zadania tak nie jest.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Premislav »

To, co piszesz, to chyba nieprawda. Przynajmniej ja trafiłem na sformułowanie, które nie korzysta z tego, że mają ten sam rozkład (Jakubowski i Sztencel, Wstęp do Teorii Prawdopodobieństwa, w Wydaniu II
jest to strona numer 157).
Majeskas
Użytkownik
Użytkownik
Posty: 1456
Rejestracja: 14 gru 2007, o 14:36
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 49 razy
Pomógł: 198 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Majeskas »

Masz chyba na myśli twierdzenie Kołmogorowa, natomiast treść mocnego prawa wielkich liczb znajduje się na kolejnej stronie i w założeniach ma jednakowy rozkład ciągu zmiennych.-- 12 września 2015, 22:27 --Ale może do Twojego rozwiązania wystarczy to twierdzenie ze 157. Jutro będę to kontemplował.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Premislav »

O, masz rację, przepraszam, nie umiem czytać. Ale chyba rozwiązanie pierwszej części jest poprawne, mimo że użyłem nie tego twierdzenia, którego nazwę podałem.

Ciekawsze wydaje się to, jak się przedstawia rozwiązanie drugiej części.
Poprawiłem koszmarny błąd z przecinkiem, ale niestety rozwiązanie drugiej części nie przychodzi mi do głowy (bo jest ona pusta).-- 15 wrz 2015, o 20:57 --Trochę to potrwało i sam się dziwię, że to może być tak proste, ale:
ustalmy dowolne \(\displaystyle{ \epsilon >0}\) (większym się nie przejmujemy, bo mamy monotoniczność miary probabilistycznej). Zmienne losowe \(\displaystyle{ Y_{n}=X_{n}-1}\) przyjmują wartość zero z prawdopodobieństwem \(\displaystyle{ p_{n}= \frac{n^{2}}{n^{2}+1}}\) (bo \(\displaystyle{ X_{n}}\) przyjmuje wartość \(\displaystyle{ 1}\) z takim prawdopodobieństwem).
Wobec tego szereg \(\displaystyle{ \sum_{n=1}^{ \infty }\mathbb{P}(X_{n}-1 \ge \epsilon)}\) jest majoryzowany przez \(\displaystyle{ \sum_{n=1}^{ \infty } \frac{1}{n^{2}+1}}\), który jest zbieżny np. z kryterium całkowego (pochodna arcusa tangensa itd.). A zatem z lematu Borela-Cantelliego dla dowolnie ustalonego \(\displaystyle{ \epsilon>0}\) z prawdopodobieństwem \(\displaystyle{ 1}\) zachodzi tylko skończenie wiele zdarzeń \(\displaystyle{ X_{n}-1 \ge \epsilon}\), tj.innymi słowy
\(\displaystyle{ (\forall \epsilon>0) (\mathbb{P}\left[ (\exists n \in \NN)(\forall m \in \NN)(m>n \Rightarrow X_{m}-1<\epsilon)\right] =1)}\), czyli zbieżność wg prawdopodobieństwa mamy jednak nawet bez założenia o niezależności.
Majeskas
Użytkownik
Użytkownik
Posty: 1456
Rejestracja: 14 gru 2007, o 14:36
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 49 razy
Pomógł: 198 razy

Zbieżność prawie na pewno i według prawdopodobieństwa

Post autor: Majeskas »

Dziękuję za zaangażowanie w temat. Przedstawiam rezultaty pójścia na konsultacje:

a) \(\displaystyle{ \mathbb{P}\left(\bigcap_{\varepsilon>0}|X_n-1|>\varepsilon\right)=\mathbb{P}(X_n\neq1)=1-\mathbb{P}(X_n=1)=1-p_n=\frac1{n^2+1}\to0}\)

b) \(\displaystyle{ A_n=\left\{ X_n\neq1\right\}}\)

\(\displaystyle{ \mathbb{P}(A_n)=\frac1{n^2+1}}\)

\(\displaystyle{ \sum_{n=1}^\infty\mathbb{P}(A_n)=\sum_{n=1}^\infty\frac1{n^2+1}<\infty}\)

Zatem z lematu Borela-Cantellego \(\displaystyle{ X_n\neq1}\) tylko dla skończenie wielu \(\displaystyle{ n}\), czyli \(\displaystyle{ X_n}\) prawie na pewno zbiega do \(\displaystyle{ 1}\).


Wychodzi na to, że założenie niezależności było zbędne.
ODPOWIEDZ