Dany ciąg niezależnych zmiennych losowych \(\displaystyle{ X_n \sim Exp(\log(n))}\). Czy dobrze sprawdzam zbieżność \(\displaystyle{ (X_n)_n}\) według prawdopodobieństwa?
\(\displaystyle{ \mathbb{P}(|X_n| > \epsilon) = 2 \int_{\epsilon}^{+ \infty} \log(n) \cdot \exp(-x\log(n)) dx = 2\exp(\log(n^\epsilon)) = 2n^\epsilon \rightarrow +\infty}\) przy ustalonym \(\displaystyle{ \epsilon}\)
Stąd zbieżności według prawdopodobieństwa nie ma. Zbieżność prawie na pewno implikuje zbieżność według prawdopodobieństwa, więc nie może zachodzić (Twierdzenie 1 w 79886.htm).
Jakie znaczenie w tym zadaniu ma fakt, że zmienne są niezależne?
Sprawdzić zbieżność ciągu zmiennych
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5221 razy
Re: Sprawdzić zbieżność ciągu zmiennych
Raczej nie jest dobrze, gdyż z nierówności Czebyszewa mamy
\(\displaystyle{ \mathbf{P}(|X_n|\ge\epsilon)\le \frac{\mathbf{E}|X_n|}{\epsilon}=\frac{1}{ \log n^{\epsilon}}}\)
W pierwszej równości u Ciebie nie wiem, co robi dwójka, dalej całka jest niepoprawnie obliczona.
Niezależność tych zmiennych nie jest do niczego potrzebna jak na mój gust.
\(\displaystyle{ \mathbf{P}(|X_n|\ge\epsilon)\le \frac{\mathbf{E}|X_n|}{\epsilon}=\frac{1}{ \log n^{\epsilon}}}\)
W pierwszej równości u Ciebie nie wiem, co robi dwójka, dalej całka jest niepoprawnie obliczona.
Niezależność tych zmiennych nie jest do niczego potrzebna jak na mój gust.
-
- Użytkownik
- Posty: 5
- Rejestracja: 1 cze 2019, o 18:11
- Płeć: Mężczyzna
- Lokalizacja: internet
- Podziękował: 1 raz
Re: Sprawdzić zbieżność ciągu zmiennych
Dzięki, już poprawiam:
\(\displaystyle{ \mathbb{P}(|X_n| > \epsilon) = \int_{\epsilon}^{+ \infty} \log(n) \cdot \exp(-x\log(n)) dx = \exp(\log(n^{-\epsilon})) = n^{-\epsilon} \rightarrow 0}\) przy ustalonym \(\displaystyle{ \epsilon}\), więc \(\displaystyle{ (X_n)_n}\) zbieżny do \(\displaystyle{ X = 0}\).
Teraz nic nie wiadomo o zbieżności prawie na pewno. Jak mogę to sprawdzić? Intuicyjnie wydaje mi się, że w takiej sytuacji zachodzi, bo gęstość jest coraz mniejsza.
\(\displaystyle{ \mathbb{P}(|X_n| > \epsilon) = \int_{\epsilon}^{+ \infty} \log(n) \cdot \exp(-x\log(n)) dx = \exp(\log(n^{-\epsilon})) = n^{-\epsilon} \rightarrow 0}\) przy ustalonym \(\displaystyle{ \epsilon}\), więc \(\displaystyle{ (X_n)_n}\) zbieżny do \(\displaystyle{ X = 0}\).
Teraz nic nie wiadomo o zbieżności prawie na pewno. Jak mogę to sprawdzić? Intuicyjnie wydaje mi się, że w takiej sytuacji zachodzi, bo gęstość jest coraz mniejsza.
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5221 razy
Re: Sprawdzić zbieżność ciągu zmiennych
Dobra, udało mi się chyba poprawić odpowiedź na pytanie o zbieżność prawie na pewno.
Ustalmy \(\displaystyle{ \epsilon \in (0,1]}\).
Oznaczmy zdarzenia polegające na tym, że \(\displaystyle{ X_n\ge \epsilon}\) przez \(\displaystyle{ A_{n,\epsilon}}\).
Ponieważ zmienne losowe \(\displaystyle{ X_n}\) są niezależne, więc zdarzenia \(\displaystyle{ A_{n,\epsilon}}\) są niezależne.
Szereg \(\displaystyle{ \sum_{n=1}^{\infty}A_{n, \epsilon}= \sum_{n=1}^{\infty} n^{-\epsilon}}\)
jest rozbieżny.
Zatem z drugiego lematu Borela-Cantelliego x prawdopodobieństwem \(\displaystyle{ 1}\) zachodzi
nieskończenie wiele spośród zdarzeń \(\displaystyle{ A_{n, \epsilon}}\), tj.
\(\displaystyle{ \mathbf{P}\left( \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n, \epsilon} \right)=1}\),
tym bardziej (z własności monotoniczności prawdopodobieństwa)
\(\displaystyle{ \mathbf{P}\left( \bigcup_{\epsilon>0}^{} \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n,\epsilon} \right) =1}\),
ale
\(\displaystyle{ \mathbf{P}\left( \bigcup_{\epsilon>0}^{} \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n,\epsilon} \right)=\\=\mathbf{P}\left( \left\{ \omega \in \Omega: (\exists \epsilon>0)(\forall N\in\NN)(\exists n\in\NN)(n>N\wedge X_n\ge \epsilon)\right\} \right)=\\=[X_n \text{ są nieujemne z prawdopodobieństwem }1]=\\=\mathbf{P}\left( \left\{ \omega \in \Omega: (\exists \epsilon>0)(\forall N\in\NN)(\exists n\in\NN)(n>N\wedge |X_n|\ge \epsilon)\right\} \right)=\\=\mathbf{P}( \lim_{n \to \infty } X_n\neq 0)}\)
Stąd płynie wniosek, że ciąg \(\displaystyle{ (X_n)}\) nie jest zbieżny do zera prawie na pewno.
Ustalmy \(\displaystyle{ \epsilon \in (0,1]}\).
Oznaczmy zdarzenia polegające na tym, że \(\displaystyle{ X_n\ge \epsilon}\) przez \(\displaystyle{ A_{n,\epsilon}}\).
Ponieważ zmienne losowe \(\displaystyle{ X_n}\) są niezależne, więc zdarzenia \(\displaystyle{ A_{n,\epsilon}}\) są niezależne.
Szereg \(\displaystyle{ \sum_{n=1}^{\infty}A_{n, \epsilon}= \sum_{n=1}^{\infty} n^{-\epsilon}}\)
jest rozbieżny.
Zatem z drugiego lematu Borela-Cantelliego x prawdopodobieństwem \(\displaystyle{ 1}\) zachodzi
nieskończenie wiele spośród zdarzeń \(\displaystyle{ A_{n, \epsilon}}\), tj.
\(\displaystyle{ \mathbf{P}\left( \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n, \epsilon} \right)=1}\),
tym bardziej (z własności monotoniczności prawdopodobieństwa)
\(\displaystyle{ \mathbf{P}\left( \bigcup_{\epsilon>0}^{} \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n,\epsilon} \right) =1}\),
ale
\(\displaystyle{ \mathbf{P}\left( \bigcup_{\epsilon>0}^{} \bigcap_{N\in \NN}^{} \bigcup_{n>N}^{}A_{n,\epsilon} \right)=\\=\mathbf{P}\left( \left\{ \omega \in \Omega: (\exists \epsilon>0)(\forall N\in\NN)(\exists n\in\NN)(n>N\wedge X_n\ge \epsilon)\right\} \right)=\\=[X_n \text{ są nieujemne z prawdopodobieństwem }1]=\\=\mathbf{P}\left( \left\{ \omega \in \Omega: (\exists \epsilon>0)(\forall N\in\NN)(\exists n\in\NN)(n>N\wedge |X_n|\ge \epsilon)\right\} \right)=\\=\mathbf{P}( \lim_{n \to \infty } X_n\neq 0)}\)
Stąd płynie wniosek, że ciąg \(\displaystyle{ (X_n)}\) nie jest zbieżny do zera prawie na pewno.