Zbieżność, zmienne losowe.

Definicja klasyczna. Prawdopodobieństwo warunkowe i całkowite. Zmienne losowe i ich parametry. Niezależność. Prawa wielkich liczb oraz centralne twierdzenia graniczne i ich zastosowania.
_Mithrandir
Użytkownik
Użytkownik
Posty: 584
Rejestracja: 10 paź 2007, o 12:08
Płeć: Mężczyzna
Lokalizacja: Gdańsk
Podziękował: 309 razy
Pomógł: 6 razy

Zbieżność, zmienne losowe.

Post autor: _Mithrandir »

Zakładamy, że zmienne losowe \(\displaystyle{ X_1, ..., X_n}\) są niezależne i mają ten sam rozkład, przy czym \(\displaystyle{ EX_1 < \infty}\).

Skąd nierówność (przy \(\displaystyle{ \varepsilon > 0}\)):

\(\displaystyle{ P( \max \{ |X_1|,...,|X_n| \} \ge \varepsilon n ) \le \sum\limits_{i=1}^{n} P (|X_i| \ge \varepsilon n)}\)

... i dlaczego zachodzi

\(\displaystyle{ \lim\limits_{n \to \infty} \frac{1}{\varepsilon} E(|X_1| I_{ \{|X_1| \ge \varepsilon n\}}) = 0}\)

?
jetix
Użytkownik
Użytkownik
Posty: 97
Rejestracja: 29 maja 2010, o 14:46
Płeć: Mężczyzna
Lokalizacja: Poznań
Podziękował: 2 razy
Pomógł: 14 razy

Zbieżność, zmienne losowe.

Post autor: jetix »

Jak się ma ta nierówność do tego co chcesz wykazać? Jakoś nie widzę związku :/
_Mithrandir
Użytkownik
Użytkownik
Posty: 584
Rejestracja: 10 paź 2007, o 12:08
Płeć: Mężczyzna
Lokalizacja: Gdańsk
Podziękował: 309 razy
Pomógł: 6 razy

Zbieżność, zmienne losowe.

Post autor: _Mithrandir »

To są dwa odrębne pytania, jedno nie wynika z drugiego. Są to fragmenty rozwiązania pewnego problemu, wszystkie założenia, przy których owe wyrażenia miały być prawdziwe, są podane, ja tylko jestem ciekaw, dlaczego są prawdziwe, jak je uzasadnić.
jetix
Użytkownik
Użytkownik
Posty: 97
Rejestracja: 29 maja 2010, o 14:46
Płeć: Mężczyzna
Lokalizacja: Poznań
Podziękował: 2 razy
Pomógł: 14 razy

Zbieżność, zmienne losowe.

Post autor: jetix »

I. Bardzo proste. Rozpisz sobie def max i skorzystaj z własności prawdopodobieństwa sumy w kontekście sumy prawdopodobioeństw.

II.

Ciąg:

\(\displaystyle{ 0 \le |X|I\{|X|<x\}}\) jest ciągiem rosnącym względem \(\displaystyle{ x}\).

Stąd ze TW Lebesque'a o zbiezności monotonicznej masz:

\(\displaystyle{ \lim_{x\to+\infty}E|X|I\{|X|<x\}=E|X|}\)

Ale

\(\displaystyle{ E|X|=E|X|I\{|X|<x\}+E|X|I\{|X| \ge x\}}\)

więc korzystając z założenia że \(\displaystyle{ E|X|<+\infty}\) gdy \(\displaystyle{ x\to+\infty}\) musimy mieć

\(\displaystyle{ \lim_{x\to+\infty}E|X|I\{|X|\ge x\}=0}\)

Masakryczne są te reklamy na forum...
_Mithrandir
Użytkownik
Użytkownik
Posty: 584
Rejestracja: 10 paź 2007, o 12:08
Płeć: Mężczyzna
Lokalizacja: Gdańsk
Podziękował: 309 razy
Pomógł: 6 razy

Zbieżność, zmienne losowe.

Post autor: _Mithrandir »

I. Domyślam się, że chodzi o (sub)addytywność miary \(\displaystyle{ P}\), ale do tego muszę mieć prawdopodobieństwo postaci \(\displaystyle{ P(\bigcup\limits_{n\in \mathbb{N}} A_n)}\), a nijak nie wiem, jak wydusić to z tego maksimum, jedyne, co mi przychodzi do głowy to zapisać zdarzenie przeciwne i skorzystać z tego, że jeżeli maksimum jest mniejsze lub równe od jakiejś liczby, to wtedy każdy element porównywany w maksimum jest mniejszy od tej liczby, ale wtedy uzyskam iloczyn prawdopodobieństw, a nie sumę.

II. To już jasne, dziękuję.
Piotr Rutkowski
Użytkownik
Użytkownik
Posty: 2234
Rejestracja: 26 paź 2006, o 18:08
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 22 razy
Pomógł: 390 razy

Zbieżność, zmienne losowe.

Post autor: Piotr Rutkowski »

Niech \(\displaystyle{ P(|X_{i}|\geq n\epsilon)=a_{i}=a\in <0,1>}\) dla danego \(\displaystyle{ \epsilon}\)
\(\displaystyle{ P(max\{|X_{i}|\}\geq n\epsilon)=1-\prod_{i=1}^{n}(1-a_{i})=1-(1-a)^{n}}\)
Wystarczy zatem pokazać, że \(\displaystyle{ (1-(1-a)^{n}\leq na)\iff (1+n\cdot (-a)\leq (1+(-a))^{n})}\), co powinno już przypominać pewną znaną nierówność
jetix
Użytkownik
Użytkownik
Posty: 97
Rejestracja: 29 maja 2010, o 14:46
Płeć: Mężczyzna
Lokalizacja: Poznań
Podziękował: 2 razy
Pomógł: 14 razy

Zbieżność, zmienne losowe.

Post autor: jetix »

\(\displaystyle{ P( \max \{ |X_1|,...,|X_n| \} \ge \varepsilon n )= P( |X_1| \ge \varepsilon n \vee |X_2| \ge \varepsilon n\vee ... \vee|X_n| \ge \varepsilon n )=}\)

\(\displaystyle{ P( \{\omega\colon |X_1(\omega)| \ge \varepsilon n\} \cup \{\omega\colon |X_2(\omega)| \ge \varepsilon n\} \cup ... \cup \{\omega\colon |X_n(\omega)| \} \ge \varepsilon n\} ) \le \sum\limits_{i=1}^{n} P (\{\omega\colon |X_i(\omega)| \ge \varepsilon n)\}=\sum\limits_{i=1}^{n} P (|X_i| \ge \varepsilon n)}\)

gdyż

\(\displaystyle{ P(A \cup B) \le P(A)+P(B)}\)
_Mithrandir
Użytkownik
Użytkownik
Posty: 584
Rejestracja: 10 paź 2007, o 12:08
Płeć: Mężczyzna
Lokalizacja: Gdańsk
Podziękował: 309 razy
Pomógł: 6 razy

Zbieżność, zmienne losowe.

Post autor: _Mithrandir »

Nie wiedziałem, że tak to można zapisać. Dziękuję raz jeszcze.
ODPOWIEDZ