Kowariancja sumy niezależnych zmiennych losowych
-
- Użytkownik
- Posty: 1300
- Rejestracja: 6 sty 2009, o 20:22
- Płeć: Mężczyzna
- Lokalizacja: Skierniewice/Warszawa
- Podziękował: 60 razy
- Pomógł: 123 razy
Kowariancja sumy niezależnych zmiennych losowych
Zmienne losowe \(\displaystyle{ X_0,X_1,...}\) są niezależne i mają jednakowe średnie \(\displaystyle{ \mu}\) i wariancje \(\displaystyle{ \sigma ^2}\). Zmienne losowe \(\displaystyle{ M,N}\) są niezależne i mają ten sam rozkład geometryczny z parametrem 1/2 oraz \(\displaystyle{ (M,N)}\) i \(\displaystyle{ (X_0,X_1,...)}\) są niezależne.
Oblicz \(\displaystyle{ Cov( \sum_{i=0}^{N}X_i, \sum_{i=0}^{M}X_i)}\)
To zaczynamy z def
\(\displaystyle{ Cov( \sum_{i=0}^{N}X_i, \sum_{i=0}^{M}X_i)=E(\sum_{i=0}^{N}X_i \cdot \sum_{i=0}^{M}X_i) - E(\sum_{i=0}^{N}X_i)\cdot E(\sum_{i=0}^{M}X_i)}\)
druga część z tożsamości Walda
\(\displaystyle{ E(\sum_{i=0}^{M}X_i)=EM\cdot EX_0=2\mu}\)
co ostatecznie daje \(\displaystyle{ 4\mu ^2}\)
A pierwsza? Myślałem nad czymś takim:
\(\displaystyle{ E(\sum_{i=0}^{N}X_i \cdot \sum_{i=0}^{M}X_i)=E( \sum_{i=0}^{min(M,N)}X_i^2)+E( \sum_{i=0}^{min(M,N)-1} \sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j}\)
i co z tym dalej zrobić?
Oblicz \(\displaystyle{ Cov( \sum_{i=0}^{N}X_i, \sum_{i=0}^{M}X_i)}\)
To zaczynamy z def
\(\displaystyle{ Cov( \sum_{i=0}^{N}X_i, \sum_{i=0}^{M}X_i)=E(\sum_{i=0}^{N}X_i \cdot \sum_{i=0}^{M}X_i) - E(\sum_{i=0}^{N}X_i)\cdot E(\sum_{i=0}^{M}X_i)}\)
druga część z tożsamości Walda
\(\displaystyle{ E(\sum_{i=0}^{M}X_i)=EM\cdot EX_0=2\mu}\)
co ostatecznie daje \(\displaystyle{ 4\mu ^2}\)
A pierwsza? Myślałem nad czymś takim:
\(\displaystyle{ E(\sum_{i=0}^{N}X_i \cdot \sum_{i=0}^{M}X_i)=E( \sum_{i=0}^{min(M,N)}X_i^2)+E( \sum_{i=0}^{min(M,N)-1} \sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j}\)
i co z tym dalej zrobić?
-
- Użytkownik
- Posty: 1300
- Rejestracja: 6 sty 2009, o 20:22
- Płeć: Mężczyzna
- Lokalizacja: Skierniewice/Warszawa
- Podziękował: 60 razy
- Pomógł: 123 razy
Kowariancja sumy niezależnych zmiennych losowych
Niby nie. Czyli tak:
\(\displaystyle{ E(min(N,M))\codt EX_0^2+E\left( (min(N,M)-1)\cdot max(N,M)\right) \cdot \mu ^2}\)
Tak? A podpowiedz jeszcze jak te wartości oczekiwane min i max policzyć
\(\displaystyle{ E(min(N,M))\codt EX_0^2+E\left( (min(N,M)-1)\cdot max(N,M)\right) \cdot \mu ^2}\)
Tak? A podpowiedz jeszcze jak te wartości oczekiwane min i max policzyć
-
- Użytkownik
- Posty: 5101
- Rejestracja: 11 mar 2011, o 16:31
- Płeć: Mężczyzna
- Lokalizacja: 52°16'37''N 20°52'45''E
- Podziękował: 4 razy
- Pomógł: 1001 razy
Kowariancja sumy niezależnych zmiennych losowych
Tam chyba nie będzie wartości oczekiwanej iloczynu tylko iloczyn wartości oczekiwanych.
\(\displaystyle{ E\left( \sum_{i=0}^{min(M,N)-1} \sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j\right)=
E\left( \sum_{i=0}^{min(M,N)-1} \left(\sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j\right)\right)}\)
i korzystasz dwa razy z tożsamości.
Co do tego, jak te wartości policzyć, to nie mam czasu teraz się zastanowić. Jeśli da się policzyć \(\displaystyle{ P(M>N)}\) i/lub \(\displaystyle{ P(M=N)}\), to powinno dać się policzyć te wartości oczekiwane.-- 31 sie 2012, o 19:55 --Po namyśle stwierdzam, że \(\displaystyle{ \max}\) i \(\displaystyle{ \min}\) jednak bym liczył tak:
\(\displaystyle{ E(\min(M,N))=\sum_{k=1}^{\infty}P(\min(M,N)\ge k)=\sum_{k=1}^{\infty}P(M\ge k)P(N\ge k)=\ldots}\)
\(\displaystyle{ E(\max(M,N))=EM+EN-E(\min(M,N))=\ldots}\)
To co wcześniej w pośpiechu napisałem, chyba nic nie upraszcza.
\(\displaystyle{ E\left( \sum_{i=0}^{min(M,N)-1} \sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j\right)=
E\left( \sum_{i=0}^{min(M,N)-1} \left(\sum_{j=0}^{max(M,N)}_{i \neq j} X_i X_j\right)\right)}\)
i korzystasz dwa razy z tożsamości.
Co do tego, jak te wartości policzyć, to nie mam czasu teraz się zastanowić. Jeśli da się policzyć \(\displaystyle{ P(M>N)}\) i/lub \(\displaystyle{ P(M=N)}\), to powinno dać się policzyć te wartości oczekiwane.-- 31 sie 2012, o 19:55 --Po namyśle stwierdzam, że \(\displaystyle{ \max}\) i \(\displaystyle{ \min}\) jednak bym liczył tak:
\(\displaystyle{ E(\min(M,N))=\sum_{k=1}^{\infty}P(\min(M,N)\ge k)=\sum_{k=1}^{\infty}P(M\ge k)P(N\ge k)=\ldots}\)
\(\displaystyle{ E(\max(M,N))=EM+EN-E(\min(M,N))=\ldots}\)
To co wcześniej w pośpiechu napisałem, chyba nic nie upraszcza.
-
- Użytkownik
- Posty: 1300
- Rejestracja: 6 sty 2009, o 20:22
- Płeć: Mężczyzna
- Lokalizacja: Skierniewice/Warszawa
- Podziękował: 60 razy
- Pomógł: 123 razy
Kowariancja sumy niezależnych zmiennych losowych
Ale wartość oczekiwaną liczymy chyba trochę inaczej
\(\displaystyle{ E(min(M,N))= \sum_{k=1}^{ \infty } k\cdot P(min(M,N)=k)}\)
a to pstwo można policzyć chyba w ten sposób:
jedna zmienna jest równa k, a druga większa (ostro) - dwa przypadki po jednym dla zmiennej
+ obie zmienne są równe k
\(\displaystyle{ P(min(M,N)=k)=2P(M=k,N>k)+P(M=k,N=k)}\)
a to z niezależności rozbić i jakoś się powinno policzyć
\(\displaystyle{ E(min(M,N))= \sum_{k=1}^{ \infty } k\cdot P(min(M,N)=k)}\)
a to pstwo można policzyć chyba w ten sposób:
jedna zmienna jest równa k, a druga większa (ostro) - dwa przypadki po jednym dla zmiennej
+ obie zmienne są równe k
\(\displaystyle{ P(min(M,N)=k)=2P(M=k,N>k)+P(M=k,N=k)}\)
a to z niezależności rozbić i jakoś się powinno policzyć
-
- Użytkownik
- Posty: 5101
- Rejestracja: 11 mar 2011, o 16:31
- Płeć: Mężczyzna
- Lokalizacja: 52°16'37''N 20°52'45''E
- Podziękował: 4 razy
- Pomógł: 1001 razy
Kowariancja sumy niezależnych zmiennych losowych
Jeśli zmienna \(\displaystyle{ X}\) przyjmuje tylko wartości ze zbioru liczb całkowitych nieujemnych, to \(\displaystyle{ EX=\sum_{k=1}^{\infty}P(X\ge k)}\). Czasem ten wzór dużo upraszcza.silvaran pisze:Ale wartość oczekiwaną liczymy chyba trochę inaczej
-
- Użytkownik
- Posty: 1300
- Rejestracja: 6 sty 2009, o 20:22
- Płeć: Mężczyzna
- Lokalizacja: Skierniewice/Warszawa
- Podziękował: 60 razy
- Pomógł: 123 razy
Kowariancja sumy niezależnych zmiennych losowych
Hm, nigdy nie słyszałem o tej wersji. A tak z ciekawości - wiesz gdzie mogę znaleźć dowód tego? Albo chociaż jakiś szkic pamiętasz?