wartość oczekiwana iloczynu zmiennych losowych
-
- Użytkownik
- Posty: 52
- Rejestracja: 9 lis 2009, o 19:52
- Płeć: Mężczyzna
- Lokalizacja: Rydzewo
- Podziękował: 7 razy
- Pomógł: 3 razy
wartość oczekiwana iloczynu zmiennych losowych
Cześć
Mam pytanie jak obliczyć tę wartość oczekiwaną wiedząc, że X ~ Poiss(A).
\(\displaystyle{ E( X^{4} ) = ?}\)
Z wariancji: \(\displaystyle{ Var(X) = E(X^{2}) - (EX)^{2}}\)
\(\displaystyle{ Var(X^2) = EX^4 - (EX^2)^2}\)
\(\displaystyle{ EX^4 = (EX^2)^2 + VarX^2 = [VarX + (EX)^2]^2 + VarX^2}\)
Co dalej z \(\displaystyle{ Var X^2}\) ?
Mam pytanie jak obliczyć tę wartość oczekiwaną wiedząc, że X ~ Poiss(A).
\(\displaystyle{ E( X^{4} ) = ?}\)
Z wariancji: \(\displaystyle{ Var(X) = E(X^{2}) - (EX)^{2}}\)
\(\displaystyle{ Var(X^2) = EX^4 - (EX^2)^2}\)
\(\displaystyle{ EX^4 = (EX^2)^2 + VarX^2 = [VarX + (EX)^2]^2 + VarX^2}\)
Co dalej z \(\displaystyle{ Var X^2}\) ?
-
- Użytkownik
- Posty: 7918
- Rejestracja: 18 mar 2009, o 16:24
- Płeć: Mężczyzna
- Podziękował: 30 razy
- Pomógł: 1671 razy
wartość oczekiwana iloczynu zmiennych losowych
Z własności oczekiwanej:
\(\displaystyle{ E(X^{4})= (E(X))^{4}}\) (1)
Wartość oczekiwana zmiennej losowej o rozkładzie
\(\displaystyle{ X \sim Poiss(A)}\)
wynosi
\(\displaystyle{ E(X) = A}\) (2)
Z (2) i (1)
\(\displaystyle{ E(X^{4}) = A^{4}.}\)
\(\displaystyle{ E(X^{4})= (E(X))^{4}}\) (1)
Wartość oczekiwana zmiennej losowej o rozkładzie
\(\displaystyle{ X \sim Poiss(A)}\)
wynosi
\(\displaystyle{ E(X) = A}\) (2)
Z (2) i (1)
\(\displaystyle{ E(X^{4}) = A^{4}.}\)
-
- Użytkownik
- Posty: 52
- Rejestracja: 9 lis 2009, o 19:52
- Płeć: Mężczyzna
- Lokalizacja: Rydzewo
- Podziękował: 7 razy
- Pomógł: 3 razy
wartość oczekiwana iloczynu zmiennych losowych
Twoje rozwiązanie dla przykładowego rozkładu z wartością oczekiwaną A = 7.3 da wynik 2839.8241, natomiast wolframalpha daje wynik 5554.26.
Wydaje mi się, że twoje podejście jest dobre jedynie w przypadku niezależności zmiennych. Tutaj nie ma o tym mowy.
Wydaje mi się, że twoje podejście jest dobre jedynie w przypadku niezależności zmiennych. Tutaj nie ma o tym mowy.
- Medea 2
- Użytkownik
- Posty: 2491
- Rejestracja: 30 lis 2014, o 11:03
- Płeć: Kobieta
- Podziękował: 23 razy
- Pomógł: 479 razy
wartość oczekiwana iloczynu zmiennych losowych
W takim razie czemu nie użyć klasycznych narzędzi? Funkcja \(\displaystyle{ \varphi(x) = x^4}\) jest borelowska, zatem \(\displaystyle{ \textstyle \mathcal E(X^4) = \int_{\RR} x^4 \mu_X (\textrm{d}x)}\), gdzie \(\displaystyle{ X}\) to zmienna o rozkładzie Poissona. Późna pora nigdy nie sprzyjała mi w rachunkach, ale być może policzyłam to dobrze. Otrzymałam wynik \(\displaystyle{ a^4+6a^3 + 7a^2+a}\) i odniosłam wrażenie, że gdzieś tutaj zakamuflowane są liczby Stirlinga.
-
- Użytkownik
- Posty: 1330
- Rejestracja: 10 paź 2004, o 13:30
- Płeć: Mężczyzna
- Lokalizacja: Suchedniów
- Pomógł: 104 razy
wartość oczekiwana iloczynu zmiennych losowych
Swoją drogą to, że \(\displaystyle{ \mathbb{E}(XY) = \mathbb{E}X\cdot \mathbb{E}Y}\) to jest jakiś probabilistyczny analogon faktu, że \(\displaystyle{ (x+y)^2 = x^2 + y^2}\)
-
- Użytkownik
- Posty: 52
- Rejestracja: 9 lis 2009, o 19:52
- Płeć: Mężczyzna
- Lokalizacja: Rydzewo
- Podziękował: 7 razy
- Pomógł: 3 razy
wartość oczekiwana iloczynu zmiennych losowych
18-letnie dziewczę z Koryntu pomaga ludziom rozwiązywać problemy matematyczne. Zaiste zadziwiająco niespójne z legendami o dziewczętach z tegoż miasta.
Można też spróbować z definicji i liczyć szeregi, które dadzą wynik zgodny z tym co uzyskała Medea 2, niestety zdążyłem już zapomnieć jak takie szeregi się liczy.
Twojego sposobu nie znam. Czy \(\displaystyle{ \mu_X}\) to któryś moment?
Domyślam się, że nie będzie ci się chciało wypisywać tutaj elaboratów na ten temat, dlatego proszę o jakieś źródło, które mogłoby mnie naprowadzić na rozwiązanie.
Można też spróbować z definicji i liczyć szeregi, które dadzą wynik zgodny z tym co uzyskała Medea 2, niestety zdążyłem już zapomnieć jak takie szeregi się liczy.
Twojego sposobu nie znam. Czy \(\displaystyle{ \mu_X}\) to któryś moment?
Domyślam się, że nie będzie ci się chciało wypisywać tutaj elaboratów na ten temat, dlatego proszę o jakieś źródło, które mogłoby mnie naprowadzić na rozwiązanie.
- Medea 2
- Użytkownik
- Posty: 2491
- Rejestracja: 30 lis 2014, o 11:03
- Płeć: Kobieta
- Podziękował: 23 razy
- Pomógł: 479 razy
wartość oczekiwana iloczynu zmiennych losowych
Chociaż jestem kapłanką Hekate, bogini ciemności, to w mroku nie myślę najlepiej. Mea culpa! Zamiast zajmować się matematunią, powinnam wrócić do nieudanych prób otrucia i mordowania dzieci.
Rzeczywiście, dopiero dzisiaj uświadomiłam sobie, że rozkład Poissona jest dyskretny, więc całka, którą napisałam, jest trochę nad wyraz. Wydawało mi się, że oznaczenie to jest standardowe: \(\displaystyle{ \mu_X}\) to rozkład prawdopodobieństwa zmiennej \(\displaystyle{ X}\).
Wszystko i tak sprowadza się do policzenia sumy szeregu. Pokażę, jak zacząć, dalej pewnie dasz sobie radę.
\(\displaystyle{ \sum_{k=0}^\infty X^4 P(X = k) = \sum_{k=0}^\infty k^3 \cdot \frac{e^{-\lambda} \lambda^k}{(k-1)!}}\)
\(\displaystyle{ \lambda e^{-\lambda} \sum_{k=0}^\infty \frac{\lambda^{k-1}}{(k-1)!} [(k-1)(k-2)(k-3) + 6 (k-1)(k-2) + 7(k-1) + 1]}\)
Rozbijamy na cztery szeregi, z których każdy jest już elementarny (trzeba skrócić coś z silnią i wyciągnąć jakąś potęgę \(\displaystyle{ \lambda}\) przed szereg). Wydaje mi się, że z kombinatorycznym arsenałem ten szereg byłby łatwiejszy, ale lekturę Matematyki konkretnej mam dopiero w planach, tam powinny być wszystkie potrzebne informacje.
Rzeczywiście, dopiero dzisiaj uświadomiłam sobie, że rozkład Poissona jest dyskretny, więc całka, którą napisałam, jest trochę nad wyraz. Wydawało mi się, że oznaczenie to jest standardowe: \(\displaystyle{ \mu_X}\) to rozkład prawdopodobieństwa zmiennej \(\displaystyle{ X}\).
Wszystko i tak sprowadza się do policzenia sumy szeregu. Pokażę, jak zacząć, dalej pewnie dasz sobie radę.
\(\displaystyle{ \sum_{k=0}^\infty X^4 P(X = k) = \sum_{k=0}^\infty k^3 \cdot \frac{e^{-\lambda} \lambda^k}{(k-1)!}}\)
\(\displaystyle{ \lambda e^{-\lambda} \sum_{k=0}^\infty \frac{\lambda^{k-1}}{(k-1)!} [(k-1)(k-2)(k-3) + 6 (k-1)(k-2) + 7(k-1) + 1]}\)
Rozbijamy na cztery szeregi, z których każdy jest już elementarny (trzeba skrócić coś z silnią i wyciągnąć jakąś potęgę \(\displaystyle{ \lambda}\) przed szereg). Wydaje mi się, że z kombinatorycznym arsenałem ten szereg byłby łatwiejszy, ale lekturę Matematyki konkretnej mam dopiero w planach, tam powinny być wszystkie potrzebne informacje.
-
- Użytkownik
- Posty: 52
- Rejestracja: 9 lis 2009, o 19:52
- Płeć: Mężczyzna
- Lokalizacja: Rydzewo
- Podziękował: 7 razy
- Pomógł: 3 razy
wartość oczekiwana iloczynu zmiennych losowych
Wszystkie wątpliwości zostały rozwiane. Kłaniam się.
PS
We wszystkich wykładach, książkach o tematyce statystycznej jakie było mi dane przejrzeć funkcja gęstości oznaczana była jako \(\displaystyle{ f(x)}\) (ewentualnie \(\displaystyle{ P(X = x))}\), natomiast \(\displaystyle{ \mu}\) zarezerwowane było dla momentów. Centralnych bodajże.
PS
We wszystkich wykładach, książkach o tematyce statystycznej jakie było mi dane przejrzeć funkcja gęstości oznaczana była jako \(\displaystyle{ f(x)}\) (ewentualnie \(\displaystyle{ P(X = x))}\), natomiast \(\displaystyle{ \mu}\) zarezerwowane było dla momentów. Centralnych bodajże.
-
- Użytkownik
- Posty: 1330
- Rejestracja: 10 paź 2004, o 13:30
- Płeć: Mężczyzna
- Lokalizacja: Suchedniów
- Pomógł: 104 razy
wartość oczekiwana iloczynu zmiennych losowych
Hm, jeśli zmienna losowa ma gęstość, to \(\displaystyle{ P(X=x)=0}\) dla wszystkich \(\displaystyle{ x\in\mathbb{R}}\) (całka po zbiorze jednoelementowym jest zawsze 0), więc to mało szczęśliwe oznaczenie;)
Oznaczenia o których mówisz są typowe dla podręczników statystyki/rachunku prawdopodobieństwa dla niematematyków.
Medea, \(\displaystyle{ \mu_X (A) = \mathbb{P}(X\in A)}\) (dla borelowskich \(\displaystyle{ A\subset\mathbb{R}}\)) to zupełnie standardowe oznaczenie rozkładu zmiennej losowej.
Oznaczenia o których mówisz są typowe dla podręczników statystyki/rachunku prawdopodobieństwa dla niematematyków.
Medea, \(\displaystyle{ \mu_X (A) = \mathbb{P}(X\in A)}\) (dla borelowskich \(\displaystyle{ A\subset\mathbb{R}}\)) to zupełnie standardowe oznaczenie rozkładu zmiennej losowej.
-
- Użytkownik
- Posty: 52
- Rejestracja: 9 lis 2009, o 19:52
- Płeć: Mężczyzna
- Lokalizacja: Rydzewo
- Podziękował: 7 razy
- Pomógł: 3 razy
wartość oczekiwana iloczynu zmiennych losowych
Dziękuję za poprawkę liu, rzeczywiście jeżeli rozkład jest ciągły w jednym wymiarze to prawdopodobieństwo trafienia w punkt jest zerowe.
Usprawiedliwiam się - jestem "niematematykiem".
Usprawiedliwiam się - jestem "niematematykiem".
-
- Użytkownik
- Posty: 1330
- Rejestracja: 10 paź 2004, o 13:30
- Płeć: Mężczyzna
- Lokalizacja: Suchedniów
- Pomógł: 104 razy
wartość oczekiwana iloczynu zmiennych losowych
Można też trochę inaczej:
Funkcja tworząca momenty zmiennej losowej \(\displaystyle{ X \sim \mathrm{Poiss}(\lambda)}\) to
\(\displaystyle{ M_X(t) = \exp(\lambda(e^t - 1))}\),
zatem \(\displaystyle{ \mathbb{E}(X^4) = \frac{d^4}{dt^4} M_X(t)|_{t=0}}\), więc po dostatecznie długim różniczkowaniu dostajemy to, co chcemy (można sobie pomóc Wolframem);)
Wyprowadzenie wzoru na \(\displaystyle{ M_X(t)}\) jest dość proste:
\(\displaystyle{ M_X(t) = \mathbb{E}(e^{tX}) = \sum_{k=0}^{\infty} e^{tk} \frac{\lambda^k e^{-\lambda}}{k!} = e^{-\lambda} \sum_{k=0}^{\infty} \frac{{(e^t\lambda)}^k}{k!} = e^{-\lambda} e^{\lambda e^t} = \exp(\lambda(e^t - 1))}\).
Z tego możemy otrzymać wszystkie momenty, pod warunkiem, że mamy do dyspozycji pracownika umysłowego lubiącego różniczkować, bądź dowolny program komputerowy;) I unikamy tutaj kombinatoryki.
Funkcja tworząca momenty zmiennej losowej \(\displaystyle{ X \sim \mathrm{Poiss}(\lambda)}\) to
\(\displaystyle{ M_X(t) = \exp(\lambda(e^t - 1))}\),
zatem \(\displaystyle{ \mathbb{E}(X^4) = \frac{d^4}{dt^4} M_X(t)|_{t=0}}\), więc po dostatecznie długim różniczkowaniu dostajemy to, co chcemy (można sobie pomóc Wolframem);)
Wyprowadzenie wzoru na \(\displaystyle{ M_X(t)}\) jest dość proste:
\(\displaystyle{ M_X(t) = \mathbb{E}(e^{tX}) = \sum_{k=0}^{\infty} e^{tk} \frac{\lambda^k e^{-\lambda}}{k!} = e^{-\lambda} \sum_{k=0}^{\infty} \frac{{(e^t\lambda)}^k}{k!} = e^{-\lambda} e^{\lambda e^t} = \exp(\lambda(e^t - 1))}\).
Z tego możemy otrzymać wszystkie momenty, pod warunkiem, że mamy do dyspozycji pracownika umysłowego lubiącego różniczkować, bądź dowolny program komputerowy;) I unikamy tutaj kombinatoryki.