Strona 1 z 1
Gęstość zmiennej losowej Z=X+Y
: 26 lut 2016, o 22:09
autor: marlena1795
Mam problem z wyznaczeniem granic całkowania, bo nie wiem skąd je brać. Proszę o wytłumaczenie i sprawdzenie moich rozwiązań
Zmienne losowe X i Y są niezalezne o jednakowym rozkładzie
a) N(0,1)
b) wykładniczym z paramterem \(\displaystyle{ \alpha =1}\)
c) jednostajnym na przedziale [0,2]
Wyznaczyć gęstość prawdopodobieństwa zmiennej losowej Z=X+Y
a)\(\displaystyle{ f_{X+Y}(Z)= \int_{- \infty }^{ \infty }f_x(z-y)f_y(y)dy= \int_{- \infty }^{ \infty }\frac{1}{ \sqrt{2 \pi } } e^{ \frac{-(z-y)^2}{2} } \frac{1}{ \sqrt{2 \pi } }e^{ \frac{-y^2}{2} }dy= \frac{1}{2 \pi } e^{ \frac{-z^2}{4} }}\) <-- ostateczny wynik
b)\(\displaystyle{ f_{X+Y}(Z)= \int_{- \infty }^{ \infty }f_x(z-y)f_y(y)dy= \int_{0}^{ z}f_x(z-y)f_y(y)dy= \int_{0}^{z}e^{-z+y-y}dy=ze^{-z}}\) <-- wynik
c) \(\displaystyle{ f_{X+Y}(Z)= \int_{- \infty }^{ \infty }f_x(z-y)f_y(y)dy= \int_{0}^{ z}f_x(z-y)f_y(y)dy= \int_{0}^{z} \frac{1}{2} \frac{1}{2} dy= \frac{1}{4}z}\)
Pierwsze dwa podpunkty zrobiliśmy na zajęciach, nie wiem skąd bierze się ta granica całkowania [0,z] zrobiłam tak w przykładzie 3 ponieważ koleżanka powiedziała mi, że zawsze w takich zadaniach bierze się właśnie taką granicę całkowania, czyli tak jakby ten przykład pierwszy był źle zrobiony. I to jest to czego nie wiem, jak to w końcu powinno być i skąd się to bierze?
Z góry dziękuję za odpowiedzi i wyrozumiałość dla mojej niewiedzy...
Gęstość zmiennej losowej Z=X+Y
: 27 lut 2016, o 00:13
autor: Premislav
Trochę się nasączyłem tym i owym, więc nie jestem w stanie sprawdzić tych rachunków, ale jestem w stanie przeprowadzić własne:
a) \(\displaystyle{ f_{X+Y}(y)= \int_{-\infty}^{+\infty}f_{X}(y-x)f_{Y}(x)\mbox{d}x= \int_{-\infty}^{+\infty} \frac{1}{2\pi}e^{- \frac{(y-x)^{2}}{2} }e^{- \frac{x^{2}}{2} } \mbox{d}x= \frac{1}{ 2\sqrt{\pi} }e^{- \frac{y^{2}}{4} } \int_{-\infty}^{+\infty} \frac{1}{ \sqrt{\pi} } e^{- (x-\frac y 2)^{2} }\mbox{d}x=\\=\frac{1}{ 2\sqrt{\pi} }e^{- \frac{y^{2}}{4} }}\),
a to jest gęstość rozkładu \(\displaystyle{ \mathcal{N}(0,2).}\)
Słowo objaśnienia: \(\displaystyle{ \frac{1}{ \sqrt{\pi} } e^{- (x-\frac y 2)^{2} }}\) to gęstość rozkładu \(\displaystyle{ \mathcal{N}\left( \frac{y}{2}, \frac{1}{2}\right)}\), a zatem całkuje się do jedynki.
Znacznie przyjemniej to się rozwala z funkcji tworzących momenty lub funkcji charakterystycznych.
Ogólnie jeśli \(\displaystyle{ X_{1},...X_{n}}\) są niezależnymi zmiennymi losowymi o rozkładach \(\displaystyle{ \mathcal{N}(\mu_{1}, \sigma_{1}^{2}),...\mathcal{N}(\mu_{n},\sigma_{n}^{2})}\) odpowiednio, to \(\displaystyle{ Z= \sum_{i=1}^{n}X_{i}}\) ma rozkład normalny \(\displaystyle{ \mathcal{N}\left( \sum_{i=1}^{n}\mu_{i}, \sum_{i=1}^{n}\sigma^{2}_{i}\right)}\).
b) tu jest odrobinę trudniej. Stosujemy ten sam wzór, co w a) i mamy do obliczenia
\(\displaystyle{ f_{X+Y}(y)=int_{-infty}^{+infty}e^{-x}e^{-(y-x)}mathbf{1}_{[0,+infty)}(y-x)mathbf{1}_{[0,+infty)}(x) mbox{d}x=\=e^{-y} int_{-infty}^{+infty}mathbf{1}_{[0,+infty)}(y-x)mathbf{1}_{[0,+infty)}(x) mbox{d}x}\)
Zauważmy teraz, że
\(\displaystyle{ mathbf{1}_{[0,+infty)}(y-x)mathbf{1}_{[0,+infty)}(x) = egin{cases}1 ext{ gdy }y ge x ge 0 \0 ext{ w przeciwnym razie } end{cases}}\)
a zatem \(\displaystyle{ f_{X+Y}(y)= \begin{cases}e^{-y} \int_{0}^{y}\mbox{d}x \text{ gdy } y \ge 0 \\ 0 \text{ w przeciwnym razie } \end{cases}}\)
Podsumowując, mamy \(\displaystyle{ f_{X+Y}(y)=ye^{-y}mathbf{1}_{[0,+infty)}(y)}\). Jest to gęstość rozkładu \(\displaystyle{ \Gamma(2,1)}\) (rozkład gamma). Ogólnie gdy \(\displaystyle{ X_{1},...X_{n}}\) są niezależnymi zmiennymi losowymi o rozkładach \(\displaystyle{ \Gamma(\alpha_{1},\beta),...\Gamma(\alpha_{n},\beta)}\) odpowiednio, to \(\displaystyle{ Z= \sum_{i=1}^{n}X_{i}}\) ma rozkład \(\displaystyle{ \Gamma\left( \sum_{i=1}^{n} \alpha_{i}, \beta\right)}\).
c) \(\displaystyle{ f_{X+Y}(y)= \frac{1}{4} \int_{-\infty}^{+\infty}\mathbf{1}_{[0,2]}(y-x)\mathbf{1}_{[0,2]}(x)\mbox{d}x}\)
Analogicznie jak w b) zauważamy, że \(\displaystyle{ \mathbf{1}_{[0,2]}(y-x)\mathbf{1}_{[0,2]}(x)= \begin{cases}1 \text{ gdy }x \in[0,2] \wedge y \in [x,x+2] \\0 \text{ w przeciwnym wypadku } \end{cases}= \begin{cases}1 \text{ gdy } (y\in [0,2] \wedge x \in[0,y])\\1 \text{ gdy } \left( y\in (2,4] \wedge x \in [y-2,2]\right) \\0 \text{ w przeciwnym wypadku } \end{cases}}\)
tak dziwnie zapisałem, bo inaczej wyskakiwał mi błąd w formule.
A zatem otrzymujemy, że \(\displaystyle{ f_{X+Y}(y)= \frac{1}{4} \mathbf{1}_{[0,2]}(y) \int_{0}^{y}\mbox{d}x+ \frac{1}{4}\mathbf{1}_{[2,4]}(y) \int_{y-2}^{2}\mbox{d}x= \frac{y}{4}\mathbf{1}_{[0,2]}(y)+\left(1- \frac{y}{4}\right)\mathbf{1}_{(2,4]}(y)}\)
Drugi przedział otworzyłem dla estetyki, aczkolwiek praktycznie nie ma to znaczenia.
Pozdrawiam.
Gęstość zmiennej losowej Z=X+Y
: 27 lut 2016, o 00:49
autor: Medea 2
Wszystkie te rachunki można uprościć dzięki funkcjom charakterystycznym.
Gęstość zmiennej losowej Z=X+Y
: 27 lut 2016, o 01:12
autor: Premislav
Co do a) i b) - pełna zgoda. Natomiast nie widzę, jak funkcje charakterystyczne upraszczałyby sytuację w c), jeśli celem jest znalezienie gęstości, bo wychodzi funkcja charakterystyczna, która nie przypomina zupełnie niczego (no przynajmniej ja nie umiem po niej stwierdzić, jak wygląda gęstość). Jeśli znasz jakiś elegancki sposób, to chętnie się dowiem. Według mojego skromnego stanu wiedzy to wymaga przekształcenia odwrotnego do transformacji Fouriera, a przynajmniej dla mnie to nie jest prostsze.
Gęstość zmiennej losowej Z=X+Y
: 27 lut 2016, o 12:17
autor: marlena1795
Ahm, a ja przepraszam, że się wtrącę, ale nie rozumiem pewnej rzeczy w tym, tzn chodzi mi o wzór na gęstość w rozkładzie wykładniczym. Na zajęciach podano mi, że jest to \(\displaystyle{ \begin{cases} 0, x \le 0\\ \alpha e^{- \alpha x}, x>0 \end{cases}}\), a tutaj używasz wzoru, który jest w podręczniku do prawdopodobieństwa a ja go za bardzo nie rozumiem, a za tym idzie to, że nie rozumiem przeprowadzonych przez Ciebie rachunków: \(\displaystyle{ g(x)= \lambda e^{-\lambda x}1_{(0, \infty)}(x)}\). Najbardziej nie rozumiem istoty tej 1 z przedziałem w indeksie...
Gęstość zmiennej losowej Z=X+Y
: 27 lut 2016, o 12:35
autor: Premislav
OK, już tłumaczę istotę "tej 1 z przedziałem w indeksie". To jest indykator zbioru, taka funkcja, tj.
\(\displaystyle{ \mathbf{1}_{A}(x)= \begin{cases} 1 \text{ gdy } x\in A \\0 \text{ gdy } x\notin A \end{cases}}\), gdzie \(\displaystyle{ A}\) jest pewnym zbiorem. Niewykluczone, że na jakimś wstępie do logiki i teorii mnogości coś takiego nazywano funkcją charakterystyczną zbioru, ale w rachunku prawdopodobieństwa tak się nie robi, bo funkcja charakterystyczna to coś innego. Łatwo wyprowadzić jakieś podstawowe własności tej funkcji, którą nazwałaś 1 z przedziałem w indeksie, np. \(\displaystyle{ \mathbf{1}_{A \cap B}(x)=\mathbf{1}_{A}(x)\cdot \mathbf{1}_{B}(x)}\) czy \(\displaystyle{ \mathbf{1}_{A \cup B}(x)=\max\left\{ \mathbf{1}_{A}(x),\mathbf{1}_{B}(x)\right\}=\mathbf{1}_{A}(x)+\mathbf{1}_{B}(x)-\mathbf{1}_{A\cap B}(x)}\)
Natomiast funkcja charakterystyczna rozkładu zmiennej losowej \(\displaystyle{ X}\) to \(\displaystyle{ \phi_{X}(t)=\mathbf{E}[e^{itX}]}\). Ogólnie dowolna funkcja \(\displaystyle{ \phi}\), która jest ciągła, dodatnio określona (mocno techniczny warunek, zobacz np. na wiki)i spełnia \(\displaystyle{ \phi(0)=1}\) jest funkcją charakterystyczną pewnego rozkładu (tą używaną w teorii prawdopodobieństwa).