Udowodnić, że jeżeli \(\displaystyle{ X _{1} , X _{2} , . . . , X _{n}}\) są niezależnymi zmiennymi losowymi o rozkładach \(\displaystyle{ Bin (n _{i}
,p)}\), \(\displaystyle{ i = 1, . . . , n}\), to zmienna losowa \(\displaystyle{ η = \sum_{i=1}^{n} X _{i} }\) ma rozkład \(\displaystyle{ Bin(\sum_{i=1}^{n} n _{i},p)}\)
W szczególności: jeżeli \(\displaystyle{ X _{1} , X _{2} , . . . , X _{n}}\) są niezależnymi zmiennymi losowymi o rozkładach
\(\displaystyle{ D(p), i = 1, . . . , n}\), to \(\displaystyle{ η =
\sum_{i=1}^{n} X _{i} ∼ Bin (n, p)
}\).
Rozumiem, że prawdopodobieństwo dla każdego ze zdarzeń dla zmiennej losowej \(\displaystyle{ X _{i} }\) jest stałe i wynosi p, natomiast liczebność ilość powtórzeń się skumuluje, natomiast nie wiem jak to poprawnie zapisać i na co się powołać. Przypadek b) byłby już analogiczny, bo w przypadku rozkładu dwupunktowego jest n powtórzeń, tylko wciąż nie wiem jak to zapisać.
Zmienne losowe - dowód
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5221 razy
Re: Zmienne losowe - dowód
Wygodnie jest skorzystać tutaj z funkcji charakterystycznych:
Mamy
\(\displaystyle{ \varphi_{X_{j}}(t)=\mathbf{E}\left(e^{itX_{j}}\right)=\sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}\\=\sum_{k=0}^{n_{j}}{n_{j}\choose k}\left(pe^{it}\right)^{k}(1-p)^{n_{j}-k}=\left(pe^{it}+1-p\right)^{n_{j}}}\)
ze wzoru dwumianowego Newtona (dałem w indeksach \(\displaystyle{ j}\) zamiast \(\displaystyle{ i}\), żeby nie było konfliktu oznaczeń). Ponadto funkcja charakterystyczna sumy skończenie wielu niezależnych zmiennych losowych to iloczyn ich funkcji charakterystycznych.
Kod: Zaznacz cały
https://pl.wikipedia.org/wiki/Funkcja_charakterystyczna_%28teoria_prawdopodobie%C5%84stwa%29
Mamy
\(\displaystyle{ \varphi_{X_{j}}(t)=\mathbf{E}\left(e^{itX_{j}}\right)=\sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}\\=\sum_{k=0}^{n_{j}}{n_{j}\choose k}\left(pe^{it}\right)^{k}(1-p)^{n_{j}-k}=\left(pe^{it}+1-p\right)^{n_{j}}}\)
ze wzoru dwumianowego Newtona (dałem w indeksach \(\displaystyle{ j}\) zamiast \(\displaystyle{ i}\), żeby nie było konfliktu oznaczeń). Ponadto funkcja charakterystyczna sumy skończenie wielu niezależnych zmiennych losowych to iloczyn ich funkcji charakterystycznych.
-
- Użytkownik
- Posty: 155
- Rejestracja: 5 paź 2019, o 09:46
- Płeć: Mężczyzna
- Podziękował: 20 razy
- Pomógł: 3 razy
Re: Zmienne losowe - dowód
Czyli rozumiem to tak, że biorę funkcję charakterystyczną zmiennej losowej \(\displaystyle{ X _{i} }\), oznaczonej u Ciebie jako \(\displaystyle{ X _{j} }\), dla rozkładów dyskretnych jest to suma, u Ciebie jest od k=0, natomiast:
Dla rozkładów dyskretnych o masie prawdopodobieństwa skupionej w punktach \(\displaystyle{ {\displaystyle x_{1},x_{2},\dots ,x_{n}{:}}
{\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}}{\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}}}\)
\(\displaystyle{ \sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}}\) - czemu tutaj sumujemy od k=0, czym jest k przy \(\displaystyle{ e ^{itk} }\), oraz dlaczego tak szybko z postaci sumy rozkładu przeszedłeś do funkcji charakterystycznej, nie do końca to widzę. Bo wydaje mi się że udowodnione zostało, że zmienna losowa \(\displaystyle{ X ^{i} }\) ma pewien rozkład, natomiast jeszcze chyba powinienem zrobić to samo z \(\displaystyle{ η= \sum_{i=1}^{n} Xi }\), chyba ze wlasnie wymnozenie tych rozkładów da \(\displaystyle{ (pe^{it}+1-p)^{ \sum_{j=1}^{n} n_{j}}}\) i to dowodzi, że zmienna \(\displaystyle{ η}\) ma podany rozkład.
- Premislav
- Użytkownik
- Posty: 15687
- Rejestracja: 17 sie 2012, o 13:12
- Płeć: Mężczyzna
- Lokalizacja: Warszawa
- Podziękował: 196 razy
- Pomógł: 5221 razy
Re: Zmienne losowe - dowód
Zmienna losowa \(\displaystyle{ X_{j}}\) o rozkładzie \(\displaystyle{ \mathrm{Bin}(n_{j}, p)}\) przyjmuje wartości \(\displaystyle{ 0,1\ldots n_{j}}\) i jeśli \(\displaystyle{ k\in \left\{0,1\ldots n_{j}\right\}}\), to \(\displaystyle{ \mathbf{P}(X_{j}=k)={n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}}\)
Wartość oczekiwana zmiennej losowej \(\displaystyle{ X}\) o rozkładzie dyskretnym (o ile istnieje) to taka suma (niekoniecznie skończenie wielu składników)
\(\displaystyle{ \sum_{s\in S}s\cdot \mathbf{P}(X=s)}\), gdzie \(\displaystyle{ S}\) jest nośnikiem rozkładu \(\displaystyle{ X}\). A funkcja charakterystyczna to z definicji taka właśnie wartość oczekiwana zmiennej losowej \(\displaystyle{ e^{itX}}\) (\(\displaystyle{ i}\) to jednostka urojona).
Na razie znalazłem powyżej funkcję charakterystyczną dla \(\displaystyle{ X_{j}}\), następnie należy właśnie skorzystać z tego, co pisałem o funkcji charakterystycznej sumy niezależnych zmiennych losowych i wymnożyć po wszystkich \(\displaystyle{ j}\), przez co uzyskamy funkcję charakterystyczną rozkładu \(\displaystyle{ \mathrm{Bin}\left(\sum_{}^{}n_{j}, p\right)}\), a że funkcja charakterystyczna identyfikuje nam rozkład, to koniec.
Wartość oczekiwana zmiennej losowej \(\displaystyle{ X}\) o rozkładzie dyskretnym (o ile istnieje) to taka suma (niekoniecznie skończenie wielu składników)
\(\displaystyle{ \sum_{s\in S}s\cdot \mathbf{P}(X=s)}\), gdzie \(\displaystyle{ S}\) jest nośnikiem rozkładu \(\displaystyle{ X}\). A funkcja charakterystyczna to z definicji taka właśnie wartość oczekiwana zmiennej losowej \(\displaystyle{ e^{itX}}\) (\(\displaystyle{ i}\) to jednostka urojona).
Na razie znalazłem powyżej funkcję charakterystyczną dla \(\displaystyle{ X_{j}}\), następnie należy właśnie skorzystać z tego, co pisałem o funkcji charakterystycznej sumy niezależnych zmiennych losowych i wymnożyć po wszystkich \(\displaystyle{ j}\), przez co uzyskamy funkcję charakterystyczną rozkładu \(\displaystyle{ \mathrm{Bin}\left(\sum_{}^{}n_{j}, p\right)}\), a że funkcja charakterystyczna identyfikuje nam rozkład, to koniec.