Zmienne losowe - dowód

Definicja klasyczna. Prawdopodobieństwo warunkowe i całkowite. Zmienne losowe i ich parametry. Niezależność. Prawa wielkich liczb oraz centralne twierdzenia graniczne i ich zastosowania.
Bozydar12
Użytkownik
Użytkownik
Posty: 155
Rejestracja: 5 paź 2019, o 09:46
Płeć: Mężczyzna
Podziękował: 20 razy
Pomógł: 3 razy

Zmienne losowe - dowód

Post autor: Bozydar12 »

Udowodnić, że jeżeli \(\displaystyle{ X _{1} , X _{2} , . . . , X _{n}}\) są niezależnymi zmiennymi losowymi o rozkładach \(\displaystyle{ Bin (n _{i}
,p)}\)
, \(\displaystyle{ i = 1, . . . , n}\), to zmienna losowa \(\displaystyle{ η = \sum_{i=1}^{n} X _{i} }\) ma rozkład \(\displaystyle{ Bin(\sum_{i=1}^{n} n _{i},p)}\)

W szczególności: jeżeli \(\displaystyle{ X _{1} , X _{2} , . . . , X _{n}}\) są niezależnymi zmiennymi losowymi o rozkładach
\(\displaystyle{ D(p), i = 1, . . . , n}\), to \(\displaystyle{ η =
\sum_{i=1}^{n} X _{i} ∼ Bin (n, p)
}\)
.

Rozumiem, że prawdopodobieństwo dla każdego ze zdarzeń dla zmiennej losowej \(\displaystyle{ X _{i} }\) jest stałe i wynosi p, natomiast liczebność ilość powtórzeń się skumuluje, natomiast nie wiem jak to poprawnie zapisać i na co się powołać. Przypadek b) byłby już analogiczny, bo w przypadku rozkładu dwupunktowego jest n powtórzeń, tylko wciąż nie wiem jak to zapisać.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Re: Zmienne losowe - dowód

Post autor: Premislav »

Wygodnie jest skorzystać tutaj z funkcji charakterystycznych:

Kod: Zaznacz cały

https://pl.wikipedia.org/wiki/Funkcja_charakterystyczna_%28teoria_prawdopodobie%C5%84stwa%29

Mamy
\(\displaystyle{ \varphi_{X_{j}}(t)=\mathbf{E}\left(e^{itX_{j}}\right)=\sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}\\=\sum_{k=0}^{n_{j}}{n_{j}\choose k}\left(pe^{it}\right)^{k}(1-p)^{n_{j}-k}=\left(pe^{it}+1-p\right)^{n_{j}}}\)
ze wzoru dwumianowego Newtona (dałem w indeksach \(\displaystyle{ j}\) zamiast \(\displaystyle{ i}\), żeby nie było konfliktu oznaczeń). Ponadto funkcja charakterystyczna sumy skończenie wielu niezależnych zmiennych losowych to iloczyn ich funkcji charakterystycznych.
Bozydar12
Użytkownik
Użytkownik
Posty: 155
Rejestracja: 5 paź 2019, o 09:46
Płeć: Mężczyzna
Podziękował: 20 razy
Pomógł: 3 razy

Re: Zmienne losowe - dowód

Post autor: Bozydar12 »

Premislav pisze: 3 kwie 2020, o 11:24
\(\displaystyle{ \varphi_{X_{j}}(t)=\mathbf{E}\left(e^{itX_{j}}\right)=\sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}\\=\sum_{k=0}^{n_{j}}{n_{j}\choose k}\left(pe^{it}\right)^{k}(1-p)^{n_{j}-k}=\left(pe^{it}+1-p\right)^{n_{j}}}\)

Czyli rozumiem to tak, że biorę funkcję charakterystyczną zmiennej losowej \(\displaystyle{ X _{i} }\), oznaczonej u Ciebie jako \(\displaystyle{ X _{j} }\), dla rozkładów dyskretnych jest to suma, u Ciebie jest od k=0, natomiast:
Dla rozkładów dyskretnych o masie prawdopodobieństwa skupionej w punktach \(\displaystyle{ {\displaystyle x_{1},x_{2},\dots ,x_{n}{:}}

{\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}}{\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}}}\)

\(\displaystyle{ \sum_{k=0}^{n_{j}}{n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}e^{itk}}\) - czemu tutaj sumujemy od k=0, czym jest k przy \(\displaystyle{ e ^{itk} }\), oraz dlaczego tak szybko z postaci sumy rozkładu przeszedłeś do funkcji charakterystycznej, nie do końca to widzę. Bo wydaje mi się że udowodnione zostało, że zmienna losowa \(\displaystyle{ X ^{i} }\) ma pewien rozkład, natomiast jeszcze chyba powinienem zrobić to samo z \(\displaystyle{ η= \sum_{i=1}^{n} Xi }\), chyba ze wlasnie wymnozenie tych rozkładów da \(\displaystyle{ (pe^{it}+1-p)^{ \sum_{j=1}^{n} n_{j}}}\) i to dowodzi, że zmienna \(\displaystyle{ η}\) ma podany rozkład.
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5221 razy

Re: Zmienne losowe - dowód

Post autor: Premislav »

Zmienna losowa \(\displaystyle{ X_{j}}\) o rozkładzie \(\displaystyle{ \mathrm{Bin}(n_{j}, p)}\) przyjmuje wartości \(\displaystyle{ 0,1\ldots n_{j}}\) i jeśli \(\displaystyle{ k\in \left\{0,1\ldots n_{j}\right\}}\), to \(\displaystyle{ \mathbf{P}(X_{j}=k)={n_{j}\choose k}p^{k}(1-p)^{n_{j}-k}}\)
Wartość oczekiwana zmiennej losowej \(\displaystyle{ X}\) o rozkładzie dyskretnym (o ile istnieje) to taka suma (niekoniecznie skończenie wielu składników)
\(\displaystyle{ \sum_{s\in S}s\cdot \mathbf{P}(X=s)}\), gdzie \(\displaystyle{ S}\) jest nośnikiem rozkładu \(\displaystyle{ X}\). A funkcja charakterystyczna to z definicji taka właśnie wartość oczekiwana zmiennej losowej \(\displaystyle{ e^{itX}}\) (\(\displaystyle{ i}\) to jednostka urojona).
Na razie znalazłem powyżej funkcję charakterystyczną dla \(\displaystyle{ X_{j}}\), następnie należy właśnie skorzystać z tego, co pisałem o funkcji charakterystycznej sumy niezależnych zmiennych losowych i wymnożyć po wszystkich \(\displaystyle{ j}\), przez co uzyskamy funkcję charakterystyczną rozkładu \(\displaystyle{ \mathrm{Bin}\left(\sum_{}^{}n_{j}, p\right)}\), a że funkcja charakterystyczna identyfikuje nam rozkład, to koniec.
ODPOWIEDZ