szukanie zaawansowane
 [ Posty: 1 ] 
Autor Wiadomość
Mężczyzna
PostNapisane: 1 sty 2013, o 17:40 
Użytkownik
Avatar użytkownika

Posty: 79
Lokalizacja: 3city
Wariancja zmiennej losowej i jej własności


Wariancja jest klasyczną miarą zmienności definiowaną jako średnia kwadratów odchyleń wartości cechy od wartości oczekiwanej. Wariancję zmiennej losowej możemy utożsamiać ze stopniem rozproszenia danych wokół wartości średniej.
Stąd wariancja stałej zmiennej losowej wynosi 0 (patrz: własność druga), ze względu na to, iż przyjmuje stale, z prawdopodobieństwem 1 jedną wartość, która jest też jej wartością średnią - nie ma "rozproszenia" wokół wartości średniej.
Własność czwartą wariancji możemy utożsamiać z oddalaniem się od tarczy z rzutkami. Rozproszenie wyników wokół wartości oczekiwanej (środka tarczy) rośnie kwadratowo wraz z oddalaniem się od tarczy.


\hline


1. Definicja
Wariancję zmiennej losowej X zapisujemy jako {\rm Var}X lub \mathbb{D}^2(x) i definiujemy wzorem:

{\rm Var} X=\EE(X-\mu)^2=\EE(X-\EE X)^2

Gdzie \EE(\cdot) jest funkcją znajdującą wartość oczekiwaną, zaś \mu=\EE X wartością oczekiwaną zmiennej X.

\hline


2. Własności
W dowodzeniu poniższych własności będę korzystał z własności wartości oczekiwanej. A dokładnie z:
a) liniowości, tj. \EE(aX+B)=a\EE X+b,
b) niezmienności na stałe, tj. jeżeli c jest stała to \EE c=c
c) nieujemnej określoności dla prawie wszędzie nieujemnych zmiennych losowych, tj. X\geq 0\ p.w.\Rightarrow {\rm Var} X\geq 0
***

1. Wzór na wariancję stosowany zamiennie
{\rm Var} X=\EE X^2-(\EE X)^2.

Dowód
{\rm Var} X=\EE(X-\mu)^2=\EE(X^2-2X\mu+\mu^2)=\EE X^2-2\mu \EE X+\EE\mu^2=...
z tego, że \mu=\EE X mamy:
\EE X^2-2(\EE X)^2+(\EE X)^2=\EE X^2-(\EE X)^2\ \blacksquare
***

2. Zerowa wariancja stałej
{\rm Var} C=0

Dowód
{\rm Var} C=\EE(C-\EE C)^2=\EE (C-C)^2=\EE(0^2)=\EE 0=0\ \blacksquare
***

3. Nieujemna określoność wariancji.
{\rm Var} X\geq 0

Dowód
Ponieważ zmienna losowa (X-\mu)^2 jest nieujemna, to jej wartość oczekiwana \EE(X-\mu)^2={\rm Var} X jest nieujemna. \blacksquare
***

4. Kwadratowa wrażliwość na mnożenie przez stałą
{\rm Var} (aX)=a^2{\rm Var} X

Dowód
{\rm Var} (aX)=\EE(aX-\EE(aX))^2=\EE(aX-a\EE X)^2=\EE(a(X-\EE X))^2=
=\EE[a^2(X-\EE X)^2]=a^2{\rm Var} X \blacksquare
***

5. Niewrażliwość na dodawanie stałej
{\rm Var}(X+b)={\rm Var} X

Dowód
{\rm Var}(X+b)=\EE(X+b-\EE(X+b))^2=\EE(X+b-\EE X-\EE b)^2=
=\EE(X+b-\EE X-b)^2=\EE(X-\EE X)^2={\rm Var}X\ \blacksquare
***

6. Suma wariancji
{\rm Var}\left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}{\rm Var}X_i + 2\sum_{i<j}{\rm Cov}(X_i,X_j)

Dowód
{\rm Var}\left(\sum_{i=1}^{n}X_i\right)={\rm Var}(X_1+...X_n)=\EE(X_1+...X_n-\EE(X_1+...X_n))^2=

=\EE[(X_1-\EE X_1)+(X_2-\EE X_2)+...(X_n-\EE X_n)]^2=

E\left[(X_1-\EE X_1)^2+(X_2-\EE X_2)^2+...+(X_n-\EE X_n)^2+2\sum_{i<j}(X_i-\EE X_i)(X_j-\EE X_j)\right]=

E(X_1-\EE X_1)^2+...+\EE(X_n-\EE X_n)^2+2\sum_{i<j}\EE(X_i-\EE X_i)(X_j-\EE X_j)=

={\rm Var}X_1+...+{\rm Var}X_n+2\sum_{i<j}{\rm Cov}(X_i,X_j)=\sum_{i=1}^n VarX_i+2\sum_{i<j}Cov(X_i,X_j)\ \blacksquare

Z powyższego twierdzenia łatwo wysnuć wniosek, że jeżeli wszystkie zmienne X_i są parami niezależne to zachodzi:

{\rm Var}\left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}{\rm Var}X_i

gdyż kowariancje się zerują.
Uniwersytet Wrocławski Instytut Matematyczny - rekrutacja 2019
Góra
Utwórz nowy temat Odpowiedz w temacie  [ Posty: 1 ] 


 Zobacz podobne tematy
 Tytuł tematu   Autor   Odpowiedzi 
 O definicji dystrybuanty zmiennej losowej  szw1710  0
 Własności prawdopodobieństwa - dowody  Szemek  0
 Definicja oraz własności prawdopodobieństwa  Emiel Regis  0
 Wartość oczekiwana zmiennej losowej  Emiel Regis  0
 funkcja rzeczywista zmiennej rzeczywistej pytanie  wielkireturner  1
 
Atom [Regulamin Forum] [Instrukcja LaTeX-a] [Poradnik] [F.A.Q.] [Reklama] [Kontakt]
Copyright (C) Karpatka.pl