Strona 1 z 1

Wariancja zmiennej losowej i jej własności.

: 1 sty 2013, o 16:40
autor: mlody3k
Wariancja zmiennej losowej i jej własności
Wariancja jest klasyczną miarą zmienności definiowaną jako średnia kwadratów odchyleń wartości cechy od wartości oczekiwanej. Wariancję zmiennej losowej możemy utożsamiać ze stopniem rozproszenia danych wokół wartości średniej.
Stąd wariancja stałej zmiennej losowej wynosi \(\displaystyle{ 0}\) (patrz: własność druga), ze względu na to, iż przyjmuje stale, z prawdopodobieństwem \(\displaystyle{ 1}\) jedną wartość, która jest też jej wartością średnią - nie ma "rozproszenia" wokół wartości średniej.
Własność czwartą wariancji możemy utożsamiać z oddalaniem się od tarczy z rzutkami. Rozproszenie wyników wokół wartości oczekiwanej (środka tarczy) rośnie kwadratowo wraz z oddalaniem się od tarczy.


1. Definicja
Wariancję zmiennej losowej \(\displaystyle{ X}\) zapisujemy jako \(\displaystyle{ {\rm Var}X}\) lub \(\displaystyle{ \mathbb{D}^2(x)}\) i definiujemy wzorem:

\(\displaystyle{ {\rm Var} X=\EE(X-\mu)^2=\EE(X-\EE X)^2}\)

Gdzie \(\displaystyle{ \EE(\cdot)}\) jest funkcją znajdującą wartość oczekiwaną, zaś \(\displaystyle{ \mu=\EE X}\) wartością oczekiwaną zmiennej \(\displaystyle{ X}\).



2. Własności
W dowodzeniu poniższych własności będę korzystał z własności wartości oczekiwanej. A dokładnie z:
a) liniowości, tj. \(\displaystyle{ \EE(aX+B)=a\EE X+b}\),
b) niezmienności na stałe, tj. jeżeli \(\displaystyle{ c}\) jest stała to \(\displaystyle{ \EE c=c}\)
c) nieujemnej określoności dla prawie wszędzie nieujemnych zmiennych losowych, tj. \(\displaystyle{ X\geq 0\ p.w.\Rightarrow {\rm Var} X\geq 0}\)
***
1. Wzór na wariancję stosowany zamiennie
\(\displaystyle{ {\rm Var} X=\EE X^2-(\EE X)^2}\).

Dowód
\(\displaystyle{ {\rm Var} X=\EE(X-\mu)^2=\EE(X^2-2X\mu+\mu^2)=\EE X^2-2\mu \EE X+\EE\mu^2=...}\)
z tego, że \(\displaystyle{ \mu=\EE X}\) mamy:
\(\displaystyle{ \EE X^2-2(\EE X)^2+(\EE X)^2=\EE X^2-(\EE X)^2\ \blacksquare}\)
***
2. Zerowa wariancja stałej
\(\displaystyle{ {\rm Var} C=0}\)

Dowód
\(\displaystyle{ {\rm Var} C=\EE(C-\EE C)^2=\EE (C-C)^2=\EE(0^2)=\EE 0=0\ \blacksquare}\)
***
3. Nieujemna określoność wariancji.
\(\displaystyle{ {\rm Var} X\geq 0}\)

Dowód
Ponieważ zmienna losowa \(\displaystyle{ (X-\mu)^2}\) jest nieujemna, to jej wartość oczekiwana \(\displaystyle{ \EE(X-\mu)^2={\rm Var} X}\) jest nieujemna. \(\displaystyle{ \blacksquare}\)
***
4. Kwadratowa wrażliwość na mnożenie przez stałą
\(\displaystyle{ {\rm Var} (aX)=a^2{\rm Var} X}\)

Dowód
\(\displaystyle{ {\rm Var} (aX)=\EE(aX-\EE(aX))^2=\EE(aX-a\EE X)^2=\EE(a(X-\EE X))^2=}\)
\(\displaystyle{ =\EE[a^2(X-\EE X)^2]=a^2{\rm Var} X \blacksquare}\)
***
5. Niewrażliwość na dodawanie stałej
\(\displaystyle{ {\rm Var}(X+b)={\rm Var} X}\)

Dowód
\(\displaystyle{ {\rm Var}(X+b)=\EE(X+b-\EE(X+b))^2=\EE(X+b-\EE X-\EE b)^2=}\)
\(\displaystyle{ =\EE(X+b-\EE X-b)^2=\EE(X-\EE X)^2={\rm Var}X\ \blacksquare}\)
***
6. Suma wariancji
\(\displaystyle{ {\rm Var}\left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}{\rm Var}X_i + 2\sum_{i<j}{\rm Cov}(X_i,X_j)}\)

Dowód
\(\displaystyle{ {\rm Var}\left(\sum_{i=1}^{n}X_i\right)={\rm Var}(X_1+...X_n)=\EE(X_1+...X_n-\EE(X_1+...X_n))^2=}\)

\(\displaystyle{ =\EE[(X_1-\EE X_1)+(X_2-\EE X_2)+...(X_n-\EE X_n)]^2=}\)

\(\displaystyle{ E\left[(X_1-\EE X_1)^2+(X_2-\EE X_2)^2+...+(X_n-\EE X_n)^2+2\sum_{i<j}(X_i-\EE X_i)(X_j-\EE X_j)\right]=}\)

\(\displaystyle{ E(X_1-\EE X_1)^2+...+\EE(X_n-\EE X_n)^2+2\sum_{i<j}\EE(X_i-\EE X_i)(X_j-\EE X_j)=}\)

\(\displaystyle{ ={\rm Var}X_1+...+{\rm Var}X_n+2\sum_{i<j}{\rm Cov}(X_i,X_j)=\sum_{i=1}^n VarX_i+2\sum_{i<j}Cov(X_i,X_j)\ \blacksquare}\)

Z powyższego twierdzenia łatwo wysnuć wniosek, że jeżeli wszystkie zmienne \(\displaystyle{ X_i}\) są parami niezależne to zachodzi:

\(\displaystyle{ {\rm Var}\left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}{\rm Var}X_i}\)

gdyż kowariancje się zerują.