kategoria III - Qń 6 lutego 2011, 19:02

Miejsce na dyskusje i ocenę zadań z I konkursu forumowego ;).
Liga
Gość Specjalny
Gość Specjalny
Posty: 168
Rejestracja: 29 wrz 2006, o 18:17
Płeć: Mężczyzna
Lokalizacja: Forum Matematyka.pl

kategoria III - Qń 6 lutego 2011, 19:02

Post autor: Liga »

Qń pisze:Zadanie 2
Google nie podpowiadają czym jest estymator największego prawdopodobieństwa, przyjmijmy więc, że chodzi o estymator najefektywniejszy.

Niech zmienna losowa \(\displaystyle{ X}\) ma rozkład normalny \(\displaystyle{ N(\mu , 1)}\) oraz niech \(\displaystyle{ (X_i)_{i=1}^{n}}\) będzie ciągiem zmiennych losowych, z których \(\displaystyle{ i}\)-ta przyjmuje wartość \(\displaystyle{ 1}\), jeśli w \(\displaystyle{ i}\)-tym losowaniu wylosowaliśmy element większy od zera oraz wartość \(\displaystyle{ 0}\) w przeciwnym wypadku.

Oczywiste jest, że:
\(\displaystyle{ P(X_i=0)= P(X<0)=P(X-\mu <-\mu )}\)
Ale zmienna \(\displaystyle{ X-\mu}\) ma rozkład \(\displaystyle{ N(0,1)}\), więc:
\(\displaystyle{ P(X-\mu <-\mu )=\phi (-\mu ) = 1- \phi (\mu )}\)
gdzie \(\displaystyle{ \phi (x)}\) jest dystrybuantą rozkładu \(\displaystyle{ N(0,1)}\).

Tak więc zmienne \(\displaystyle{ X_i}\) mają rozkład dwupunktowy:
\(\displaystyle{ P(X_i= 0 ) = 1-\phi (\mu )\\
P(X_i=1) = \phi (\mu )}\)

Dla uproszczenia zapisu oznaczmy \(\displaystyle{ p= \phi ( \mu )}\)
Oczywiście więc \(\displaystyle{ EX_i = p}\), \(\displaystyle{ V(X_i)=(1-p)p}\).

Pokażemy, że najefektywniejszym estymatorem parametru \(\displaystyle{ p=\phi (\mu )}\) jest \(\displaystyle{ \frac 1n \sum_{i=1}^{n}X_i}\) - będzie to oznaczało, że najefektywniejszym estymatorem parametru \(\displaystyle{ \mu}\) (czyli tym o który nam chodzi) jest \(\displaystyle{ \phi^{-1} \left( \frac 1n \sum_{i=1}^{n}X_i\right)}\)

Oczywiście mamy:
\(\displaystyle{ E\left( \frac 1n \sum_{i=1}^{n}X_i\right)= \frac 1n \sum_{i=1}^{n}EX_i = \frac 1n \cdot np= p}\)
co oznacza, że nasz estymator jest nieobciążony.
Z niezależności zmiennych \(\displaystyle{ X_i}\) dostajemy:
\(\displaystyle{ V \left( \frac 1n \sum_{i=1}^{n}X_i\right) = \frac{1}{n^2} \sum_{i=1}^{n}V X_i = \frac{1}{n^2} \cdot n(1-p)p=\frac {(1-p)p}{n}}\)

Skorzystajmy teraz z nierówności Rao-Cramera, która daje nam dolne ograniczenie na wartość wariancji estymatorów nieobciążonych. Nasz rozkład \(\displaystyle{ X_i}\) jest dyskretny, zatem mamy:
\(\displaystyle{ V_{min} = \frac{1}{n \cdot \left[ \left( \frac{ \partial \ln p}{ \partial p} \right)^2 \cdot p +\left( \frac{ \partial \ln (1-p)}{ \partial p} \right)^2 \cdot (1-p) \right] } =\\ =
\frac{1}{n \cdot \left[ \frac{1}{p^2} \cdot p +\frac{1}{(1-p)^2} \cdot (1-p) \right] } = \frac{1}{n\cdot \frac{(1-p) + p}{p(1-p)}}=\frac{(1-p)p}{n}}\)


Skoro więc wariancja estymatora nie może być mniejsza niż \(\displaystyle{ \frac{(1-p)p}{n}}\), a wskazany przez nas estymator ma właśnie taką wariancję, więc tenże estymator ma najmniejszą wariancję w wszystkich, czyli jest estymatorem najefektywniejszym, co właśnie chcieliśmy pokazać. Kończy to dowód.
\(\displaystyle{ ---------------------------}\)

Zadanie 3
Pokażemy, że taka macierz nie istnieje.

Załóżmy wbrew tezie, że istnieje macierz \(\displaystyle{ A}\) spełniająca podane warunki. Postać Jordana tej macierzy może mieć dwie postaci:
a) \(\displaystyle{ \begin{bmatrix} a&0\\0&b\end{bmatrix}}\) dla pewnych \(\displaystyle{ a,b\in\mathbb{R}}\) jeśli macierz jest diagonalizowalna
b) \(\displaystyle{ \begin{bmatrix} a&1\\0&a\end{bmatrix}}\) dla pewnego \(\displaystyle{ a\in\mathbb{R}}\) jeśli macierz nie jest diagonalizowalna
Rozpatrzmy oba te przypadki.

W przypadku a) wiadomo, że istnieje taka macierz nieosobliwa \(\displaystyle{ C}\), że:
\(\displaystyle{ A=C \cdot \begin{bmatrix} a&0\\0&b\end{bmatrix}\cdot C^{-1}}\)
W takim razie jest:
\(\displaystyle{ A^n=C \cdot \begin{bmatrix} a^n&0\\0&b^n\end{bmatrix}\cdot C^{-1}}\)
i mamy:
\(\displaystyle{ \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} A^{2n+1} =
\sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} C \cdot \begin{bmatrix} a^{2n+1}&0\\0&b^{2n+1}\end{bmatrix}\cdot C^{-1} = \\ =
C \cdot \left( \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} \begin{bmatrix} a^{2n+1}&0\\0&b^{2n+1}\end{bmatrix}\right) \cdot C^{-1} = \\ = C \cdot \begin{bmatrix} \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!}a^{2n+1}&0\\0& \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!}b^{2n+1}\end{bmatrix}\right) \cdot C^{-1} = \\ =
C\cdot \begin{bmatrix} \sin a&0\\0&\sin b\end{bmatrix}\cdot C^{-1}}\)

Ta macierz nie może być równa \(\displaystyle{ \begin{bmatrix} 1&2011\\0&1\end{bmatrix}}\), bo otrzymana macierz jest diagonalizowalna, a macierz \(\displaystyle{ \begin{bmatrix} 1&2011\\0&1\end{bmatrix}}\) nie.

W przypadku b) natomiast nietrudno pokazać indukcyjnie, że
\(\displaystyle{ \begin{bmatrix} a&1\\0&a\end{bmatrix}^n = \begin{bmatrix} a^n&na^{n-1}\\0&a^n\end{bmatrix}}\)
Istotnie, dla \(\displaystyle{ n=1}\) teza jest prawdziwa w oczywisty sposób. Załóżmy zatem, że jest prawdziwa dla pewnego \(\displaystyle{ n\ge 1}\). Mamy wówczas:
\(\displaystyle{ \begin{bmatrix} a&1\\0&a\end{bmatrix}^{n+1} = \begin{bmatrix} a&1\\0&a\end{bmatrix}^n \cdot \begin{bmatrix} a&1\\0&a\end{bmatrix}=
\begin{bmatrix} a^n&na^{n-1}\\0&a^n\end{bmatrix} \cdot \begin{bmatrix} a&1\\0&a\end{bmatrix}=\begin{bmatrix} a^{n+1}&(n+1)a^{n}\\0&a^{n+1}\end{bmatrix}}\)

co pokazuje, że teza jest prawdziwa także dla \(\displaystyle{ n+1}\), co oznacza, że wzór został udowodniony.

Wiadomo, że istnieje taka macierz nieosobliwa \(\displaystyle{ C}\), że:
\(\displaystyle{ A=C \cdot \begin{bmatrix} a&1\\0&a\end{bmatrix}\cdot C^{-1}}\)
W takim razie jest na mocy pokazanego wzoru jest:
\(\displaystyle{ A^{2n+1}=C \cdot \begin{bmatrix} a^{2n+1}&(2n+1)a^{2n}\\0&a^{2n+1}\end{bmatrix}\cdot C^{-1}}\)
Mamy więc:
\(\displaystyle{ \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} A^{2n+1} =
\sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} C \cdot \begin{bmatrix} a^{2n+1}&(2n+1)a^{2n}\\0&a^{2n+1}\end{bmatrix}\cdot C^{-1} = \\ =
C \cdot \left( \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!} \begin{bmatrix} a^{2n+1}&(2n+1)a^{2n}\\0&a^{2n+1}\end{bmatrix}\right) \cdot C^{-1} = \\ = C \cdot \begin{bmatrix} \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!}a^{2n+1}&\frac{(-1)^n}{(2n+1)!}(2n+1)a^{2n}\\0& \sum_{n = 0}^{+\infty} \frac{(-1)^n}{(2n+1)!}a^{2n+1}\end{bmatrix}\right) \cdot C^{-1} = \\ =
C\cdot \begin{bmatrix} \sin a&(\sin a)'\\0 &\sin a\end{bmatrix}\cdot C^{-1}=
C\cdot \begin{bmatrix} \sin a& \cos a\\0 &\sin a\end{bmatrix}\cdot C^{-1}}\)

Gdyby ta macierz była równa \(\displaystyle{ \begin{bmatrix} 1&2011\\0&1\end{bmatrix}}\), to porównując wyznaczniki dostalibyśmy:
\(\displaystyle{ \det \begin{bmatrix} 1&2011\\0&1\end{bmatrix} = \det \begin{bmatrix} \sin a& \cos a\\0 &\sin a\end{bmatrix}}\)
skąd
\(\displaystyle{ \sin^2 a=1}\)
czyli \(\displaystyle{ a= \frac{\pi}{2} +k\pi}\) dla pewnego \(\displaystyle{ k\in \mathbb{Z}}\). Ale dla takiego \(\displaystyle{ a}\) jest \(\displaystyle{ \cos a = 0}\), więc macierz \(\displaystyle{ \begin{bmatrix} \sin a& \cos a\\0 &\sin a\end{bmatrix}}\) jest diagonalna, a macierz \(\displaystyle{ \begin{bmatrix} 1&2011\\0&1\end{bmatrix}}\) nie jest diagonalizowalna.

W obu przypadkach otrzymaliśmy więc sprzeczność, tak więc założenie o istnieniu takiej macierzy \(\displaystyle{ A}\) było fałszywe. Kończy to dowód.
\(\displaystyle{ ---------------------------}\)

Zadanie 4
Załóżmy wbrew tezie, że taki ideał \(\displaystyle{ D}\) istnieje. Bez utraty ogólności możemy przyjąć, że spełnia on warunek:
\(\displaystyle{ x \in D \Rightarrow -x \in D}\)
Istotnie, gdyby było inaczej, to z uwagi na f ideałem jest też \(\displaystyle{ -D}\), a w takim razie z uwagi na b ideałem jest \(\displaystyle{ D \cup -D}\), który to zbiór już oczywiście spełnia powyższy warunek. Jasne jest też, że z uwagi na \(\displaystyle{ D \subseteq D \cup -D}\), jeśli zbiór \(\displaystyle{ D}\) spełnia warunek z zadania, to zbiór \(\displaystyle{ D \cup -D}\) też go spełnia oraz oczywiście:
\(\displaystyle{ x \in D \cup -D \Rightarrow -x \in D \cup -D}\)
Tak więc w takim wypadku zamiast \(\displaystyle{ D}\) rozpatrywalibyśmy ideał \(\displaystyle{ D \cup -D}\)

Przejdźmy zatem do rozwiązania. Oczywiście, z uwagi na c, \(\displaystyle{ D \neq G}\). W takim razie istnieje \(\displaystyle{ g\in G}\) takie, że \(\displaystyle{ g\notin D}\). Z uwagi na d, \(\displaystyle{ \{ g\}}\) jest ideałem, w takim razie z uwagi na b, ideałem jest także \(\displaystyle{ D \cup \{ g\}}\). Tak więc na mocy warunku z zadania, który miałby spełniać \(\displaystyle{ D}\), wiemy, że istnieje \(\displaystyle{ h \in G}\) takie, że:
\(\displaystyle{ D \cup \{ g\} \subseteq D+h}\)

Wynika stąd w szczególności:
\(\displaystyle{ x\in D \Rightarrow x \in D+h \Rightarrow \exists_{d\in D}\ x=d+h \Rightarrow x-h \in D}\)
co oznacza, że ideał \(\displaystyle{ D}\) jest zamknięty ze względu na odejmowanie elementu \(\displaystyle{ h}\).
Mamy w takim razie z uwagi na powyższe oraz na warunek \(\displaystyle{ x\in D \Rightarrow -x \in D}\):
\(\displaystyle{ x\in D \Rightarrow -x \in D \Rightarrow -x-h\in D \Rightarrow x+h \in D}\)
co oznacza, że ideał \(\displaystyle{ D}\) jest zamknięty ze względu na dodawanie \(\displaystyle{ h}\).

Jest jednak też \(\displaystyle{ g\in D+ h}\), co oznacza, że \(\displaystyle{ g-h \in D}\). Ale zbiór \(\displaystyle{ D}\) jest zamknięty ze względu na dodawanie \(\displaystyle{ h}\), więc także \(\displaystyle{ (g-h) +h = g\in D}\). To zaś jest sprzeczne z tym, że \(\displaystyle{ g\notin D}\). Otrzymana sprzeczność pokazuje, że założenie o istnieniu ideału \(\displaystyle{ D}\) było fałszywe, zatem taki ideał nie istnieje, czego właśnie chcieliśmy dowieść.

Gdybyśmy natomiast opuścili założenie f, to rozważmy grupę liczb całkowitych z dodawaniem i rozważmy rodzinę jej podzbiorów ograniczonych z dołu. Wówczas warunki a,b,c,d,e są spełnione, bo oczywiście podzbiór zbioru ograniczonego z dołu jest ograniczony z dołu, suma teoriomnogościowa dwóch zbiorów ograniczonych z góry jest zbiorem ograniczonym z dołu, zbiór liczb całkowitych nie jest ograniczony z dołu, singleton dowolnej liczby całkowitej jest ograniczony z dołu, jeśli zbiór ograniczony z dołu "przesuniemy" o dowolną liczbą całkowitą to dalej będzie ograniczony z dołu.
Dla takiego ideału dobrym ideałem \(\displaystyle{ D}\) jest zbiór liczb naturalnych. Istotnie, jeśli jakiś podzbiór \(\displaystyle{ A}\) liczb całkowitych jest ograniczony z dołu, to z zasady minimum ma element najmniejszy - nazwijmy go \(\displaystyle{ g}\). Wówczas bez wątpienia:
\(\displaystyle{ A \subseteq \mathbb{N} + (-g)}\)
czyli istotnie zbiór liczb naturalnych jest dobrym przykładem.
\(\displaystyle{ ---------------------------}\)

Zadanie 5
Nie wiem czym jest estymator jednostajnie nieobciążony, w szczególności więc nie wiem czym jest taki estymator dla hipotezy, ani czym jest jego moc (google ani dostępna mi literatura nie mówią nic na ten temat). Dlatego też najprawdopodobniej to co napiszę poniżej będzie nie na temat, ale tyle tylko mi wiadomo w kwestii testowania przedstawionych hipotez.

Oznaczmy:
\(\displaystyle{ \overline{X}_{n_1}=\frac{1}{n_1} \sum_{i=1}^{n_1} X_{1i}\\
\overline{X}_{n_2}=\frac{1}{n_2} \sum_{i=1}^{n_2} X_{2i}\\
S_{n_1}^2=\frac{1}{n_1} \sum_{i=1}^{n_1} (X_{1i}-\mu_1)^2\\
S_{n_2}^2=\frac{1}{n_2} \sum_{i=1}^{n_2} (X_{2i}-\mu_2)^2}\)

oraz
\(\displaystyle{ x_{1i}}\) - wartość próbki \(\displaystyle{ X_{1i}}\)
\(\displaystyle{ x_{2i}}\) - wartość próbki \(\displaystyle{ X_{2i}}\)
\(\displaystyle{ \overline{x}_{n_1}=\frac{1}{n_1} \sum_{i=1}^{n_1} x_{1i}\\
\overline{x}_{n_2}=\frac{1}{n_2} \sum_{i=1}^{n_2} x_{2i}}\)


Określmy statystykę:
\(\displaystyle{ T=\frac{\overline{X}_{n_1}-\overline{X}_{n_2}}{\sqrt{\frac{n_1+n_2}{n_1n_2}\left( n_1S_{n_1}^2+n_2S_{n_2}^2\right)}}\sqrt{n_1+n_2-2}}\)

Ta statystyka ma rozkład Studenta. Niech \(\displaystyle{ t_{\alpha}}\) będzie taką liczbą z tablicy rozkładu Studenta, że \(\displaystyle{ P(|T|>t_{\alpha})=\alpha}\). Wówczas hipotezę \(\displaystyle{ H_0}\) przyjmujemy gdy:
\(\displaystyle{ \frac{|\overline{x}_{n_1}-\overline{x}_{n_2}|}{\sqrt{\frac{n_1+n_2}{n_1n_2}\cdot\frac{n_1s_{n_1}^2+n_2s_{n_2}^2}{n_1+n_2-2}}} > t_{\alpha}}\)
a hipotezę \(\displaystyle{ H_1}\) przyjmujemy gdy:
\(\displaystyle{ \frac{|\overline{x}_{n_1}-\overline{x}_{n_2}|}{\sqrt{\frac{n_1+n_2}{n_1n_2}\cdot\frac{n_1s_{n_1}^2+n_2s_{n_2}^2}{n_1+n_2-2}}} \le t_{\alpha}}\)

Szczegółowe uzasadnienie można znaleźć w książce:
Elementy probabilistyki A.Plucińska, E.Pluciński, PWN 1979
Rozdział: Elementy statystyki matematycznej
Podrozdział: Testy parametryczne
Strony 199-200 i wcześniejsze.
\(\displaystyle{ ---------------------------}\)

Qń.
Awatar użytkownika
scyth
Użytkownik
Użytkownik
Posty: 6392
Rejestracja: 23 lip 2007, o 15:26
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 3 razy
Pomógł: 1087 razy

kategoria III - Qń 6 lutego 2011, 19:02

Post autor: scyth »

2 i 5 - 6 punktów, o to dokładnie chodziło. I choć w piątym był wymagany dowód, to jednak odnośnik jest prawidłowy, więc uznaję.
luka52
Użytkownik
Użytkownik
Posty: 8601
Rejestracja: 1 maja 2006, o 20:54
Płeć: Mężczyzna
Lokalizacja: Kraków
Podziękował: 47 razy
Pomógł: 1816 razy

kategoria III - Qń 6 lutego 2011, 19:02

Post autor: luka52 »

3 - rozpatrzone możliwe przypadki, które prowadzą do sprzeczności; 6pkt.
ODPOWIEDZ