Cześć,
chciałem zapytać jak przejść jeden moment w wyznaczaniu testu jednostajnie najmocniejszego dla rozkładu jednostajnego. Mam
\(\displaystyle{ f_\theta(x) = \frac{1}{\theta}I_{[0,\theta]}(x)}\)
Hipoteza:
\(\displaystyle{ \begin{cases} H: \theta = \theta_0 \\ K: \theta = \theta_1 \end{cases}}\)
gdzie \(\displaystyle{ \theta_1 > \theta_0}\)
Robię z lematu Neymana-Pearsona:
\(\displaystyle{ \phi(X) = \begin{cases} 1 \text{ dla } f_1 > k \cdot f_0 \\0 \text{ wpp} \end{cases}}\)
\(\displaystyle{ f_1 > k \cdot f_0 \\ (\frac{\theta_0}{\theta_1})^n \cdot I_{[0,\theta_1]}(X_{n:n}) > k \cdot I_{[0,\theta_0]}(X_{n:n}) \\ I_{[0,\theta_1]}(X_{n:n}) > k' \cdot I_{[0,\theta_0]}(X_{n:n})}\)
W jaki sposób teraz to przekształcić, żeby można było z warunku \(\displaystyle{ P_H(\phi(X) = 1) = \alpha}\) wyznaczyć ten test? Szczerze mówiąc siedzę nad tym długo i wg mnie jak się popatrzy na to przedziałami to można dojść do wniosku, że jak \(\displaystyle{ X_{n:n}}\) będzie większe od \(\displaystyle{ \theta_1}\), albo mniejsze od 0 to wtedy możemy albo odrzucać, albo przyjmować hipotezę zerową, jak \(\displaystyle{ X_{n:n} \in [\theta_0, \theta_1]}\) to zawsze odrzucimy, więc jedynie możemy postawić jakiś warunek, kiedy \(\displaystyle{ X_{n:n} \in [0, \theta_0]}\), ale nie wiem dokładnie jaki. Znalazłem na jakiejś stronce, że \(\displaystyle{ X_{n:n} > c}\) to warunek odrzucenia, ale nie rozumiem z czego on wynika. Tzn. wydaje się logiczny, bo im większe \(\displaystyle{ X_{n:n}}\) tym bardziej może być możliwe, że jednak ta wartość należy do rozkładu z hipotezy alternatywnej, jednak matematycznie jakoś nie do końca to widzę.
Najmocniejszy test dla rozkładu jednostajnego.
-
- Użytkownik
- Posty: 7917
- Rejestracja: 18 mar 2009, o 16:24
- Płeć: Mężczyzna
- Podziękował: 30 razy
- Pomógł: 1671 razy
Re: Najmocniejszy test dla rozkładu jednostajnego.
\(\displaystyle{ \lambda(x_{1}, x_{2},...,x_{n}) = \frac{f_{H_{1}}(x_{1},...,x_{n})}{f_{H_{0}}(x_{1}...,x_{n})}}\)
\(\displaystyle{ \lambda(x_{1},...,x_{n}) = \left(\frac{\theta_{0}}{\theta_{1}}\right) \frac{\textbf 1_{x_{n}<\theta_{1}}}{\textbf 1_{x__{n}< \theta_{0}}}}\)
\(\displaystyle{ \lambda(x_{1},...,x_{n}) = \begin{cases}\left(\frac{\theta_{0}}{\theta_{n}}\right)^{n} \ \ \mbox{gdy} \ \ 0 < x(n) < \theta_{0} \\ \infty \ \ \mbox{gdy} \ \ \theta_{0} < x(n) < \theta_{1} \end{cases}}\)
Na podstawie lematu Neymana-Pearsona dla testu jednostajnie najmocniejszego istnieje funkcja
\(\displaystyle{ \phi(x_{1},...,x_{n}) = \textbf 1 _{\lambda(x_{1},...,x_{n})> k},}\) gdzie stałą \(\displaystyle{ k}\) wybieramy tak, by \(\displaystyle{ E_{H_{0}}\phi (x_{1},..., x_{n}) = \alpha.}\)
\(\displaystyle{ \lambda(x_{1},...,x_{n}) = \left(\frac{\theta_{0}}{\theta_{1}}\right) \frac{\textbf 1_{x_{n}<\theta_{1}}}{\textbf 1_{x__{n}< \theta_{0}}}}\)
\(\displaystyle{ \lambda(x_{1},...,x_{n}) = \begin{cases}\left(\frac{\theta_{0}}{\theta_{n}}\right)^{n} \ \ \mbox{gdy} \ \ 0 < x(n) < \theta_{0} \\ \infty \ \ \mbox{gdy} \ \ \theta_{0} < x(n) < \theta_{1} \end{cases}}\)
Na podstawie lematu Neymana-Pearsona dla testu jednostajnie najmocniejszego istnieje funkcja
\(\displaystyle{ \phi(x_{1},...,x_{n}) = \textbf 1 _{\lambda(x_{1},...,x_{n})> k},}\) gdzie stałą \(\displaystyle{ k}\) wybieramy tak, by \(\displaystyle{ E_{H_{0}}\phi (x_{1},..., x_{n}) = \alpha.}\)