rozkład wykładniczy

Procesy stochastyczne. Sposoby racjonalizowania wielkich ilości informacji. Matematyka w naukach społecznych.
iqaz
Użytkownik
Użytkownik
Posty: 1
Rejestracja: 5 lis 2017, o 18:38
Płeć: Mężczyzna
Lokalizacja: Wrocław

rozkład wykładniczy

Post autor: iqaz »

Witam
Mam do zrobienia takie zadanko. Wiem że ono już tutaj krążyło, lecz było nie dokończone i nie potrafię go dokończyć, dlatego prosiłbym o wytłumaczenie mi go do końca, bym mógł spokojnie usiąść, przeanalizować i nauczyć się jak je powinno sie robić
1.W sali znajduje się k maszyn. Czas do awarii pojedynczej maszyny dany jest rozkładem wykładniczym o średniej pi . Jaki jest rozkład prawdopodobieństwa czasu do awarii
a) pierwszej maszyny?
b) ostatniej maszyny?

Pozdrawiam
Awatar użytkownika
Premislav
Użytkownik
Użytkownik
Posty: 15687
Rejestracja: 17 sie 2012, o 13:12
Płeć: Mężczyzna
Lokalizacja: Warszawa
Podziękował: 196 razy
Pomógł: 5220 razy

Re: rozkład wykładniczy

Post autor: Premislav »

Czy mamy założenie o niezależności zmiennych losowych odzwierciedlających czas do awarii poszczególnych maszyn? Wydaje się to sensownym założeniem, natomiast bez tego nie umiem zrobić zadania. Jeśli dysponujemy tymże założeniem, to:
niech \(\displaystyle{ X_1, \ldots X_k}\) będą niezależnymi zmiennymi losowymi o rozkładzie wykładniczym z gęstością \(\displaystyle{ f(x)=1{\hskip -2.5 pt}\hbox{l}_{(0,+\infty)}(x)\frac 1 \pi e^{-\frac{x}{\pi}}}\) (wtedy właśnie wartość oczekiwana równa jest \(\displaystyle{ \pi}\), ogólnie zmienna losowa o rozkładzie wykładniczym z parametrem \(\displaystyle{ \lambda>0}\) ma wartość oczekiwaną \(\displaystyle{ \frac{1}{\lambda}}\)).
Ponieważ \(\displaystyle{ X_i}\) są niezależne i mają ten sam rozkład, to
\(\displaystyle{ \mathbf{P}(X_1\le t, X_2\le t, \ldots X_k \le t)=\\=\mathbf{P}(x_1\le t)\cdot \mathbf{P}(x_2\le t)\cdot \ldots \mathbf{P}(X_k \le t)=(\mathbf{P}(X_1\le t))^k}\)
a dla zmiennej losowej \(\displaystyle{ X_1}\) o rozkładzie z gęstością \(\displaystyle{ f(x)=1{\hskip -2.5 pt}\hbox{l}_{(0,+\infty)}(x)\frac 1 \pi e^{-\frac{x}{\pi}}}\) i dla \(\displaystyle{ t>0}\) mamy
\(\displaystyle{ \mathbf{P}(X_1 \le t)= \int_{0}^{t} \frac 1 \pi e^{-\frac{x}{\pi}}\,\dd x=1-e^{- \frac{t}{\pi} }}\), natomiast dla \(\displaystyle{ t\le 0}\) rzeczone prawdopodobieństwo wynosi zero,
czyli w tym wypadku
\(\displaystyle{ \mathbf{P}(X_1\le t, X_2\le t, \ldots X_k \le t)=\left( 1-e^{-\frac{t}{\pi}}\right)^k1{\hskip -2.5 pt}\hbox{l}_{(0,+\infty)}(t) \ (*)}\)
Analogicznie mamy
\(\displaystyle{ \mathbf{P}(X_1> t, X_2>t, \ldots X_k > t)=\\=\mathbf{P}(X_1> t)\cdot \mathbf{P}(X_2> t)\cdot \ldots \mathbf{P}(X_k > t)=(\mathbf{P}(X_1> t))^k}\)
- w pierwszej równości korzystamy z niezależności tych zmiennych losowych, zaś w drugiej z tego, że mają one jednakowy rozkład.
Ponadto jeżeli \(\displaystyle{ X_1}\) ma rozkład wykładniczy z parametrem \(\displaystyle{ \frac{1}{\pi}}\) (czyli z gęstością jak wyżej), to
\(\displaystyle{ \mathbf{P}\left( X_1>t\right)= \int_{t}^{+\infty} 1{\hskip -2.5 pt}\hbox{l}_{(0,+\infty)}(x)\frac 1 \pi e^{-\frac{x}{\pi}}\,\dd x= \int_{\max\left\{ 0,t\right\} }^{+\infty}\frac 1 \pi e^{-\frac x \pi}\,\dd x=\\= \begin{cases} 1 \text{ gdy } t\le 0 \\ e^{-\frac t \pi} \text{ gdy } t>0 \end{cases}}\)
Czyli w omawianej sytuacji dostajemy
\(\displaystyle{ \mathbf{P}(X_1> t, X_2>t, \ldots X_k > t)=e^{-\frac{kt}{\pi}}}\) gdy \(\displaystyle{ t>0}\), natomiast dla \(\displaystyle{ t\le 0}\) mamy \(\displaystyle{ \mathbf{P}(X_1> t, X_2>t, \ldots X_k > t)=1 \ (**)}\)
a) interesuje nas więc zmienna losowa \(\displaystyle{ Y=\min(X_1\ldots X_k)}\) i jej rozkład. Spójrzmy na to od strony dystrybuanty.
\(\displaystyle{ F_Y(t)=\mathbf{P}(Y\le t)=1-\mathbf{P}(Y>t)=1-\mathbf{P}(\min(X_1\ldots X_k)>t)=\\=1-\mathbf{P}(X_1>t, X_2>t,\ldots X_k>t)=(**)= \begin{cases} 0 \text{ gdy } t\le 0 \\ 1-e^{-\frac{kt}{\pi}} \text{ gdy } t>0\end{cases}}\)
To charakteryzuje rozkład wykładniczy z parametrem \(\displaystyle{ \frac{k}{\pi}}\).
Gęstość dla \(\displaystyle{ t\le 0}\) jest oczywiście równa zero, dla \(\displaystyle{ t>0}\) wynosi zaś
\(\displaystyle{ \frac{\dd}{\dd t}\left(1-e^{-\frac{kt}{\pi}} \right) =\frac k \pi e^{-\frac{kt}{\pi}} }}\)
W czwartej równości skorzystaliśmy z tego, że aby minimum jakiegoś zbioru było większe od jakiejś liczby, wszystkie elementy tego zbioru muszą być większe od tejże liczby - chyba oczywiste.
b) interesuje nas zmienna losowa \(\displaystyle{ Z=\max(X_1\ldots X_k)}\).
Mamy
\(\displaystyle{ F_Z(t)=\mathbf{P}(Y\le t)=\mathbf{P}(\max(X_1\ldots X_k)\le t)=\\=\mathbf{P}(X_1\le t, X_2\le t,\ldots X_k\le t)=(*)= \begin{cases} 0 \text{ gdy } t\le 0 \\ \left(1-e^{-\frac{t}{\pi}}\right)^k \text{ gdy } t>0\end{cases}}\)
Różniczkując to po \(\displaystyle{ t}\), otrzymujemy gęstość rozkładu zmiennej losowej \(\displaystyle{ Z}\):
\(\displaystyle{ g_Z(t)=\begin{cases} 0 \text{ gdy } t\le 0 \\ \frac{k}{\pi}e^{-\frac t \pi} \left(1-e^{-\frac{t}{\pi}}\right)^{k-1} \text{ gdy } t>0\end{cases}}\)
ODPOWIEDZ