... najlepszą aproksymację postaci \(\displaystyle{ g(x) = \alpha_{0} + \alpha_{1}2^{x}}\) dla danych
\(\displaystyle{ \begin{tabular}{cccc}x_{i} & 1 & 2 & 4\\
y_{i} & 1 & 0 & 2\end{tabular}}\)
Wykazać, że dla funkcji \(\displaystyle{ g(x) = \alpha_{0} + \alpha_{1}2^{x}}\) metoda najmniejszych kwadratów ma jednoznaczne rozwiązanie dla dowolnych parami różnych punktów \(\displaystyle{ x_{0},...,x_{n} \in (-1,1)}\) oraz \(\displaystyle{ y_{0},...,y_{n} \in R, n > 1.}\)
z góry dzieki.
Metodą Najmniejszych kwadratów znaleźć....
Metodą Najmniejszych kwadratów znaleźć....
Ostatnio zmieniony 26 cze 2010, o 17:44 przez miki999, łącznie zmieniany 1 raz.
Powód: Piszemy "znaleźć" a nie "znaleść". Poprawa wiadomości.
Powód: Piszemy "znaleźć" a nie "znaleść". Poprawa wiadomości.
- miki999
- Użytkownik
- Posty: 8691
- Rejestracja: 28 lis 2007, o 18:10
- Płeć: Mężczyzna
- Lokalizacja: Gdańsk
- Podziękował: 36 razy
- Pomógł: 1001 razy
Metodą Najmniejszych kwadratów znaleźć....
No cóż. Wiesz na czym polega MNK.
\(\displaystyle{ \sum_{i=1}^n(g(x_i)-y_i) ^2 \rightarrow MIN}\)
Zatem wystarczy znaleźć ekstremum funkcji 2 zmiennych:
\(\displaystyle{ f(a_0, a_1)=\sum_{i=1}^n (a_0+a_1 2^{x_i}-y_i)^2}\)
Liczymy pochodne cząstkowe:
\(\displaystyle{ \frac{\partial h}{\partial a_0}=\sum_{i=1}^n 2 \cdot (a_0+a_1 2^{x_i}-y_i) \\ \frac{\partial h}{\partial a_1}=\sum_{i=1}^n 2(a_0+a_1 2^{x_i}-y_i) \cdot 2^{x_i}}\)
Tworzymy układ równań:
\(\displaystyle{ \begin{cases} \frac{\partial h}{\partial a_0}=0 \\ \frac{\partial h}{\partial a_1}=0 \end{cases}}\)
Obie równości dzielimy przez \(\displaystyle{ 2}\), możemy z niej wyznaczyć \(\displaystyle{ a_0}\)(o ile się nie walnąłem):
\(\displaystyle{ a_0= \frac{\sum_{i=1}^n y_i -a_1 \sum_{i=1}^n 2^{x_i}}{n}}\)
Wstawiając to do 2. równania wyznaczamy \(\displaystyle{ a_1}\):
\(\displaystyle{ a_1= \frac{\sum_{i=1}^n 2^{x_i}y_i - \frac{\sum_{i=1}^n y_i \sum_{i=1}^n 2^{x_i}}{n} }{\sum_{i=1}^n 2^{2x_i}- \frac{\sum_{i=1}^n 2^{x_i}}{n} }}\)
Wystarczy to podstawić do poprzedniego równania i mamy \(\displaystyle{ a_1}\). Oczywiście możliwe, że po drodze część rzeczy można uprościć, czy też zapisać w ładniejszej postaci- ja się w to nie bawię.
Mogłem popełnić błędy "rachunkowe", ale ogólnie metodę już znasz i przypuszczam, że potrafisz już to rozwiązać.
Pozdrawiam.
\(\displaystyle{ \sum_{i=1}^n(g(x_i)-y_i) ^2 \rightarrow MIN}\)
Zatem wystarczy znaleźć ekstremum funkcji 2 zmiennych:
\(\displaystyle{ f(a_0, a_1)=\sum_{i=1}^n (a_0+a_1 2^{x_i}-y_i)^2}\)
Liczymy pochodne cząstkowe:
\(\displaystyle{ \frac{\partial h}{\partial a_0}=\sum_{i=1}^n 2 \cdot (a_0+a_1 2^{x_i}-y_i) \\ \frac{\partial h}{\partial a_1}=\sum_{i=1}^n 2(a_0+a_1 2^{x_i}-y_i) \cdot 2^{x_i}}\)
Tworzymy układ równań:
\(\displaystyle{ \begin{cases} \frac{\partial h}{\partial a_0}=0 \\ \frac{\partial h}{\partial a_1}=0 \end{cases}}\)
Obie równości dzielimy przez \(\displaystyle{ 2}\), możemy z niej wyznaczyć \(\displaystyle{ a_0}\)(o ile się nie walnąłem):
\(\displaystyle{ a_0= \frac{\sum_{i=1}^n y_i -a_1 \sum_{i=1}^n 2^{x_i}}{n}}\)
Wstawiając to do 2. równania wyznaczamy \(\displaystyle{ a_1}\):
\(\displaystyle{ a_1= \frac{\sum_{i=1}^n 2^{x_i}y_i - \frac{\sum_{i=1}^n y_i \sum_{i=1}^n 2^{x_i}}{n} }{\sum_{i=1}^n 2^{2x_i}- \frac{\sum_{i=1}^n 2^{x_i}}{n} }}\)
Wystarczy to podstawić do poprzedniego równania i mamy \(\displaystyle{ a_1}\). Oczywiście możliwe, że po drodze część rzeczy można uprościć, czy też zapisać w ładniejszej postaci- ja się w to nie bawię.
Mogłem popełnić błędy "rachunkowe", ale ogólnie metodę już znasz i przypuszczam, że potrafisz już to rozwiązać.
Pozdrawiam.
-
- Użytkownik
- Posty: 24
- Rejestracja: 20 kwie 2010, o 17:52
- Płeć: Mężczyzna
- Lokalizacja: Palaiseau
- Pomógł: 1 raz
Metodą Najmniejszych kwadratów znaleźć....
Znacznie szybciej robi się to za pomocą macierzy pseudoodwrotnej lub odbić Hauseholdera - od razu wychodzi wynik.