Gradient - jak policzyć krok po kroku i zrozumieć?
: 13 lis 2006, o 00:07
Witam wszystkich zainteresowanych,
mam pewien problem i chwytam się wszelkich sposobów na pozyskanie wiedzy na temat obliczania gradientu stąd temat na forum.
Na zajęciach z Teorii i Techniki Optymalizacji mam kilka niejasności ale ta mnie szczególnie interesuje:
czy ktoś byłby łaskaw naświetlić mi sprawę w jaki sposób krok po kroku oblicza się gradient np. takiej funkcji:
\(\displaystyle{ f(x)= x_{1}^{2} + x_{1}x_{2} + \frac{1}{2}x_{2}^{2} - x_{1} - x_{2}
\\ \nabla f(x) = ft[\begin{array}{c}\frac{df}{d x_{1}}\\ \frac{df}{d x_{2}} \end{array}\right] = ft[\begin{array}{c}2x_{1} + x_{2} - 1 \\ x_{1} + x_{2} - 1\end{array}\right],}\)
Na wykładzie było skrótowo podane: gradient- wektor pochodnych cząstkowych po kolejnych zmiennych. ??:
Wielkie dzięki za jakiekolwiek informacje
Pozdrawiam
mam pewien problem i chwytam się wszelkich sposobów na pozyskanie wiedzy na temat obliczania gradientu stąd temat na forum.
Na zajęciach z Teorii i Techniki Optymalizacji mam kilka niejasności ale ta mnie szczególnie interesuje:
czy ktoś byłby łaskaw naświetlić mi sprawę w jaki sposób krok po kroku oblicza się gradient np. takiej funkcji:
\(\displaystyle{ f(x)= x_{1}^{2} + x_{1}x_{2} + \frac{1}{2}x_{2}^{2} - x_{1} - x_{2}
\\ \nabla f(x) = ft[\begin{array}{c}\frac{df}{d x_{1}}\\ \frac{df}{d x_{2}} \end{array}\right] = ft[\begin{array}{c}2x_{1} + x_{2} - 1 \\ x_{1} + x_{2} - 1\end{array}\right],}\)
Na wykładzie było skrótowo podane: gradient- wektor pochodnych cząstkowych po kolejnych zmiennych. ??:
Wielkie dzięki za jakiekolwiek informacje
Pozdrawiam