Źródło: PDF "Eagle Strategy Using L´evy Walk and Firefly Algorithms For Stochastic Optimization" (autorzy: Xin-She Yang, Suash Deb)Objective functions \(\displaystyle{ f_{1} \left( x \right)}\), ..., \(\displaystyle{ f_{N} \left( x \right)}\)
Initial guess \(\displaystyle{ x^{t = 0}}\)
while (\(\displaystyle{ ||x^{t + 1} - x^{t}|| > tolerance}\))
Random search by performing Lévy walk
Evaluate the objective functions
Intensive local search with a hypersphere via Nelder-Mead or the Firefly Algorithm
if (a better solution is found)
Update the current best
end if
Update \(\displaystyle{ t = t + 1}\)
Calculate means and standard deviations
end while
Postprocess results and visualization
W tym PDF-ie można wyczytać: "The algorithms stop when the variations of function values are less than a given tolerance \(\displaystyle{ \epsilon \le 10^{-5}}\)". Gdy jednak liczę normalizację wektora \(\displaystyle{ \left( x_1, x_2 \right) = x^{t + 1} - x^{t}}\) jako \(\displaystyle{ \sqrt{x_1^2 + x_2^2}}\) to otrzymuję wyniki dużo, dużo większe niż \(\displaystyle{ 10^{-5}}\).
Moje pytanie jest więc takie: czy ten warunek, który kończy wykonywanie całej metody, to na pewno normalizacja, czy może należy to inaczej interpretować?