This is an old revision of the document!
Motivace a pozadí problému
Klasické evoluční optimalizační metody (jako např. Differenciální evoluce) využívají obvykle lineárních vektorových operací s vybranými nejlepšími jedinci z populace. Tyto operace bývají nejčastěji dvojího druhu a] Vyber dva jedince, a interpoluj nového jedince jako jejich konvexní lineární kombinaci. x_new = (1-t)*x1 + t*x2 b] Vyber dva jedince, a extrapoluj nového jedince na základě “gradientu” mezi těmito dvěma x_new = x_old + t*dEdx, kde gradient dEdx = (E1 - E2)/(x1 - x2) Oba případy je možné přirovnat ke klasickým (deterministickým, neevolučním) gadientním metodám, kde dva předešlé navzorkované body určují směr (resp. subprostor) a parametr “t” alias délka skoku v dané iteraci je nutné nějak vhodně nastavit.
Myšlenka kvadratické evoluce spočívá v tom, že se pokouším udělat přenést do genetických lgoritmů analogii z klasických optimalizačních metod vyžšího řádu (jako BFGS ) které odhadují Hessian, neboboli se pokouší na jistém okolí aproximovat minimalizovanou funkci parabolou.
Princip funkce