Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 368)
Detail práce
   Přihlásit přes CAS
Evolutionary algorithms and active learning
Název práce v češtině: Evoluční algoritmy a aktivní učení
Název v anglickém jazyce: Evolutionary algorithms and active learning
Klíčová slova: black-box optimalizace, evoluční strategie, evoluční kontrola, náhradní modely, aktivní učení
Klíčová slova anglicky: black-box optimization, evolution strategies, evolution control, surrogate models, active learning
Akademický rok vypsání: 2015/2016
Typ práce: diplomová práce
Jazyk práce: angličtina
Ústav: Katedra teoretické informatiky a matematické logiky (32-KTIML)
Vedoucí / školitel: prof. RNDr. Ing. Martin Holeňa, CSc.
Řešitel: skrytý - zadáno a potvrzeno stud. odd.
Datum přihlášení: 02.02.2016
Datum zadání: 02.02.2016
Datum potvrzení stud. oddělením: 20.12.2016
Datum a čas obhajoby: 07.06.2017 10:30
Datum odevzdání elektronické podoby:12.05.2017
Datum odevzdání tištěné podoby:12.05.2017
Datum proběhlé obhajoby: 07.06.2017
Oponenti: RNDr. Jiří Fink, Ph.D.
 
 
 
Zásady pro vypracování
Student se nejdříve seznámí s principy optimalizace pomocí evolučních algoritmů i s principy urychlení evoluční optimalizace empirických funkcí pomocí regresních modelu. Bude se soustředit zejména na modely vycházející z gaussovských procesů. Poté se důkladně seznámí s aktivním učením, zejména s aktivním učením regresních modelů. Některé metody aktivního učení regresních modelů implementuje pro některé regresní modely používané k urychlení evoluční optimalizace empirických funkcí a v tomto kontextu také otestuje. K testování použije standardní sadu 24 testovacích funkcí pro black-box optimalizaci (BBOB), případně též sadu multimodálních testovacích funkcí navržených na Congress of Evoutionary Computation 2013.
Seznam odborné literatury
Dodá vedoucí práce.
Předběžná náplň práce
Evoluční algoritmy jsou v posledních 20 letech jednou z nejúspěšnějších metod pro řešení netradičních optimalizačních problémů, jako např. hledání nejvhodnějších dokumentů obsahujících požadované informace, objevování nejzajímvějších informací v dostupných datech či další typy optimalizačních úloh, při nichž lze hodnoty cílové funkce získat pouze empiricky. Protože evoluční algoritmy pracují pouze s funkčními hodnotami optimalizované funkce, blíží s k jejímu optimu podstatně pomaleji než optimalizační metody pro hladké funkce, které využívají rovněž informace o gradientu optimalizované funkce, případně o jejích druhých derivacích. Tato vlastnost evolučních algoritmů je zvláště nepříjemná ve spojení se skutečností, že empirické získání hodnoty optimalizované funkce bývá obvykle značně nákladné i časově náročné. Evoluční algoritmy však lze podstatně urychlit tím, že při vyhodnocování funkční hodnoty optimalizované funkce používají empirickou optimalizovanou funkci jen občas, zatímco většinou vyhodnocují pouze její dostatečně přesný regresní model. Právě přesnost modelu určuje, jak úspěšnou náhražkou původní empirické funkce bude. Proto se po získání každé nové generace bodů, v nichž byla empirická funkce vyhodnocena, model zpřesňuje opakovaným učením zahrnujícím tyto body. Lze však jít ještě dále a již při volbě bodů pro empirické vyhodnocení brát kromě hodnoty empirické funkce také v úvahu, jak při opakovaném učení modelu přispějí k jeho zpřesnění. Takový přístup se označuje jako aktivní učení. Používání aktivního učení k urychlení evolučních algoritmů je však teprve v úplných začátcích a měla by ho podpořit i navržená diplomová práce.
Předběžná náplň práce v anglickém jazyce
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and time-consuming empirical way of obtaining values of the objective function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function. It is the accuracy of the model that determines how successful surrogate of the original empirical function it will be. Therefore, the model is made more accurate after obtaining each new generation of points in which the empirical function has been evaluated, through re-learning including those points. However, it is possible to go even further and to consider, when choosing points for empirical evaluation, besides the value of the empirical function also how they contribute, during model re-learning, to making it more accurate. Such an approach is termed active learning. However, using active learning to accelerate evolutionary algorithms is only at a very beginning, and should be supported also by the proposed master thesis.
 
Univerzita Karlova | Informační systém UK