Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 368)
Detail práce
   Přihlásit přes CAS
Transfer learning v black-box optimalizaci
Název práce v češtině: Transfer learning v black-box optimalizaci
Název v anglickém jazyce: Transfer learning in black-box optimization
Akademický rok vypsání: 2023/2024
Typ práce: diplomová práce
Jazyk práce:
Ústav: Katedra teoretické informatiky a matematické logiky (32-KTIML)
Vedoucí / školitel: prof. RNDr. Ing. Martin Holeňa, CSc.
Řešitel:
Zásady pro vypracování
1. Seznamte se s problematikou spojité black-box optimalizace využívající náhradní modelování.
2. Seznamte se s metodou pro black-box optimalizace CMA-ES a s jejich rozšířeními pro náhradní modelování a naučte se pracovat s některou z existujících implementací.
3. Seznamte s existujícími přístupy k transfer learning v black-box optimalizaci.
4. Některý z těchto přístupů rozpracujte pro metodu CMA-ES s rozšířeními pro náhradní modelování.
5. Rozpracovanou metodu implmentujte s využitím použité implementace metody CMA-ES a otestujte na benchmark funkcích ze standardně používaného systému COCO pro testování black-box optimalizačních metod.
Seznam odborné literatury
• W. Chen, H. Dong, P. Wang, X. Wang. Surrogate-assisted global transfer optimization based on adaptive sampling strategy. Advanced Engineering Informatics 56 (2023).
• H. Dong, P. Wang, X. Yu, B. Song. Surrogate-assisted teaching-learning-based optimization for high-dimensional and computationally expensive problems. Applied Soft Computing Journal 99 (2021).
• A. Gupta, Y.S. Ong, L. Feng. Surrogate-assisted teaching-learning-based optimization for high-dimensional and computationally expensive problems. IEEE Transactions on Emerging Topics in Computational Intelligence, 2 (2018).
• C. Hu, S. Zeng, C. Li. Scalable GP with hyperparameters sharing based on transfer learning for solving expensive optimization problems. Applied Soft Computing Journal 148 (2023).
• V. Perrone, H. Shen, M. Seeger, C. Archambeau, R. Jenatton. Learning search spaces for Bayesian optimization: Another view of hyperparameter transfer learning. In NeurIPS 2019.
Předběžná náplň práce
Transfer learning (tedy učení přenosem, ale český překlad se v podstatě nepoužívá) je metoda algoritmické extrakce znalostí z řešeného problému a jejich zabudování do řešení jiného problému. Hlouběji studovat se začala zhruba před 20 lety, v souvislosti s rozvojem moderních typů neuronových sítí, často označovaných jako hluboké sítě. Umožňuje s využitím sítě natrénované na velkém množství dat natrénovat jinou síť podobné kvality na mnohem menším množství dat.
V posledních letech se objevují pokusy používat transfer learning i v black-box optimalizaci. To je optimalizace, při které se nepoužívá matematické vyjádření optimalizované funkce (typicky z důvodu, že žádné takové vyjádření není známo), ale optimalizační algoritmus má k dispozici pouze její hodnoty v konkrétních bodech. Tyto hodnoty se obvykle získávají empiricky měřením nebo pomocí experimentů, ať už probíhají fyzicky nebo v podobě simulací. Pro black-box optimalizaci se používají algoritmy, které nemají skoro žádné předpoklady o matematických vlastnostech optimalizované funkce, nejčastěji evoluční algoritmy a další přírodou inspirované algoritmy jako roje částic. Pokud jde o transfer learning, ukazuje se, že podobně jako v případě neuronových sítí umožňuje natrénovat síť stejné kvality s menším množstvím trénovačích dat, umožňuje při black-box optimalizaci najít optimum na základě menšího počtu hodnot black-box funkce. To je velmi slibné z důvodu, že empirické získání hodnoty optimalizované funkce bývá obvykle značně nákladné i časově náročné.
 
Univerzita Karlova | Informační systém UK