Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 368)
Detail práce
   Přihlásit přes CAS
Bezpečnost strojového učení
Název práce v češtině: Bezpečnost strojového učení
Název v anglickém jazyce: Machine Learning Security
Akademický rok vypsání: 2021/2022
Typ práce: disertační práce
Jazyk práce:
Ústav: Katedra teoretické informatiky a matematické logiky (32-KTIML)
Vedoucí / školitel: Mgr. Martin Pilát, Ph.D.
Řešitel: skrytý - zadáno a potvrzeno stud. odd.
Datum přihlášení: 02.08.2022
Datum zadání: 02.08.2022
Datum potvrzení stud. oddělením: 03.10.2022
Zásady pro vypracování
Metody strojového učení a především hlubokého učení dosáhly v posledních letech významných úspěchů v mnoha oblastech umělé inteligence a počítačového vidění. Tyto techniky jsou ale náchylné k takzvaným nepřátelským vzorům (adversarial examples). To jsou mírně upravené vzory, které pro člověka vypadají, jako že patří do jedné třídy, ale model strojového učení je klasifikuje jako třídu jinou, ačkoliv původní, neupravený, vzor klasifikoval správně. Existence takových vzorů může mít významné důsledky pro bezpečnost systémů založených na strojovém učení. Na druhou stranu mohou být techniky hlubokého učení použity k vytváření tzv. deep-fakes, což jsou uměle vytvořená videa, která se snaží tvářit jako reálná. Taková videa potom mohou být použita k vytváření dezinformací nebo ke zmatení biometrických systémů.

Cílem práce je zkoumat metody strojového učení z hlediska jejich robustnosti a jejich vlivu na bezpečnost. Práce by se měla věnovat mimo jiné problémům popsaným výše - nepřátelským vzorům a deep-fakes, a to jak z hlediska obrany proti nim, tak i z hlediska jejich vytváření.
Seznam odborné literatury
[1] Xue, Mingfu, Chengxiang Yuan, Heyi Wu, Yushu Zhang, and Weiqiang Liu. "Machine learning security: Threats, countermeasures, and evaluations." IEEE Access 8 (2020): 74720-74742.
[2] Nguyen, Thanh Thi, Quoc Viet Hung Nguyen, Cuong M. Nguyen, Dung Nguyen, Duc Thanh Nguyen, and Saeid Nahavandi. "Deep learning for deepfakes creation and detection: A survey." arXiv preprint arXiv:1909.11573 (2019).
[3] Agarwal, Shruti, Hany Farid, Yuming Gu, Mingming He, Koki Nagano, and Hao Li. "Protecting World Leaders Against Deep Fakes." In CVPR workshops, vol. 1. 2019.
[4] Yuan, Xiaoyong, Pan He, Qile Zhu, and Xiaolin Li. "Adversarial examples: Attacks and defenses for deep learning." IEEE transactions on neural networks and learning systems 30, no. 9 (2019): 2805-2824.
 
Univerzita Karlova | Informační systém UK