Článek týkající se velkých jazykových modelů - AMLV00087
Anglický název: Article concerning large language models
Zajišťuje: Ústav českého národního korpusu (21-UCNK)
Fakulta: Filozofická fakulta
Platnost: od 2024
Semestr: oba
Body: 0
E-Kredity: 3
Způsob provedení zkoušky:
Rozsah, examinace: 0/2, Z [HT]
Počet míst: zimní:neurčen / neurčen (neurčen)
letní:neurčen / neurčen (neurčen)
Minimální obsazenost: neomezen
4EU+: ne
Virtuální mobilita / počet míst pro virtuální mobilitu: ne
Kompetence:  
Stav předmětu: vyučován
Jazyk výuky: čeština
Způsob výuky: prezenční
Úroveň:  
Poznámka: předmět je možno zapsat mimo plán
povolen pro zápis po webu
předmět lze zapsat v ZS i LS
Garant: doc. PhDr. Jiří Milička, Ph.D.
Vyučující: doc. PhDr. Jiří Milička, Ph.D.
Rozvrh ZS   Rozvrh LS   Nástěnka   
Anotace
Pojďme si napsat odborný článek na nějaké hezké téma o velkých jazykových modelech. Tedy, napřed se zkusíme na nějakém společném tématu shodnout, prodiskutujeme metodologii a různé detaily, pokusíme se neutopit v heuristice, formulujeme hypotézy, ponoříme se do empirie... a pak to sepíšeme.
V ideálním případě ho stihneme během semestru rovnou submitnout do nějakého lepšího časopisu.
Seminář je omezený na šest lidí, pokud možno abnormálně motivovaných, (krev, pot ani slzy doufám nebudou, ale nemůžu je vyloučit). Bude s tím víc práce než s normálním seminářem a rovnou říkám, že za ty kredity to nestojí, nicméně nakonec z toho vyjde slušná publikace, což je ideální, pokud se pak budete chtít hlásit na doktorské studium, nebo pokud na něm už jste.
Poslední úprava: Milička Jiří, doc. PhDr., Ph.D. (25.02.2025)
Cíl předmětu

Absolvent semináře si vyzkouší, jaké to je psát odborný článek ve větším týmu.

Poslední úprava: Milička Jiří, doc. PhDr., Ph.D. (25.02.2025)
Podmínky zakončení předmětu

Spoluautorství na odborném článku.

Poslední úprava: Milička Jiří, doc. PhDr., Ph.D. (25.02.2025)
Literatura

  • Handa, D., Chirmule, A., Gajera, B., & Baral, C. (2024). Jailbreaking proprietary large language models using word substitution cipher. https://arxiv.org/abs/2402.10601
  • Janus. (2023). Simulators [Accessed: 2023-07-07]. https://www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
  • Liu, Y., Deng, G., Xu, Z., Li, Y., Zheng, Y., Zhang, Y., Zhao, L., Zhang, T., Wang, K., & Liu, Y. (2024). Jailbreaking chatgpt via prompt engineering: An empirical study. https://arxiv.org/abs/2305.13860
  • Milička, J. (2024). Theoretical and methodological framework for studying texts produced by large language models. https://arxiv.org/abs/2408.16740
  • Nardo, C. (2024). The waluigi effect: Mega post [Accessed: 2024-08-18]. https://www.lesswrong.com/posts/D7PumeYTDPfBTp3i7
  • Reynolds, L., & McDonell, K. (2021). Multiversal views on language models.https://arxiv.org/abs/2102.06391
  • Shanahan, M., McDonell, K., & Reynolds, L. (2023). Role play with large language models. Nature, 623 (7987), 493–498.

Poslední úprava: Milička Jiří, doc. PhDr., Ph.D. (25.02.2025)