IUI Strojové učení - 8.6.2017
Napsal: 13. 6. 2017 19:49
Celkem nás bylo 11, rozděleni do dvou skupin (každá se svojí komisí). Sraz v 9 ráno, konec kolem 1 odpoledne. Naše komise byla Barták, Vomlelová, Neruda, Majerech, Hladík, Božovský (a ještě asi někdo). Všichni prošli v obou skupinách.
Seděli jsme ve velké posluchárně. Zkouška probíhala tak, že zkoušející postupně chodili po studentech a zadávali jim otázky, nechávali cca 20min na přípravu a pak se vrátili a poslechli si to (a doptávali se dál). Celkem to navazovalo a až na pár výjimek se moc dlouho nečekalo. Většinou si zkoušku šel kromě zkoušejícího poslechnout i nějaký další člen komise, který pendloval třeba mezi 2 probíhajícíma zkouškama.
Na konci ze všech zkoušení vyplynula jedina (průměrná?) známka (ale asi žádnou nemůžete úplně failnout).
Moje otázky:
Datovky - Hladík - Binomiální haldy: co to je, jak to funguje, jaké operace máme, jak je to rychlé + líná varianta, amort. odhady. K čemu se haldy vlastně používají a jestli znám nějakou lepší (fib.) a krátce jak funguje, ale žádné detaily.
Slož. & vyčísl - Majerech - Algoritmicky nerozhodnutelné jazyky + Halting problem: řekl jsem co je to jazyk, (ne)rozhodnutelný jazyk, Postovu větu, existenci nerozhodnutelného jazyka (L_DIAG). Ke každé větě padla otázka, která byla poměrně lehká, ale měla prozkoumat, že tomu fakt rozumim (např. proč je teda spočetně mnoho TS nebo jak TS zakódovat do binární abecedy). Pak jsem šel k halting problemu a důkazu jeho m-úplnosti a tam už stačilo jenom říct, že je m-úplný a pan Majerech řekl, že to umim a že už je to ztráta času
Přírodou insp. počítání - Neruda - Genetické programování: Tady chtěl hlavně co to je, jednotlivé operátory, proč stromy bobtnají a jak s tím bojovat (omezení hloubky/velikosti, regularizace pomocí termu ve fittness, ...) a potom jak fungují ADF a jak na nich definovat operátory. Nakonec bonusová otázka jak na primárních stormech a ADF pouštět koevoluci (ale to už jsem cítil, že se zeptal jenom proto, že nebylo koho jiného zatím zkoušet) - to byla spíš taková diskuze jako co by mě tak napadlo.
Neuronové sítě - Božovský - Hledání suboptimálních řešení: Tady vlastně nevím, co jsem měl říct, protože hledání subopt. řešení se chceme typicky vyhnout. Takže jsem ukázal, že backprop se může zaseknout v lokálním minimu a že momentum tomu může zabránit (tady chtěl vzorečky na gradient descent s momentem, ale ne vlastní backprop natož jeho odvození). Dál jsem zmínil nějaké augmentace trénovacích dat a náhodné perturbace vah neuronů. Dál jsem zmínil problém lokálních optim u hopfielda a že se to dá řešit pomocí simulated annealing (tady byl potřeba vzoreček a vysvětlení jak funguje) -> Boltzman machine (zmínka o RBF, ale jen malá). Nakonec jsem zmínil SOM a problém mrtvého neuronu, načež se mě zeptal, jak to řešit a jak inhibiční funkce a velikost okolí ovlivňuje mrtvé neurony. Trochu jsme se v tom patlali, ale nakonec v poho.
Machine learning - Vomlelová - Teoretické aspekty ML: nejdřív se mě zeptala, co si pod tou otázkou představuju (k-fold crossval, train/test split, bias-variance) a pak doplnila svoje (overfitting, prokletí dimenzionality). Ke každému jsem něco krátce neformálně řekl nebo nakreslil a padlo pár dotazů. Např. proč se chyba nedá dekomponovat jenom na bias a variance (chybí ještě šum) nebo proč k-fold crossval může dávat špatné výsledky. Proč je nutné mít train/valid/test split, jak je to s časovo náročností třeba u LOOCV atd.
Celkem to bylo příjemné a rychlé, všichni zadávali otázky jasně a srozumitelně, typicky napověděli co chtějí slyšet a ujistili se, že tomu rozumíme (snad s výjimkou neuronovch sítí, kde jsem žádný hint nedostal a moc nevěděl co vlastně říkat). Při nejasnostech napovídali a snažili se vytáhnout aspoň něco. Otázky padaly přesně tak jak jsou v karolínce, takže poměrně široce (ale zkoušející většinou upřesnil jakým směrem chce jít). Je potřeba dobře znát základní pojmy a rozumět celé problematice. Naopak technické důkazy úplně asi potřeba nejsou - spíš jde o to komisi přesvědčit, že tomu fakt rozumíte.
Seděli jsme ve velké posluchárně. Zkouška probíhala tak, že zkoušející postupně chodili po studentech a zadávali jim otázky, nechávali cca 20min na přípravu a pak se vrátili a poslechli si to (a doptávali se dál). Celkem to navazovalo a až na pár výjimek se moc dlouho nečekalo. Většinou si zkoušku šel kromě zkoušejícího poslechnout i nějaký další člen komise, který pendloval třeba mezi 2 probíhajícíma zkouškama.
Na konci ze všech zkoušení vyplynula jedina (průměrná?) známka (ale asi žádnou nemůžete úplně failnout).
Moje otázky:
Datovky - Hladík - Binomiální haldy: co to je, jak to funguje, jaké operace máme, jak je to rychlé + líná varianta, amort. odhady. K čemu se haldy vlastně používají a jestli znám nějakou lepší (fib.) a krátce jak funguje, ale žádné detaily.
Slož. & vyčísl - Majerech - Algoritmicky nerozhodnutelné jazyky + Halting problem: řekl jsem co je to jazyk, (ne)rozhodnutelný jazyk, Postovu větu, existenci nerozhodnutelného jazyka (L_DIAG). Ke každé větě padla otázka, která byla poměrně lehká, ale měla prozkoumat, že tomu fakt rozumim (např. proč je teda spočetně mnoho TS nebo jak TS zakódovat do binární abecedy). Pak jsem šel k halting problemu a důkazu jeho m-úplnosti a tam už stačilo jenom říct, že je m-úplný a pan Majerech řekl, že to umim a že už je to ztráta času
Přírodou insp. počítání - Neruda - Genetické programování: Tady chtěl hlavně co to je, jednotlivé operátory, proč stromy bobtnají a jak s tím bojovat (omezení hloubky/velikosti, regularizace pomocí termu ve fittness, ...) a potom jak fungují ADF a jak na nich definovat operátory. Nakonec bonusová otázka jak na primárních stormech a ADF pouštět koevoluci (ale to už jsem cítil, že se zeptal jenom proto, že nebylo koho jiného zatím zkoušet) - to byla spíš taková diskuze jako co by mě tak napadlo.
Neuronové sítě - Božovský - Hledání suboptimálních řešení: Tady vlastně nevím, co jsem měl říct, protože hledání subopt. řešení se chceme typicky vyhnout. Takže jsem ukázal, že backprop se může zaseknout v lokálním minimu a že momentum tomu může zabránit (tady chtěl vzorečky na gradient descent s momentem, ale ne vlastní backprop natož jeho odvození). Dál jsem zmínil nějaké augmentace trénovacích dat a náhodné perturbace vah neuronů. Dál jsem zmínil problém lokálních optim u hopfielda a že se to dá řešit pomocí simulated annealing (tady byl potřeba vzoreček a vysvětlení jak funguje) -> Boltzman machine (zmínka o RBF, ale jen malá). Nakonec jsem zmínil SOM a problém mrtvého neuronu, načež se mě zeptal, jak to řešit a jak inhibiční funkce a velikost okolí ovlivňuje mrtvé neurony. Trochu jsme se v tom patlali, ale nakonec v poho.
Machine learning - Vomlelová - Teoretické aspekty ML: nejdřív se mě zeptala, co si pod tou otázkou představuju (k-fold crossval, train/test split, bias-variance) a pak doplnila svoje (overfitting, prokletí dimenzionality). Ke každému jsem něco krátce neformálně řekl nebo nakreslil a padlo pár dotazů. Např. proč se chyba nedá dekomponovat jenom na bias a variance (chybí ještě šum) nebo proč k-fold crossval může dávat špatné výsledky. Proč je nutné mít train/valid/test split, jak je to s časovo náročností třeba u LOOCV atd.
Celkem to bylo příjemné a rychlé, všichni zadávali otázky jasně a srozumitelně, typicky napověděli co chtějí slyšet a ujistili se, že tomu rozumíme (snad s výjimkou neuronovch sítí, kde jsem žádný hint nedostal a moc nevěděl co vlastně říkat). Při nejasnostech napovídali a snažili se vytáhnout aspoň něco. Otázky padaly přesně tak jak jsou v karolínce, takže poměrně široce (ale zkoušející většinou upřesnil jakým směrem chce jít). Je potřeba dobře znát základní pojmy a rozumět celé problematice. Naopak technické důkazy úplně asi potřeba nejsou - spíš jde o to komisi přesvědčit, že tomu fakt rozumíte.