od arahusky » 3. 6. 2016 15:05
Dnešní zkouška u Františka Mráze měla 2 otázky společné pro všechny:
Popište
metody redukce dimenzí - chtěl popsat jak metody feature selection, tak feature extraction, u které chtěl vždy jednu metodu trochu podrobněji (e.g. u PCA chtěl vědět, jak vypadá dané zobrazení (matematicky), co daná matice obsahuje, ...)
Druhá otázka pak souvisela s první, kdy se ptal na to, jak bychom prakticky redukovaly dimenzi biologických dat - málo samplů, hodně features. Mluvil jsem o tom, že bych nebral atributy mající navzájem vysokou korelaci, zkusil natrénovat Random Forest a díval se, jaké atributy vybírá pro dělení často a které ne, o tom, že pro menší počet atributů by se dalo pomoct histogramy, atd. Obecně člověk může používat libovolné metody feature selection (nebo si najmout odborníka
).
Pokud se mu něco nezdálo, dal doplňující otázku (e.g. kernely u SVM - proč a jak je používáme).
Dnešní zkouška u Františka Mráze měla 2 otázky společné pro všechny:
Popište [b]metody redukce dimenzí [/b]- chtěl popsat jak metody feature selection, tak feature extraction, u které chtěl vždy jednu metodu trochu podrobněji (e.g. u PCA chtěl vědět, jak vypadá dané zobrazení (matematicky), co daná matice obsahuje, ...)
Druhá otázka pak souvisela s první, kdy se ptal na to, jak bychom prakticky redukovaly dimenzi biologických dat - málo samplů, hodně features. Mluvil jsem o tom, že bych nebral atributy mající navzájem vysokou korelaci, zkusil natrénovat Random Forest a díval se, jaké atributy vybírá pro dělení často a které ne, o tom, že pro menší počet atributů by se dalo pomoct histogramy, atd. Obecně člověk může používat libovolné metody feature selection (nebo si najmout odborníka :D).
Pokud se mu něco nezdálo, dal doplňující otázku (e.g. kernely u SVM - proč a jak je používáme).