AI/ML 15. 9. 2020

Vše o státnicích úspěšně završujících roky studia na naší alma mater.

AI/ML 15. 9. 2020

Příspěvekod petrroll » 15. 9. 2020 18:30

# Mgr. státnice AI/ML 15/09/2020 - Petr Houška
// fotky paperů: https://github.com/petrroll/mff-stuff/t ... ou%C5%A1ka

## Obecné faktické informace:
- 5 otázek z 5 okruhů; 2 povinné, 3 volitelné.
- Na začátku k vám (v náhodném pořadí) přijde postupně 5 lidí z komise a každý vám zadá otázku z jednoho okruhu + řekne pořadí kolikátá vaše otázka to je.
- Následně k vám (by rules) po (30minut příprava + 30 minut zkoušení) slotech chodí příslušní lidé a zkouší vás danou otázku, kterou vám zadali. Občas si k nim přisedne někdo další a je co-zkoušející. Prakticky chodí jakmile se přihlásíte + oni jsou available, celé státnice jde stihnout daleko dřív než za 5 hodin.
- Míra kterou si čtou papír vs. kolik si toho nechají ústně říct vs. kolik je debata extrémně záleží, jenom já měl případy plně papír i plně povídání.
- Výsledky jsme dostali asi 10 minut po dozkoušení nejpomalejšího člověka.

## Random notes:
- Nedostali jsme erární papíry, asi si o ně šlo říct, ale doporučuju si přinést svoje a radši víc. Dva papíry na otázku není vůbec špatný nápad.
- Při zkoušce šlo normálně chodit na toaletu, pít, jíst. Celkově to mělo opravdu příjemný vibe. Naprosto neironicky to bylo ve u všech otázek spíš příjemné povídání než stresové zkoušení.

## Obecné shrnutí:
- Všechny zkoušení byly super příjemný. Jako velmi dobrá strategie mi přišlo umět opravdu hodně věcí hodně high level a ukázat to. A pak pár věcí (ty které člověk sám chce) rozvést trochu víc. IMHO tím šlo velmi efektivně předejít tomu, aby se zkoušející zeptal na nějaký detail, který zrovna není úplně jasný.
- Žádný z mých orkuhů nebyl ani omylem zkoušen do úrovně jako na zkoušce daného předmětu.
- Obecně mi přišlo, že úroveň (nejen) mých poznámek z mff-stuff se všemy důkazy zapamatovanými poze jako hrubá high-level idea (i.e. savich: dynamické programování + počet konfigurací; splay: jak je cca definovaný potenciál + teleskopická suma a jednička u jednorotace) je postačující na pohodlnou jedničku, a ani člověk nemusí umět všechno. Já uměl tak 90 %, odhadem. Cokoliv hlubšího se mi zdá že by bylo úplně zbytečné.
- That being said, IMHO se tomu vyplatí high-level opravdu rozumnět, nejen to umět odpapouškovat. A tu a tam to demonstrovat skrze nějaké spojení.

## Multiagentní systémy [R. Barták]: Aukce
- `./1_1.jpg`, `./1_2.jpg`
Hned při zadávní otázky jsem se ptal, jestli to můžu rozšířit, protože mi nepřijde, že se toho o aukcích dá tolik říct. Bylo mi řečeno, že se toho o nich dá říct spoustu (různé typy, jejich problémy, mitigace, ...), což mě trochu znervóznilo.

Zkoušení začalo otázkou do jaké širší kategorie aukce patří. Absolutně jsem netušil kam otázka míří, což jsem zkoušejícímu také přiznal. Snažil jsem mne navést, já místo toho říkal věci jako multi-agentní systémy (ano, ale trochu míň široké), utility theory (adjacent, but not really). Nakonec jsme se dostali k tomu, že v aukcích nastavujeme pravidla a zkoušející se otázkou jestli jsem odchodil AI2 (moje odpověď že jo, ale už 3 roky zpátky byla přijata bez problémů) prozradil, že chtěl termín "reverzní teorie her/mechanism design".

Následně jsem začal popisovat různé typy aukcí viz papíry. Hned zkraje jsem přiznal, že mám hrozně špatnou paměť na jména/typy a že jsem je možná zmixoval. Zkoušející vypadal, že to chápe a že to nebude problém. Hned první Anglickou aukci jsem ovšem trefil názvem správně, z čehož jsme oba měli radost. U anglické jsme se trochu zasekli, když jsem říkal, že by teoreticky mohla fungovat i s druhým nejvyšším bidem, což zkoušející oponoval, že to pak není anglická aukce. Shodli jsme se na tom, že by to nedávalo moc smysl a nebyla to anglická aukce, ale mohlo by to existovat.

U obálka/platí se nejvyšší bid se zkoušející ptal, jaká je optimální strategie. Já uvedl, že to na papíře, zkoušející oponoval, že ne. Já si stál za svou a snažil se rozebrat proč, s tím, že nevím kam míří. Zkoušející uvedl příklad 4 normálních lidí + superbohatého (let's say J. Bezose). Já pořád nechápal kam míří a stál za svou. Zkoušející mi napověděl tím, že Bezos by mohl vědět očekávanou utilitu ostatních lidí a bidnout secondBest + e. Na to jsem přiznal, že jsem měl přepodklad neznání utility ostatních, což byl implicitní a špatný předpoklad, který jsem mít neměl. A že s ním to je samozřejmě jinak. Následně jsem rozebral jak toho ovlivňuje ostatní typy. U anglického uvedl, že tam se zas u reálných lidí projevuje efekt soutěživosti, který vede k placení víc než subjektivní utilita + šroubování ceny + explicitní sdílení informací, atd.. Zdálo se, že zkoušející je spokojený s diskuzí.

Následně jsme se přesunuli k teorii her, high level jsem definoval dominovanou/dominující strategii, pareto (ne)optimum, vše v kontextu vězňova dilema. Pak jsem dostal otázku na obecní pastvinu, definici problému a případné řešení. Uvedl jsem paralelu s reálným světem, skrz to jsem i přivedl řešení v podobě z-explicitnění externalit (daně/povolenky/...). Dostal jsem otázku jak to nacenit. Na to jsem uvedl, že to je komplexní a multidimenzionální problém a že záleží na co přesně optimalizujeme. Zkoušející navrhl aukce, já lehce oponoval s tím, že jet čistě monetárně - pokud jsme v kontextu reálného světa - nemusí být jediný ideální přístup; znovy vypadalo, že je zkoušející spokojený s diskuzí. Nakonec byla otázka na to, jaký typ aukce by byl nejlepší pro podobné cenění veřejných zdrojů, aby nebylo jisté, že je ziská např. Bezos. Zkoušející se znovu snažil hintovat na obálkové aukce s 2. nejvyšší cenou, kde je optimální bid pravou utilitu. Skrze mé nepochopení k čemu tato otázka vede jsme se dostali k zásadní nelinearitě užitku majetku.

I přes relativně hodně momentů, kdy jsem nevěděl co po mě zkoušející přesně chce to vypadalo, že je velmi spokojený s diskuzí a obecně výsledkem. A i za mě to bylo extrémně příjemné povídání.

## Přírodou inspirované počítání [R. Neruda]: Genetické algoritmy
- `./2_1.jpg`
Při zadávání otázky jsem se zeptal jestli mám dojít až k schématům/analýze přes markovovi řetězce. R. Neruda poznamenal, že to očividně vím a že teda nemusím :D.

Když jsem ho pak odchytil, tak jsem víceméně jen odpřednesl, co mám na papíru. Trochu jsem si nebyl jistý, jestli se fitness proporční selekce dělá jen u enviromentální nebo i u rodičovské, zmínil jsem že nevím a implikace either-way. Oproti papíru jsem víc rozvedl mutace lamark/baldwin, u selekce trochu víc niching (vzpomenul NEAT/CoDeepNeat). Nakonec jsem high level zmínil sechémata, jak to souvisí s building blocks, a že building blocks je jen kódování-dependant assumption (headless-chicken experiment); ale že i když neplatí tak meta-mutace není k zahození.

Nakonec jsme si chvíli obecně povídali o pokračování schémat v jiných kódování (já spíš poslouchal, upřímně :)), úskalích rigorozní analýzy přes mark. řetězce (neupočítatelné), a já se dozvěděl o promising přístupech skrze analýzu vlastností populací z fyzikálního simulování/termodynamiky. Zkoušející odcházel velmi spokojený, já zůstával sedět také spokojený a obohacený o nové poznatky :).

## Základy složitosti a vyčíslitelnosti [A. Kučera]: NP úplné problémy
- `./3_1.jpg`, `./3_2.jpg`
Po cca 15 minutách ke mě přišel, jestli už může zkoušet. Byl jsem zrovna v půlce psaní high-level verze Lewin-Cook, ale řekl jsem že ok. Přečetl si, co jsem napsal (viz přiložené fotky). Trochu se nevyznal v pořadí mých definicící, takže jsem mu jenom řekl kde co mám, a že nadpis nepatří k první definici NP třídy. Když došel k Lewin-Cook, tak podotkl, že tohle jsem fakt psát nemusel.

Projel mnou zmíněné NP úplné problémy, zeptal se co 2SAT. Já se snažil nějak kloudně říct, že nevíme, ale že neznáme převod a tak, že nejspíš NP úplný není. Trochu jsme se nechápali, já pak dodal, že má polynomiální algoritmus. Chtěl jsem dodat, že možná převod z 3SAT na 2SAT existovat může, ale kdyby existoval, tak P=NP. Než jsem to stihl pořádně vysvětlit, tak jsem dostal otázku jak funguje 2SAT poly alg, přiznal jsem, že přesně nevím, ale že je to víceméně graf ve kterém hledáme cestu, kde jsou propojené literály. Na to vzal pan Kučera propisku, načrtl mi jak přesně to funguje, dodal, že prý je na to i skoro lineární algoritmus skrze heuristiky atd. Zdálo se, že mi to říká jen jako zajímavost a odcházel naprosto spokojený.

## Datové struktury [V. Majerech]: Haldy (d-regulární, binomiální)
- `./4_1.jpg`, `./4_2.jpg`, `./4_3.jpg`
Zkoušející si přečetl co jsem napsal (IMHO jsem jen dodal jak by se dělal increase/decrease u d-regulární), u binomiálních/fibonaciho hald se zeptal na udržování spojového seznamu lesa, kdy to můžu dělat. Já se moc nezamyslel a řekl, že mohu projít pole a nastavit korektně pointery po konci heap-fix. Bylo mi vysvětleno, že to zabije amortizaci n*Insert na O(1) a jak to dělat správně; nezdálo se, že to bylo bráno jako velký problém.

Pak si všiml mé poznámky, že existují varianty s garantovanou složitostí, k tomu jsem dodal, že se ale nepoužívají protože špatné konstanty. Zkoušející se začal ptát jaké přesně operace to garantuje lepší worst case. Přiznal jsem se, že upřímně netuším; buď decrease nebo i extract-min, ale že si to pamatuju jen jako poznámku pod čarou. Trochu jsem se začal bát, ale zkoušející okamžitě začal popisovat svůj paper na Haldy, které právě tohle řeší s údajně velmi dobrými konstantami. To nakonec zabralo víc času než samotné zkoušení, ale zas jsem se dozvěděl něco nového (vcelku theme mých státnic); zkoušející odcházel zřejmě spokojený.

## Representace znalostí [O. Čepek]
- `./2_1.jpg`
Začal jsem víceméně 1:1 přeříkávat co mám na papíře, zkoušející si to u toho vcelku pečlivě pročítal. Záhy si přisedl ?P. Kučera. U funkčních/relačních symbolů jsem nad rámec papíru chtěl zmínit, že můžeme nahradit funkční symboly skrz n+1-ární relaci. Okamžitě jsem byl P. Kučerou (asi?) upozorněn, že to úplně obecně nefunguje a že tam musí být zásadní omezení na použití této substituce. Nezdálo se, že by to byl zásadní problém. Oproti papíru jsem trochu víc rozvedl že důkazy jsou čistě syntaktické a jak model do FO zavádí sémantiku. U FO vs PL jsem nevěděl, jak se jmenuje ona věta o modelu konečné podmnožiny grounded verze, vůbec to nevadilo; zdálo se, že je pozitivní, že jsem ji vůbec zmínil. Zkoušející odcházel spokojený.


## Results:
Nevím dílčí výsledky, ale za 1. Naše skupina byla 6x 1 a 1x 2, jeden člověk nedorazil.
Uživatelský avatar
petrroll
Matfyz(ák|ačka) level I
 
Příspěvky: 12
Registrován: 23. 5. 2015 21:27
Typ studia: Informatika Bc.
Login do SIS: houskape

Re: AI/ML 15. 9. 2020

Příspěvekod Drecker » 15. 9. 2020 19:01

Neuronové sítě -- NN pro problémy učení bez učitele (zejména Kohonenovy mapy) [Pilát]
Řekl jsem nějaký krátky obecný úvod, že cílem je najít nějakou strukturu v datech (typycky rozklastrovat). Základní pointa je v tom, že když zpracováváme vstup, najdeme nejbližší neuron, ten zvolíme jako "vítězný" a upravíme jeho váhy (typicky směrem ke vstupu). Takto jednoduchý algoritmus vpodstatě odpovídá k-means. Kohonenovy mapy přidávájí topologii na prosoru neuronů -- není ovlivněn jen vítězný neuron ale i nejbližší neurony v prostoru neuronů. To děláme podle nějaké funkce topologického prostoru (začal jsem muvit o nějakých triviálnách případech té funkce). Nějak jsem tam načrtl adaptační pravidlo, ale ani nevím jestli správně (nějak ho to nezajímalo). Chtěl slyšet "Funkce mexického kloboku", potěšilo ho, že jsem řekl, že je to rozdíl dvou normálních rozdělení. Ukázal jsem "motýla" a jen slovně načrtl, že to nezkonverguje do optima, tím jsme skončili.

Základy složitosti a vyčíslitelnosti -- Aproximační algoritmy a schémata [Petr Kučera]
Zadefinoval jsem co je to Optimalizační problém, a (alfa-)aproximační problém. Uvedl jsem příklad na BinPackingu, kde jsem ukázal 2-aproximační, a ideu důkazu (při dotazu jestli to chce pořádně, řekl, že ne -- ani nevím jestli chctěl tu ideu). Pak jsem zadefinoval PAS a ÚPAS. Řekl jsem, že na Batoh (který po mě chtěli zadefinovat) máme pseudopolynomiální algoritmus s O(nW), kde W je velikost batohu (algortimus jsem nepopisovat, jen řekl, že "si udržujeme tabulku"). Z tohohle algoritmu můžeme odstat ÚPAS, tak že zaokrouhlujeme... tady jsem se zasek, protože mi nic nedávalo smysl. Načež mi Kučera vysvětlil, že tady je právje chyba, že škálovat váhy nemůžeme (při zaokrouhlení dolů nám může vyjít nepřípustné řešení, nahoru zase nedostaneme odhad k optimálnímu řešení). Proto je potřeba vybrat pseudopoly. se složitostí O(nC), kde C je součet cen. Ale to není problém, stačí jen otočit tabulku. V průběhu přišel Čepek a shodli se, že používám divné názvosloví, ale ničemu to nevadí. Celkově odcházel Kučera dost spokojený.

Reprezentace znalostí -- Výroková logika, sémantika, tautologie, dokazatelnost, splnitelnost [Čepek]
Nějak jsem zadefinoval co je to Teorie (množina prvovýroků a formulí = axiomů). V detailech se naštěstí nerýpal -- shodli jsme se na představě že prvovýrok je vlastně proměná, která může být true/false. Model teorie je ohodnocení prvovýroků konzistentní s axiomy dané teorie. Formule je sémanticky dokazatelná, pokud platí ve všech modelech teorie. Sém. splnitelný, pokud platí alespoň v jednom. Tautologie je sémanticky dokazatelná v každé teorii (toto nevím jestli je úplně správně, každopádně se tvářil spokojeně on i Petr Kučera co se přišel podívat). Řekl jsem že známe dokazovací metody jako rezoluce a tablo, které jsou úplné a korektní. Zeptal se mě na ty pojmy "úplné" a "korektní" dokazovací metody, ty jsem zadefinoval. Pak se mě zeptal jak teda funguje ta rezoluce, což jsem mu ukázal na mini-příkladu (nejprve převod do CNF -- co je to CNF -- a pak jeden krok). A pak už jen, že co se stane, když se snažím dokázát spor (dostanu prázdnou klauzuli).

Strojové učení -- Učení s učitelem (hlavně rozhodovací stromy, SVM, ...) [Barták]
Prošli jsme krátký úvod co to je strojové učení atd. Pak jsem jen zmínil lin. regresi a co to je. Pak jsme šli na stromy -- jak funguje inference, jak stavím strom -- snažím se minimalizovat entropii/Gini, to jsem zadefinoval co to je. Pokračuju dokud -- mám data různých cílových tříd/hodnot a různých příznaků a alespoň nějaká data. Co bude značit list, který byl zastaven postupně těmito kritérii (list co byl zastaven, protože tam nejsou ŽÁDNÁ data -- může se stát pro nebinární stromy -- tak rozhoduje inferovanou třídu dle rodiče, jinak jasné). Trošku jsme prošli generalizaci -- můžu penalizovat složité stromy (víc jsem neřekl) nebo dělat pruning kdy na trénovací množině postavím strom a púotom prořezávám dokud to snižuje testovací chybu. Padla otázka proč se teda nezastavím rovnou při buildu -- příklad se XORem. Větou jsem řekl co jsou to náhodné lesy. A pak ve stručnosti (jen ideově) uvedl SVM (hledáme dělící nadrovinu -- trik se zobrazením do složtějšího prostoru, slack; řekl jsem že to je pointa duálního problému kdy nám stačí kernel, a musíme si potom pamatovat jen ty "support vektory" co vyšli se slackem).

Datavé struktury -- Hešování [Majerech]
Majerech za mnou přišel hned jak jsem skončil s Bartákem a zeptal se jeslti můžu nebo se ještě připravuju. Řekl jsem, že jsem si zatím neměl čas to připravit (měl jsem asi jen dvě věty), ale jestli chce, tak to můžu zkusit spatra. Tak řekl ať to zkusím. Takže to bylo dost takové povídání. Řekl jsem motivaci (chceme rychle insert, delete, find). Uvažoval jsem číselné universum, poznamenal, že můžeme hešovat cokoli, ale klidně můžeme uvažovat teď jen čísla. Řekl jsem že uvažujeme nějaké uversum hešovacích fcí a tu vybíráme náhodně. A hešovací fce je fce která prvku z universa přiřadí místo v paměti. Zeptal se jeslti jsem schopný udělat nějakou analýzu na nějakém přístupu jak řešit kolize. Tak jsem začal mluvit o separovaných řetězcích, že délka řetězce, lze při c-univerzálním hešování a m > n odhadnout ve střední hodnotě jedničkou. Tím jsme se dostali k pojmu "faktor zaplnění" (n/m), který chtěl slyšet, a že ho chceme nízký -- udržujeme ho nízký tak, že když se moc veliký tak přehešujeme a hešovací tabulku vytvoříme nanovo dvakrát větší (aby se to uamortizovalo). Pak mi ale řekl, že separované řetězce jsou v praxi příšerný přístup akorát analýza je jednoduchá proto ji všichni dělají, tak jestli neznám něco zajímavějšího. Začal jsem mluvit o kukaččím, což zhodnotil, že je zajímavá volba, ale mám mluvit. Tak jsem ho nějak uvedl, ptal se na jeho výhodu, to jsem nevěděl, tak jsem začal že "ve srovnání s linear probing...", tak jsem byl dotázán abych řekl co to je linear probing. Tady zhruba přišel Antonín Kučera s tím "tak už ho nechej", načež mu Majerech řekl, že "Jemu to už je stejně jedno on už to má jako poslední otázku" a vrátil se ke zkoušení :D No takže jsem řekl co je to linear probing, jak se provádí operace (náhrobky), jeho nevýhody (clustery a teda vetší čas na operace). Pak mi řekl, že to co chtěl slyšet je, že Kukaččí ma garantovaný find (delete) v O(1) -- proto se prý používá, i když je potřeba ho přehešovat relativně často (ptal se při jakém poměru je třeba ho přehešovat, řekl jsem že bych tušil nějak 1/2, řekl že ano, že je to přibližně 0.45, a že ostatní přístupy dovolují i větší faktor zaplnění). Pak jsme řešili rodiny hešovacích funkcí -- tam jsem začal mluvit o ax + b mod p mod m. Načež mi řekl že ano, že o té fci se dá ukázat spoustu fajn teoritických vlastností (univerzálnost) ale, že se v praxi moc nepoužívá protože je časově náročná (modulo je výrazně "dražší" než třeba xor). Tak se ptal jeslti znám nějakou další nebo to je celý můj repertoár. Další jsem moc nevěděl, ale že začal mluvit o xoru tak jsem ze sebe začal soukat tabulační hešování a něco mu o tom řekl. Pak mi ještě chvíli vyprávěl. Celkově velmi příjemné zkoušení a i když jsem sem tam něco nevěděl, tak zkoušející odcházel asi spokojený.

Celkový výsledek: 1 (dílčí klasifikaci neznám)
Drecker
Matfyz(ák|ačka) level I
 
Příspěvky: 2
Registrován: 15. 6. 2018 11:46
Typ studia: Informatika Mgr.

Re: AI/ML 15. 9. 2020

Příspěvekod jankasvk » 18. 9. 2020 22:33

Skončila som o 12.00 (od 9.00) a bola som prvá z miestnosti (zo 4). Čakala som ešte pol hodinu na výsledok.

Všetci boli veľmi príjemní, nie nijak zákerný, ale asi sú radšej za plodnú diskusiu než "naučené". Stále ale mám pocit, že napriek tomu, že som sa učila veľa, tak som nič nevedela, a zároveň, že hoci to bolo nakoniec "v pohode" tak menej sa učiť ani nedalo. Prišlo mi, že napríklad u niektorých sa už dá vytipovať, na čo sa v tej podotázke budú pýtať, tak hoci si človek čiastočne môže viesť tú konverzáciu aj sám, ale neviem či to nakoniec nie je len klam :) (ale nie v zlom zmysle). Spätne ak by som sa učila znova, tak sa nesnažím určite pokryť napríklad všetky hešovacie rodiny, radšej sa zameriam na jednu a o nej poviem viac. Ťažko zhodnotiť, čo by človek vynechal, hlavne keďže mi príde, že oni sa budú pýtať tak hlboko, ako človek len dokáže ísť, ale pritom tá hranica nemusí byť pritom tak krutá. Hlavne som si na papier netrúfla napísať nič o čom som si nebola istá, že rozumiem (a nie je to len naučená poznámka). Posledný deň by som sa nesnažila naučiť nič nové, len sa uistiť, že to čo si človek myslí, že vie, tak že to bude schopný aj reprodukovať. Lebo čo je na papieri mi prišlo veľmi pravdepoodbné na dotazovanie.

Neuronové sítě -- Modulární, hierarchické a hybridní modely neuronových sítí. [Mrázová]
Pri zadávaní povedala, že si mám dve vybrať a popísať viac. Nakonec som na papier spísala asi ta všetko, čo som vedela. Napísala som Kaskádovú korelaci, Mixture of Experts, hierarchical SOM a nejaké ďalšie "related veci" ako motivácia atď. Bohužiaľ som RBF nevedela, ešte sa naň dopýtala, ale ďalej sme to neriešili. Všetky som doplnila o obrázky, ale žiadnu "matiku" som tam nakoniec ani nemala (u kaskádovej korelácii by sa ale hodilo vedieť vzorec).

Strojové učení -- Teoretické aspekty strojového učení. [Vomlelová]
Napísala som chyby, terminológiu, bias-variance tradeoff, overfitting, underfitting a niekoľko drobností. Chýbalo mi (nespomenula som si) na prekliatie dimenzii. V diskusii sme sa venovali bias-variance, to prekliatie sme prešli, potom sme sa rozprávali o užití krosvalidace v prípade menšieho počtu dát. Prešli sme do diskusie o PCA a následne chcela aby som sa dostala k tomu, že aj Decision Tree by mohli slúžiť na redukciu dimenzií (prosto vziať tie atributy, ktoré stromy použili), ale to mi bohužiaľ nenapadlo. Nepríde mi, že by to nejak chýbalo, skôr mi nenapadlo kam tým mieri, keď sa snažila hintiť.

Datavé struktury -- Hešování [Koubková]
Úvod do hešovania a 3 metódy riešenia kolízii. Napísala som kukačku, linear probing a s lin. separovanými reťazcami. Bavili sme sa o výhodách a nevýhodách každého z nich (špeciálne som mala najväčší problém prísť s výhodami sep. reťazcov oproti linear probing -- napr. veľký počet "odstránených prvkov). Jediný odhad som tam mala na dĺžku reťazcov v sep. reťazcoch za použitia 1-univerzálneho systému heš. f. Ešte sa spýtala, či viem, po koľkých krokoch sa teda kukačka prehešuje.

Přírodou inspirované počítání -- Aplikace evolučních algoritmů (evoluce expertních systému, neuroevoluce, řešení kombinatorických úloh, vícekriteriální optimalizace). [Fink]
Vypísala som ku každému niečo, ale najviac miesta som venovala Batohu a TSP. Tam sme sa aj zastavili, kde ma poprosil o doplnenie zadania úloh (na papieri som ho nemala), ďalej sme diskutovali o jednotlvých parametroch a napríklad o tom, že u Batohu nám dvojbodové kríženie nedáva výhodu oproti jednobodovému. Ešte na konci sa pýtal na inú jednoduchú stratégiu riešenia viackriteriálnej optimalizácie okrem kombinácie, a to mi povedal, že "lexikograficky", tj ich usporiadam a až pri rovnosti prejdem na ďalšiu.

Základy složitosti a vyčíslitelnosti -- Základní třídy složitosti a jejich vztahy. [?]
Moja posledná otázka bola citeľne už najhoršia. Napísala som nejaké definície, ukázala okrem zjavných inkluzií aj tú o NTIME a SPACE. Následne som napísala znenie Savičovej vety a ukázala prečo platí dôsledok PSPACE = NPSPACE. Pýtal sa aj dvakrát na dôkaz, to som bohužiaľ nevedela. Následne sa snažil prejsť, aby som mu povedala nejaký P-úplný problém, alebo nejaký NL problém, no to som opäť už nevedela. Odchádzal s tým, že niečo viem, ale narozdiel od ostatných otázok, ktoré išli skutočne hladko, tak tu som sa už necítila sebaisto.

Výsledok za 1.
jankasvk
Matfyz(ák|ačka) level I
 
Příspěvky: 14
Registrován: 31. 5. 2015 12:05
Typ studia: Informatika Bc.

Re: AI/ML 15. 9. 2020

Příspěvekod peto » 19. 9. 2020 17:28

Skončil som cca 12.30, na poslednú otázku som musel chvíľu počkať.

Přírodou inspirované počítání -- Rojové algoritmy [Fink]
Napísal som na čo sa to používa, aké sú výhody(paralelizácia, dynamickosť, robustnosť voči lokálnemu optimu ...). Ďalej som napísal algoritmu s Particle Swarm Opt. a popísal som ako funguje Ant colony. Chvíľu sme sa o tom bavili, nemal žiadne ďalšie otázky.

Základy složitosti a vyčíslitelnosti -- Rozhodnuteľné a čiastočne rozhodnuteľné problémy [Bulín]
Povedal mi, že okrem definícií sa mám zamerať na enumerátory. Zadefinoval som teda TS, čo znamená že príjmá a odmieta. Ďalej čo je to rozhodovací problém, čo je to čiastočne rozhodnuteľný a rozhodnuteľný jazyk a ako to súvisí s problémom. Ďalej som napísal a dokázal Postovu vetu. K dôkazu sa ma spýtal ako presne spravím to, že spustím dva stroje paralelne(stavy, prechodová fce). Potom definícia enumerátora a ako enumerátor súvisí s rozhodnuteľnými a čiastočne r. jazykmi aj s dôkazom. Potom sa ma ešte spýtal na nejaký jazyk ktorý nie je rozhodnuteľný, tam už ale dôkaz nechcel.

Dobývaní znalostí -- Asociačné pravidlá [Hric]
Napísal som vzorce pre meranie kvality pravidiel a algoritmus APRIORI. Pýtal sa ma aj trochu prakticky na jeho implementáciu a na extrakciu pravidiel. A ako posúdim dobré pravidlo, ktorá metrika mi hovorí o čom.

Datové struktury -- Paměťová hierarchie [Hric]
Popísal som model s cachou a pomalou pamäťou. Zanalyzoval som lineárne prechádzanie poľa, binárne vyhľadávanie, operácie v halde, merge sort(rekurzívny). Ďalej som porovnával rôzne spôsoby traspozície matíc. Ukázal ako vyzerá van Embde Boas. Pýtal sa ma na porovnanie vEB a B-stromov. Konkrétne, že jedno je cache oblivious a jedno aware a na druhej strane vEB je skôr statická štruktúra. Potom som ešte napísal odhad na počet prenesených blokov pre LRU stratégiu, dôkaz po mne nechcel.

Neuronové sítě -- Backpropagation, urychlení učení, zobecňování [Mrázová]
Napísal som čo je to neurón, čo je to sieť, zadefinoval loss a vzorec pre aktualizáciu váhy. Následne som odvodil ako sa aktualizujú váhy na výstupnej vrstve a potom bez odvodenia napísal skryté vrstvy. K urýchleniu učenia som spomenul momentum, adaptívny learning rate a metódy 2. rádu. Pri metódach som dostal otázku či viem odvodiť aktualizáciu, to som si ale nespomenul, vedel som iba že ide o taylorov rozvoj. Ďalej somm napísal k zobecnňovaniu niečo k regularizácií(L1,L2,dropout, ensembling, label smoothing, early stopping). Dostal som ešte otázku koľko vrstiev potrebujeme aby sme simulovali ľubovoľnú funkciu. Spomenul som si na aproximáciu cez intervaly a na to stačí 1 vrstva. Chcela odo mňa ale Kolmogorovou vetu, na to som si ale nespomenul.

Výsledok 1
peto
 


Zpět na Magisterské SZZ

Kdo je online

Uživatelé procházející toto fórum: Žádní registrovaní uživatelé a 1 návštěvník

cron