ZK 3.2.2010

Odeslat odpověď

Smajlíci
:D :) :( :o :shock: :? 8) :lol: :x :P :oops: :cry: :evil: :twisted: :roll: :wink: :!: :?: :idea: :arrow: :| :mrgreen:

BBCode je zapnutý
[img] je zapnutý
[flash] je vypnutý
[url] je zapnuté
Smajlíci jsou zapnutí

Přehled tématu
   

Rozšířit náhled Přehled tématu: ZK 3.2.2010

ZK 3.2.2010

od Him » 3. 2. 2011 16:06

Zdravim,

zkouska je stejna, jak psal martins. Dostal jsem Vrstevnate neuronove site (+algoritmus) a vysvetlit algoritmy 2. radu. Vzal jsem to hezky od zacatku, tj. co je to neuronova sit, co je to vrstevnata neuronova sit, pak jsem popsal algoritmus Backpropagation a zacal pocitat derivace. Patnact minut na pripravu mi na to nestacilo, nestacil jsem to vsechno dopsat, ale vic casu uz mi nedala, tak jsem ten zbytek musel dopovedet "online".

Nasla mi chybicku ve uprave vah pro skryte neurony (psal jsem to po pameti a jak jsem psal vyse, tak jsem nestihl ty derivace dopocitat, kdybych to stihl, tak jsem to opravil), kazdopadne pi Mrazova me to nechala opravit, kdyz se se mnou bavila a nebrala to jako minus. Jeste si dejte pozor na drobnou vec, kterou je treba rict spravne, a to ze kdyz se aktualizuji vahy hodnoty delta_k tak je potreba si pamatovat stare hodnoty a az pak najednou ty hodnoty v dane vrstve aktualizovat, jelikoz jinak byste pocitali se starymi a novymi hodnotami naraz.

U algoritmu druheho radu jsem rekl nejakou tu motivaci (ze vyuzivaji vic informaci o chybove funkci - tvar) a napsal tu Taylorovu radu pro E(w + h), ktera se jen zderivuje podle h a toto se polozi rovno nule (zde je nutne poznamenat, ze predpokladame kvadratickou chybovou funkci, jinak by to nefungovalo).

Vysledek 1.

GL vsem, kteri jeste pujdou.

Nahoru