Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.

[STRUCE1] Gradivo

sphera

InCogNiTo124 kako onda na slici za softmax piše da je w indeksiran s j,k šta ne bi onda trebao w biti drugačiji za različite klase, i zašto ako j ide od 0 mi svejedno na to dodamo bias, jel nije bias uključen kao w0 kad je j=0


InCogNiTo124

sphera prvo pitanje, svaki stupac u matrici W ti je jedan model za jednu klasu. Onda se oni svi skupe i pretvore softmaxom u distribuciju po klasama

Drugo pitanje, to su sad vec detalji koji nisu nikad nigdje konzistentni, konkretno u ovom slucaju cini mi se da nema biasa pa da je prvi element od 0 indeksiran


Amali

InCogNiTo124 Vrlo mehanicki i brainless zadatak. Pomnozis W sa x i dobijes Wx ciji izlaz nazivamo “logiti” (nebitno). Od tih logita racuna se softmax tako da izracunas exp() za svaki element vektora, i onda skupa podijelis sa sumom. Softmax bi ti trebo ispast, ako nisam nesto sjebo, (0.999, 1.026e-10, 1.67e-5). I sad treba samo uzet nas softmax vektor i vektor koji trebamo dobit i s njim u multiclass logistic loss ciju formulu imas u skriptama, labosima ili internetu. Jedino je eto problem sto ja dobijem broj 23 kao rjesenje koji nije ponuden tako da ne znam kj se desilo no postupak je okej haha

meni isto ovo nije jasno, i ja dobijem ~23 generickim softmax postupkom

jel itko to skuzio? jel mozda, slucajno, snajder sjebo?


InCogNiTo124

Amajli 1.55 je najblizi 23 tak da je zato xD


Amali

Amajli sad sam drugi put pokrenula kviz i druga su rjesenja pod tim zadatkom, netko prijavio il oni skuzili I guess


Hus

InCogNiTo124 To je to! Hvala! (meni je isto ispadao u trećem 23 pa sam mislio da sam nesto tesko profulao oko gubitka i modela multinomijalne regresije, no izgleda da nisam jedini pa barem nešto)


cotfuse

Hus
4) Ovo prakticki opisuje neuronsku mrezu sa ulaznom dimenzijom 10, skrivenim slojem dimenzije 3 i izlaznim slojem dimenzije 4. Svaki od slojeva ima svoje biase, pa racunica ispada: (10+1)*3 + (3+1)*4 = 49

Osim toga, ovaj zadatak koji je 3. kod husa, tocan odgovor je 23 i u medjuvremenu su promijenili odgovore tako da je sada i 23 ponudjeno.


saitama

cotfuse zasto je skriveni sloj dimenzije 3,a ne 4 ?


Amali

cotfuse 4) Ovo prakticki opisuje neuronsku mrezu sa ulaznom dimenzijom 10, skrivenim slojem dimenzije 3 i izlaznim slojem dimenzije 4. Svaki od slojeva ima svoje biase, pa racunica ispada:
(10+1)*3 + (3+1)*4 = 49

jel ovo gleda da je fi0 dummy pa se ne broji kao dio sloja unutra, a izlaz je 4-dim tj za svaku klasu jedan?


Amali

member dobijes h(x) tak, ispast ce ti simetricni, i sam ih uvrsit u formulu koji god sa suprotnom oznakom od one za koju je dobiven (tipa za y = 1 dobijes jedan broj i taj iskoristis u loss funkciji u clanu za klasu 0. Koju god kombu uzmes dobit ces isto svakako)


tito

zašto funkcija pogreške ne konvergira kod linearne regresije kada su značajke linearno zavisne?


InCogNiTo124

tito u tom slucaju ti matrica dizanja nema puni rang i pseudoinverz ne postoji


Bananaking

Što je onaj VS(H,D) ?


InCogNiTo124

Bananaking version space, prostor inacica, je skup hipoteza koje na datasetu D imaju empirijsku pogresku 0. Takvih moze biti beskonacno.

Primjer ti je tu na slici, ako su ti hipoteze pravokutnici, onda ti je zelena povrsina VS na example datasetu


Stark

Može objašnjenje ovog?


Amon

Stark Gore je kolega objasnio Veles


Stark

Amon Hvala, nisam uopće skužio da je već bilo pitanje 😅


YenOfVen

Sto zadnje ulazi u ispit?


Bananaking

YenOfVen 11 - Neparametarske metode


-Ivan-

Je li mi može netko molim vas objasniti kako se ovo rješava?

  1. Koristimo regresiju za predviđanje uspjeha studija na temelju prosjeka ocjena u četiri razreda srednje škole te uspjeha iz matematike i fizike na državnoj maturi (ukupno 6 značajki). Za preslikavanje u prostor značajki koristimo polinom drugog stupnja s interakcijskim parovima značajki (samo parovi!). Pretpostavite da nema multikolinearnosti. Koliko minimalno primjera za učenje trebamo imati, a da bi rješenje bilo stabilno i bez regularizacije?

-Ivan-

Ivančica (znam da je odgovor 28, ali ne znam zašto)


InCogNiTo124

Ivančica mislim da je do tog da, kad uzmes n varijabli i preslikas ih polinomom drugog stupnja, dobijes n znacajki jednakih originalnim, n(n-1)/2 parova i n kvadrata, za n=6 to je 6+15+6=27 i jos bias za sve skupa 28 znacajki

Minimalno toliko i primjera ti onda treba da ti matrica ima puni rang i da postoji (pseudo)inverz


« Prethodna stranica Sljedeća stranica »