Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.

[STRUCE1] Gradivo

Stark

Za ovaj zadatak

Kako bi išao crtež? Nekako ovako? Svi su linearni osim logističke?

I onda kad se doda primjer (8,1) koji je duboko u području crvenih, što se dogodi?
Evo ako treba prazna slika za crtanje:


[obrisani korisnik]

Stark Budući da prilikom korištenja linearne regresije kao klasifikatora primjeri koji su ispravno klasificirani isto tako budu kažnjeni i to što su “ispravnije” klasificirani, to će biti više kažnjeni, funkcija linearne regresije će se pomaknuti prema tom primjeru kao bi se smanjilo kvadratno odstupanje. Svi ostali će ostati (više-manje) isti.


Red_Baron

Stark Mislim da linearna regresija nije dobra na slici. Puno bi bolja bila funkcija y=2; ona dakle prolazi kroz skroz lijevu točku, a kod ostalih minimizira udaljenost; time je ukupna pogreška 2 (ako me matematika ne vara), a po ovom tvojem je 4 (opet, ako me mentalna matematika ne vara).


a_ko_si_ti

Di se nalazi kviz o kojem je profesor pricao?


[obrisani korisnik]


Čini mi se da bi se ovisno o odabiru hipoteza na ovo pitanje moglo odgovoriti i sa c i sa d. Recimo ako prva hipoteza odvaja 3 pozitivna i 2 negativna + 1 pozitivan uljez, a druga margina odvaja jedan negativan i 4 pozitivna + 1 negativan uljez, tada bi odgovor bio pod c. Ako bi prva hipoteza odvajala isto kao druga, ali s drugim negativnim primjerom, tada bi točan odgovor bio pod d. Je li to zaista tako?


Svarog

[obrisani korisnik] Neka me netko ispravi ako sam napravio negdje lapsus, ali evo mog obrazloženja zašto je d.

Prvo, primijetimo da je skup primjera linearno neodvojiv, stoga prvi model nikada neće moći točno klasificirati sve primjere. S druge strane, ako bi mogli koristiti dvije hipoteze iz prvog modela, tj. ravnine, onda bi u potpunosti točno klasificirali sve primjere koristeći presjek potprostora koje te dvije ravnine omeđuju. Presjek ta dva potprostora možemo, koristeći indikatorske funkcije, predstaviti s množenjem te dolazimo do ovog drugog modela koji je upravo to. Zbog toga što će postupak optimizacije egzaktno pronaći optimalnu hipotezu, zaključujemo da drugi model može u potpunosti točno klasificirati ovaj skup primjera i slijedno tomu klasificira strogo točnije u odnosu na prvi model.


[obrisani korisnik]

Veles

Veles Zbog toga što će postupak optimizacije egzaktno pronaći optimalnu hipotezu

Smetnuo sam s uma da bi optimizacijski postupak pronašao upravo taj slučaj koji odgovara odgovoru d, hvala!


Amon

Stark Gore je kolega objasnio Veles


Cvija

Evo moja pitanja i odgovori s prvog moodle kviza. Imamo li svi ista pitanja ili su se nekome pojavila i druga?















Emma63194

Cvija Svi imamo ista pitanja.


Yeltneb

Zašto ovdje d) nije isto točno?


InCogNiTo124

Yeltneb ja mislim da ne mozes znat hoce li generalizrati bolje jer je sum u podacima velik, a ovo je vrlo jaka regularizacija


rockymus

InCogNiTo124 pa baš zato što je šum velik bi d) trebao biti točan


tito

kako se najbolje pripremiti za ispit, imajući na umu da je na zaokruživanje


Emma63194

Zna možda netko objasniti ovak zadatak?
Nisam sigurna kako su došli do tih težina, niti kako opće pristupiti zadatku.


InCogNiTo124

Emma63194 ma taj je lagani kjut zadatak haha

Prvo krenimo od dataseta koji je generiran onom Gaussovom razdiobom, onaj izraz ti je pravac kojeg bi kao trebala dobit da ti je loss funkcija dobra, to je stvarni pravac

No, nemas dobru loss funkciju.
Doduse, fear not, jer ako se samo malo algebarski poigras, (y + h(x))2 = (y - (-h(x))2, odnosno, efektivno ucis nad podacima koji su flipani oko x osi.

(Alternativno, loss ti moze biti i (h(x) - (-y))2 gdje se bolje vidi da y mjenja predznak. Razmisli zasto)

E sad ostavljam tebi za vjezbu da nades jednazbu pravca koji nastane flipanjem ovog zadanog u Gaussovoj oko x osi

Edit: nisam objasnio odakle tezine, pliz napravi korespondenciju izmedu tog kak ti izgleda hipoteza i kak ti izgleda pravac, i trebala bi moci matchat iz tog sta ti je w0 a sta w1



micho

Daniel Plainview Ne, jer šum ti onemogućava generalizaciju. Zapamti, ti na šumu učiš. Ako je šum velik, uopće ne moraš točno učiti. A s obzirom na to da imaš istu dimenzionalnost, isto se prenauče, ovaj reguliziraniji se manje prenauči (iako s tim faktorom se vjv ni ništa ne nauči), ali za generalizaciju nemaš pojma.


InCogNiTo124

Daniel Plainview da, samo zato sto je regularizacija velika ne znaci da model magicno dobro generalizira, veliki sum ti ubije sve


FICHEKK

Koja je zadnja lekcija koja ulazi u ispit?



Amali

Cvija https://docs.google.com/document/d/1pCK4LPwiY9AZON6lZWK7vFXNB6UogtXnDSOYEmg1w0U/edit?usp=sharing prepisani tocni odgovori, bar koji su oznaceni tocno tam il se sjecam da je bio issue s pitanjem, al ne sjecam se bas svih koji su bili sporni


« Prethodna stranica Sljedeća stranica »