Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.

[STRUCE1] Gradivo

bodNaUvidima

BillIK Idealna stopa učenja bi bila ona s kojom možeš izaći iz svakog lokalnog minimuma i uvijek završiti u globalnom, a to znati unaprijed je koliko znam nemoguće.


bodilyfluids

BillIK a nema bas neki definitan odgovor. Velike stope ucenja su u pravilu brze, ali ne nuzno jer ovisi kakve gradijente pogadas. Dodatno ako je stopa prevelika onda raste sansa da ti algoritam divergira. Uglavnom, trazis omjer brzine i tocnosti, koliko sam shvatio.


bodilyfluids

Ducky

Ovdje sam vec odgovorio Dragi prijatelj strojnog učenja


Rene

bodNaUvidima nije nužno ali na ptedavanju je snajder rekao da je uobicajeno
Bar ja tako imam u biljeskama


viliml

brr
-\log(1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x}))=0.274 \\ -\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) =\space?

1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=e^{-0.274} \\ \sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=1-e^{-0.274} \\ \mathbf{w}^\intercal\mathbf{x}=\log(-\frac{1-e^{-0.274}}{1-e^{-0.274}-1})-0.15 \\ =\log(\frac{1-e^{-0.274}}{e^{-0.274}})-0.15 \\ =\log(e^{0.274}-1)-0.15

-\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) = -\log\sigma(0.15+2\mathbf{w}^\intercal\mathbf{x}) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(2\log(e^{0.274}-1)-0.15) \\ \approx 2.54


-Ivan-

viliml
Kako si došao do ove prve dvije formule?


[obrisani korisnik]

Rene možda sam ja omašio ceo fudbal, al zašto primjeri nisu linearno odvojivi? jel ih ne bi mogla odvojiti ploha y=0 npr.?


Rene

[obrisani korisnik] ne znam što misliš pod “y” ali s obzirom da je x2 = 0 onda možeš skicirat ove primjere s ovim preslikavanjima:
\phi_0 i \phi_2 izgledaju kao lijeva slika (član x1×2 zanemaruješ jer je uvijek 0), a \phi_1 izgleda kao desna slika (zanemaruješ x2 i x22)


[obrisani korisnik]

Rene aa hvala ja sam gledao y kao vrijednosti i onda sam zapravo crtao (x, y) graf pa mi nije bilo jasno jer na njemu su odvojivi. tako nesto bi bilo ok za regresiju ili ni tada?


Rene

[obrisani korisnik] linearna odvojivost primjera == mogućnost da ih odvojiš u klase hiperravninom, nema veze s regresijom


micho

BillIK ali postoji li neki kraći odgovor bez toliko teoretiziranja tipa. ona za koju će pogreška bit min/max?

Ne

To se, uostalom, rješava i drukčijim algoritmima, a ne samo drukčijom vrijednosti i otvoreni je (potencijalno nerješivi) problem.


nnn

Zna netko 4 i 6 iz dz08/v08?


viliml

dinoo angello2
Kao prvo, u SVM-u se w_0 tretira posve zasebno od svega ostaloga. Dakle treba izbrisati prvi stupac matrice dizajna i prvu vrijednost u vektoru \mathbf{w}.
Zatim treba pronaći oznake primjera i odrediti koji od njih su potporni. To se lako vidi iz vrijednosti hipoteze \mathbf{w}^\intercal\mathbf{x}^{(i)}+w_0.
Sada samo treba primijeniti ekvivalentnost primarnog i dualnog modela \mathbf{w}=\sum_{i=1}^N{\alpha_iy^{(i)}\mathbf{x}^{(i)}} da se nađu vrijednosti dualnih parametara.
Nedostatak preciznosti u zadanim vrijednostima može malo zakomplicirati stvar jer neće biti točne jednakosti, aproksimacija se može učiniti robustnijom tako da se iskoristi ograničenje \sum_{i=1}^N{\alpha_iy^{(i)}=0} i tako smanji broj varijabli za 1.


Rene

dinoo Jel iko rjesio 4.? Meni se cini da je rjesenje pod B tocno?


angello2

moze bar neko objasnjenje za 6. zad iz ispita? probo sam svasta i nikad mi ne ispadne ovo njihovo rjesenje


netko_tamo

viliml ja i dalje ne dobivam njhovo rješenje, čak ni ne dobivam da mi predikcija za neke primjere daje 1 pa nemam ni potporne vektore…


viliml

netko_tamo
\left( \begin{array}{ccccc} 1 & 3 & 16 & -8 & -11 \\ 1 & -5 & 4 & -8 & -7 \\ 1 & 7 & -4 & 11 & 9 \\ 1 & 15 & -20 & 25 & 25 \\ \end{array} \right) \left( \begin{array}{c} 0.137 \\ -0.029 \\ 0.0194 \\ -0.0461 \\ -0.0388 \\ \end{array} \right)=\left( \begin{array}{c} 1.16 \\ 1. \\ -1. \\ -2.81 \\ \end{array} \right)


pvmnt

Rene povuci pravac izmedu dvije najblize tocke s lijeve strane i okomica na taj pravac s primjerom 3,3 ce ti bit u 0,0 pa ce ti 3,3 bit udaljeno od tog pravca korijen iz 33+33 sta je korijen iz 18, margina je korijen iz 18/2, sve podijeljeno s ½ sto je margina od prvog treniranja dobijes da je omjer korijen iz 18, sto je 3 puta korijen iz 2. pozdrav!


pvmnt

ostaje.mi.to.sto.se.volimo ma nabijem na kurac ovaj forum ove nakosene 33 je 3 puta 3. neuk sam i nepismen. pozdrav!


micho

ostaje.mi.to.sto.se.volimo Preporučam korištenje latexa za jednadžbe, ili escape znaka \


Tompa007

Koje je gradivo zadnje za meduispit(koja preza) (uključeno) ?



« Prethodna stranica Sljedeća stranica »