Daeyarn Iz pytorch dokumentacije :
This loss combines a Sigmoid layer and the BCELoss in one single class. This version is more numerically stable than using a plain Sigmoid followed by a BCELoss as, by combining the operations into one layer, we take advantage of the log-sum-exp trick for numerical stability.
Znaci toj funkciji predas izlaz zadnjeg potpuno povezanog sloja i ona provuce taj izlaz kroz sigmoidu i izracuna loss.
pp ok, a kako se izlaz mreze tretira kod evaluacije, koji izlazi su positive a koji negative?
edit: ja sam stavio da izlazi > 0.5 su positive, a drugacije je negative
Daeyarn positive je 0, a negative 1. barem je meni tako
edit: vjv ovisi o implementaciji, odnosno koje si im indekse dao u vokabularu. ako su ti positive oznaceni s 1 onda je dobro.
koji je onda na kraju odgovor za eksploziju?
Jesu jos nekome upisali samo bodove iz teorije?
_2D_ Dap, mislim da bodove iz ispitivanja nisu još nikome upisali
jos nisu upisani bodovi iz ispitivanja?