[VIS] Pitanja i odgovori
DazedAndConfused
InCogNiTo124 I krenuo sam tako, ali kako dobijem f(y|x) ?
InCogNiTo124
DazedAndConfused “y se bira na srecu iz intervala” == svaki put kad to procitas, nesto u tebi mora vristat uniformna razdioba
Funkcija gustoce uniformne razdiobe je 1/(duljina intervala)
dakle, u ovom slucaju, f(y|x) = 1/(1-x)
mihamih
1) ovaj kpz se pise samo na ZI, ne i na rokovima?
2) kolko vremena treba za naucit ovo za 2 na roku i kojom taktikom je najbolje ic?
sheriffHorsey
mihamih
1) kpz se piše samo na ZI
2) 5-6 dana punog gasa ako si potpuno neupućen u gradivo, najbolja taktika stari ispiti s fer3 programa, fer2 se razlikuje, eventualno nauči neke dokaze koji se često pojavljuju npr. izvod bayesa je bio 2-3 puta prošle godine, 7. i 8. lekcija mislim da su najteže pa eventualno to nemoj učit
Artemis
Ulazi li u KPZ nepristrana procjena standardnog odstupanja?
Dough_Dough
Jel neko mozda preuzeo predavanja od 8. nadalje, pa da može podijelit kao što je @anon00 prije međuispita? Izgleda da je sa ms streama nestalo sve osim vježbi i “labosa”.
Fortius
Dough_Dough klikni na profile profesora. tamo su uploadali
SaleSale
Kakve su ove snimke labosa na teamsu? Ce mi bit dovoljno samo njih pogledati za KPZ ako sam prosao 11. i 12. cjelinu?
krampus
zna netko možda kako riješiti ovo? odgovor je n>=45 . pokušao sam uvrstiti u interval povjerenja , ali nešto mi fali.
InCogNiTo124
krampus aritmeticka sredina ima varijancu sigma2/n, mozda to?
tomekbeli420
krampus nema to veze s intervalima povjerenja, to se rješava ovako:
označimo sa X_i broj na kocki u i-tom bacanju. To je diskretna slučajna varijabla koja ima uniformnu razdiobu i može poprimiti 6 vrijednosti, dakle sve sa jednakom vjerojatnošću:
X_i \sim \begin{pmatrix}
1 & 2 & 3 & 4 & 5 & 6\\
\frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6} & \frac{1}{6}\\
\end{pmatrix}
Kasnije će nam trebati očekivanje i varijanca te slučajne varijable (označit ću ih sa \mu i \sigma^2):
\mathbb{E} \left(X_i\right) = \mu = \frac{7}{2}
\operatorname{Var} \left(X_i\right) = \sigma^2 = \frac{35}{12}
Ono što će nama biti u fokusu jest prosjek n bacanja, gdje je n zasad nepoznat, dakle zanima nas slučajna varijabla koju ću označiti sa
Y = \frac{1}{n} \sum_{i = 1}^{n} X_i = \frac{X_1 + \dots + X_n}{n}
Distrubuciju od Y možemo odrediti centralnim graničnim teoremom, jer imamo sumu puno nezavisnih, identično distribuiranih slučajnih varijabli X_i. Prema tome, znamo da će slučajna varijabla Y aproksimativno imati normalnu razdiobu. Kako odrediti parametre (očekivanje i varijancu) od te normalne razdiobe? Vrlo jednostavno, izračunaš očekivanje i varijancu od Y:
\mathbb{E} \left(Y\right) = \mathbb{E} \left(\frac{X_1 + \dots + X_n}{n}\right)
= \frac{1}{n} \ \mathbb{E} \left(X_1 + \dots + X_n\right) = \frac{1}{n} \left(\mathbb{E}\left(X_1\right) + \dots + \mathbb{E}\left(X_n\right)\right) = \frac{1}{n} \cdot n\mu = \mu \newline
\operatorname{Var}\left(Y\right) = \operatorname{Var}\left(\frac{X_1 + \dots + X_n}{n}\right) =
\frac{1}{n^2}\operatorname{Var}\left(X_1 + \dots + X_n\right) = \frac{1}{n^2} \left(\operatorname{Var}\left(X_1\right) + \dots + \operatorname{Var}\left(X_n\right)\right) =
\frac{1}{n^2} \cdot n\sigma^2 = \frac{\sigma^2}{n}
Prilikom računanja varijance zbroja koristili smo činjenicu da su sve slučajne varijable koje se pojavljuju u zbroju (X_i -jevi od 1 do n) nezavisne, jer tek tada (točnije kad je kovarijanca 0, što je zadovoljeno kod nezavisnosti) možemo varijancu zbroja rastaviti na zbroj varijanci.
Prema tome, Y \approx \mathcal{N} \left(\mu, \frac{\sigma^2}{n}\right)
Pitanje glasi: koliko najmanje puta moramo baciti kocku da bi vjerojatnost da je aritmetička sredina dobivenih brojeva između 3 i 4 bila najmanje 0.95?
U prijevodu: koja je donja granica za n takva da vrijedi
P \left(3 < Y < 4\right) \geq 0.95.
Kako to riješiti? Zamisli kao da ovih 0.95 nemaš s desne strane, i da ti je zadatak računati ovu vjerojatnost s lijeve strane. Kako je Y normalno distribuirana, ovakav problem se rješava tako da se Y centrira i normira, odnosno da se oduzme očekivanje i podijeli sa standardnom devijacijom od Y.
P \left(\frac{3 - \mu}{\frac{\sigma}{\sqrt{n}}} < \frac{Y - \mu}{\frac{\sigma}{\sqrt{n}}} < \frac{4 - \mu}{\frac{\sigma}{\sqrt{n}}}\right) \geq 0.95
Ovo u sredini je sada jedinična normalna slučajna varijabla, odnosno \frac{Y - \mu}{\frac{\sigma}{\sqrt{n}}} \sim \mathcal{N} \left(0, 1\right), i sada možemo ovu vjerojatnost računati koristeći funkciju \Phi^*. Također primijeti kako se radi o simetričnom intervalu oko očekivanja (znamo da je očekivanje 3.5 a interval je, prije centriranja i normiranja, bio od 3 do 4), tako da gornja vjerojatnost se svodi na vrlo jednostavnih
\Phi^* \left(\frac{4 - \mu}{\frac{\sigma}{\sqrt{n}}}\right) \geq 0.95
Dakle ovdje nam je sve poznato osim n. Sad u tablici za funkciju \Phi^* pogledaš za koji argument je vjerojatnost 0.95.
Radi se o argumentu 1.96, a kako je funkcija \Phi^* rastuća, ovaj znak nejednakosti \geq ostaje takav kakav je:
\frac{4 - \mu}{\frac{\sigma}{\sqrt{n}}} \geq 1.96
Odavdje izraziš n i uvrstiš brojeve:
n \geq \left(\frac{1.96 \cdot \sigma}{4 - \mu}\right)^2 = \left(\frac{1.96 \cdot \sqrt{\frac{35}{12}}}{4 - \frac{7}{2}}\right)^2 = 44.82
Odnosno kako n mora biti prirodan: n \geq 45. Ako te zbunjuje prisutnost ovog \geq, možeš ga zamijeniti sa jednakošću i na kraju po logici odrediti jel n mora biti veći ili manji.
Kamen
Jel smijemo imati podsjetnik na kpz ili ne?
JBQ
Kamen
Da
tetak
moze neko objasnit kak se cita iz ove tablice?
Artemis
tetak Ti izracunas u zadatku da trazis npr t(0.95) i onda izjednacis tih 0.95 = 1 - alfa/2. Iz toga uvjeta dobijes koliki je alfa i onda u tablici trazis t od tog izracunatog alfa
tetak
Artemis
a kad je devijacija poznata pa trazim u onda samo najdoljnji red gledam pod tim alfa?
johndoe12
Zadatak: imamo 3 novcica u kutiji. Vjerojatnost prvog novcica da ce pasti na glavu je 0.6, drugog novcica 0.1, i treceg novcica 0.3. Izvukli smo novcic i bacili ga, te je pao na glavu. Kada drugi put bacimo novcic, kolika je vjerojatnost da ce pasti glava?
DazedAndConfused
enaiks Da
tomekbeli420
enaiks otkud ti taj zadatak? Ja mislim da je 0.46 al nisam siguran
johndoe12
tomekbeli420
S Hacerranka. Mozes objasnit svoj postupak?
tomekbeli420
enaiks
Prvo numerirajmo novčiće: novčić i neka bude onaj čija je vjerojatnost da padne na glavu p_i, odnosno
p_1 = 0.6, \quad p_2 = 0.1 \quad p_3 = 0.3
Skup elementarnih događaja razbijemo na 3 hipoteze:
H_i = \left\{\text{Izvučen je novčić} \; i\right\}, \quad i \in \left\{1, 2, 3\right\}
A priori (prije izvođenja bilo kakvih pokusa), vjerojatnosti ostvarenja tih hipoteza, odnosno, vjerojatnost da je izvučen novčić i, bi logično bila \frac{1}{3} za svaki novčić (jer imamo izvlačenje na sreću iz kutije), odnosno
P\left(H_i\right) = \frac{1}{3} \quad \forall i \in \left\{1, 2, 3\right\}
E sad kada ne bi bilo nikakvih pokusa, morali bi se zadovoljiti sa tim apriornim vjerojatnostima, i tada bi vjerojatnost da padne glava na slučajno izabranom novčiću, po formuli potpune vjerojatnosti, računali sa
P \left(A\right) = \sum_{i = 1}^{3} P \left(H_i\right) P \left(A \mid H_i\right) = \sum_{i = 1}^{3} \frac{1}{3} \, p_i
Gdje je događaj A = \left\{\text{slučajno odabran novčić pada na glavu}\right\}, a vjerojatnost P \left(A \mid H_i\right) je zapravo vjerojatnost da novčić padne na glavu ako unaprijed znamo koji novčić je izvučen, što je p_i
Ali, mi smo jednom proveli pokus, odnosno izvukli smo novčić i bacili ga, te je pao na glavu. To saznanje nam zapravo mijenja vjerojatnosti realizacija hipoteza H_i, i to moramo iskoristiti za računanje vjerojatnosti padanja glave u drugom bacanju.
Nove, aposteriorne vjerojatnosti realizacija hipoteza H_i, koje ću sada označavati sa H_i \mid A (jer znamo da se događaj A realizirao), odnosno P \left(H_i \mid A\right), možemo lako računati sa Bayesovom formulom:
P \left(H_i \mid A\right) = \frac{P\left(A \mid H_i\right) P\left(H_i\right)}{P\left(A\right)} = \frac{P\left(A \mid H_i\right) P\left(H_i\right)}{\sum_{j = 1}^{3} P \left(H_j\right) P \left(A \mid H_j\right)} = \frac{\frac{1}{3} \, p_i}{\sum_{j = 1}^{3} \frac{1}{3} p_j} = \frac{p_i}{\sum_{j = 1}^{3} p_j}\quad \forall i \in \left\{1, 2, 3\right\}
Slučajno se poklopilo da je \sum_{j = 1}^{3} p_j = 0.6 + 0.1 + 0.3 = 1 (vjerojatnosti padanja glave za svaki novčić su mogli biti bilo kakvi između 0 i 1). Također, za sumu sam koristio indeks j jer već je iskorišten i u raspisivanju formule. Kada izračunamo redom te aposteriorne vjerojatnosti, dobijemo
P \left(H_1 \mid A\right) = 0.6 \newline
P \left(H_2 \mid A\right) = 0.1 \newline
P \left(H_3 \mid A\right) = 0.3
Što to znači? Pa, prije pokusa smo mislili da su vjerojatnosti izvlačenja nekog novčića bile iste za sve novčiće, odnosno \frac{1}{3}, ali sad kad smo izvukli novčić, bacili ga i vidjeli da je pala glava, te vjerojatnosti su se promijenile. I sad mislimo da je vjerojatnost izvlačenja (odnosno preciznije rečeno: da smo izvukli novčić, jer da primjerice onaj novčić iz prvog bacanja vratimo u kutiju i opet ponovimo pokus, vjerojatnosti bi se opet vratile na \frac{1}{3}) prvog novčića 0.6, drugog novčića 0.1 i trećeg novčića 0.3. Igrom slučaja je ispalo da te vjerojatnosti odgovaraju vjerojatnostima padanja glave za svaki novčić, no te brojke su mogle ispasti bilo kakve.
I sada kada imamo novi uvid, odnosno kada imamo aposteriorne vjerojatnosti P\left(H_i \mid A\right), to možemo iskoristiti da bismo računali vjerojatnost događaja B = \left\{\text{U drugom bacanju novčića iz događaja A pada glava}\right\}. To ćemo učiniti opet sa formulom potpune vjerojatnosti kao što smo računali vjerojatnost P \left(A\right) = \sum_{i = 1}^{3} P \left(H_i\right) P \left(A \mid H_i\right), ali sad umjesto apriornih vjerojatnosti P \left(H_i\right) ćemo iskoristiti aposteriorne vjerojatnosti P \left(H_i \mid A\right), a drugi faktor u sumi će opet biti vjerojatnost padanja glave za svaki novčić, jer to se nije promijenilo (nema veze to što znamo da je u prvom bacanju pala glava, za svaki novčić vjerojatnosti ostaju kakve su i bile).
P \left(B\right) = \sum_{i = 1}^{3} P \left(H_i \mid A\right) \cdot p_i = 0.6^2 + 0.1^2 + 0.3^2 = 0.46