Emma63194
Krivo si postavila formulu. Kaze da je s vjerojatnostcu \alpha X poprima vrijednost slucajne varijable X_1, a s 1-\alpha vrijednost slucajne varijable X_2.
No X_1 i X_2 su slucajne varijable koje imaju svoje razdiobe. I sad ti iz ovoga moras prvo odrediti razdiobu slucajne varijable X. Neka je sada i = 1, \ldots m . Ako imas da je X = X_1 , onda je uvjetno na to vjerojatnost da X poprimi i jednaka vjerojatnosti da je X_1 = i odnosno p_i . A vjerojatnost da X poprimi vrijednost iz X_1 je \alpha . A ako je X_2 “jednak” X onda je uvjetno na to vjerojatnost 0 (jer je X_2 poprima samo vrijednosti vece od m. Dakle za i = 1, \ldots, m imamo:
P(X = i) = \alpha \cdot p_i + (1-\alpha)\cdot 0 = \alpha \cdot p_i
Analogno za i = m+1, \ldots, m+n imas:
P(X= i ) = \alpha \cdot 0 + (1 - \alpha) \cdot p_i = (1 - \alpha) \cdot p_i
Dakle sveukupno:
P(X = i ) =
\begin{cases}
\alpha p_i, & 1 \leq i \leq m \\
(1-\alpha)p_i, & m + 1 \leq i \leq m+n
\end{cases}
I sade s tim vjerojatnostima racunas entropiju H(X) (dakle uvrstis ih i u logaritam, i odna koristist pravilo da je logartima umnoska zbroj logaritama, malo to raspises i preoznas gdje je H(X_1) i H(X_2) i trebala bi dobiti na kraju trazeno.).
Dakle u osnovi ovdje treba shvatiti razmisljanje ovako, prvo s vjerojatnoscu \alpha biramo vrijednosti slucajne varijable X_1 i onda s vjerojatnosti p_i biramo tu neku vrijednost i = 1, \ldots, m . Analogno i za vrijednosti X_2.
Ovdje se ne poklapaju vrijednosti od X_1 i X_2 pa mozemo ovako jednostavno po slucajevima, da se poklapaju ne bismo mogli nesto previse zakljuciti (jedino ako mozda znamo da su nezavisne ili sl., ali opet upitno).