Emma63194
 
Krivo si postavila formulu. Kaze da je s vjerojatnostcu \alpha X poprima vrijednost slucajne varijable X_1, a s 1-\alpha vrijednost slucajne varijable X_2.
 
No X_1 i X_2  su slucajne varijable koje imaju svoje razdiobe. I sad ti iz ovoga moras prvo odrediti razdiobu slucajne varijable X. Neka je sada  i = 1, \ldots m . Ako imas da je  X = X_1 , onda je uvjetno na to vjerojatnost da X poprimi i jednaka vjerojatnosti da je X_1 = i  odnosno  p_i . A vjerojatnost da X  poprimi vrijednost iz X_1  je  \alpha . A ako je  X_2  “jednak” X  onda je uvjetno na to vjerojatnost  0  (jer je X_2  poprima samo vrijednosti vece od m. Dakle za  i = 1, \ldots, m  imamo:
 
P(X = i) = \alpha \cdot p_i  + (1-\alpha)\cdot 0 = \alpha \cdot p_i
Analogno za  i = m+1, \ldots, m+n  imas:
P(X= i ) = \alpha \cdot 0  + (1 - \alpha) \cdot p_i = (1 - \alpha) \cdot p_i 
Dakle sveukupno:
P(X = i ) = 
\begin{cases}
\alpha p_i, & 1 \leq i \leq m \\
(1-\alpha)p_i, & m + 1 \leq i \leq m+n
\end{cases}
I sade s tim vjerojatnostima racunas entropiju  H(X) (dakle uvrstis ih i u logaritam, i odna koristist pravilo da je logartima umnoska zbroj logaritama, malo to raspises i preoznas gdje je  H(X_1)  i H(X_2) i trebala bi dobiti na kraju trazeno.).
Dakle u osnovi ovdje treba shvatiti razmisljanje ovako, prvo s vjerojatnoscu  \alpha  biramo vrijednosti slucajne varijable  X_1 i onda s vjerojatnosti p_i  biramo tu neku vrijednost  i = 1, \ldots, m . Analogno i za vrijednosti  X_2.
Ovdje se ne poklapaju vrijednosti od X_1 i X_2 pa mozemo ovako jednostavno po slucajevima, da se poklapaju ne bismo mogli nesto previse zakljuciti (jedino ako mozda znamo da su nezavisne ili sl., ali opet upitno).