Я пытаюсь понять энтропию вектора. Я начал с создания выборки размером 1000000 из нормального распределения со средним значением 130 и дисперсией 1:
kk=normrnd(130,20,1000000,1);
kk=uint8(kk);%did this or else the result was 0
entropy(kk)
imhist
kk:
Результат энтропии равен 6,3686.
Затем я создал выборку размером 1000 из нормального распределения со средним значением 130 и дисперсией 1, выполнив те же шаги, что и раньше, чтобы получить более зашумленное распределение, вот гистограмма:
А энтропия 6,2779. Таким образом, кажется, что чем шумнее распределение, тем меньше энтропия. Я рассчитал энтропию для других размеров выборки нормального распределения с тем же средним значением и дисперсией, и она меняется в соответствии с этим. Но прав ли я? Это правильный способ сравнить энтропии распределений гистограмм?
[ВЕРСИЯ]
После того, что сказал Обшардон, я продолжил расследование. Это распределение:
kk1=normrnd(130,75,1000000,1);%entropy=7.6983
дает мне большую энтропию, чем:
kk2=normrnd(130,20,1000000,1);%entropy=6.3686
но энтропия этого меньше, чем kk1
и kk2
:
kka2=normrnd(130,150,100000,1);%entropy=6.1660
Как это возможно?