Энтропия-Что это?

Рассмотрим жестком диске.Файловая система связанный список с случайный характер.Дефрагментация воссоздает или улучшает "порядок".Что такое эквивалентность DQ / T?

 
Я согласен, что энтропия показывает степень хаотичности и неопределенности в системе.Тем не менее, если вы обратите внимание на определение этого понятия в Matlab, о сигналах, вы увидите какие-то странные вещи:

Энтропии Шеннона: E = сумма (SI ^ 2 * log2 (SI ^ 2)) - определение Matlab.SI - образцы дискретных сигналов времени
whereas this facts contradicts to the intuitive sense of entropy and the definition of it in information theory which maintain that entropy>=0!!!!1) в соответствии с выражением выше, entriopy может быть отрицательным (меньше нуля),
а это противоречит фактам интуитивное чувство энтропия и определение его в информационной теории, которые утверждают, что энтропия> = 0!!2) Представьте себе, постоянный сигнал, со значениями, очень большие и равные для любого момента образца.Она будет иметь огромное энтропии, но он легко интеллектуального (потому что это постоянная), следовательно, должны иметь малой энтропией.Тем не менее, быстрое колебание шум с нулевым средним и стандартным отклонением единица должна иметь больше энтропии постоянного сигнала. Но в соответствии с формулой это наоборот!!Как вы можете объяснить это любопытные факты?

С уважением.

Дмитрий

 

Welcome to EDABoard.com

Sponsor

Back
Top