С точки зрения теории сжатия и информации энтропия источника — это среднее количество информации (в битах), которую могут передать символы из источника. Неформально говоря, если мы уверены в исходе события, то энтропия меньше.
J. Principe, D. Xu, and J. Fisher, “Information theoretic learning,” in Unsupervised Adaptive Filtering, S. Haykin, Ed. New York: Wiley, 2000, vol. I, pp. 265–319.
Энтропия (Шеннон и Реньи) использовалась в обучении путем минимизации энтропии ошибки как целевой функции вместо среднеквадратичной ошибки.
Мои вопросы
- В чем причина минимизации энтропии ошибки? Когда энтропия максимальна, что мы можем сказать об информации? Спасибо