Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.
Аннотация к работе
1. Мера количества информации 2. Однако, являясь разделом математики и кибернетики, теория информации используется для решения широкого круга задач в самых разных областях знания. Впервые идею о связи между вероятностью и информацией высказал известный английский статистик Рональд Фишер. Впоследствии понятие энтропии, но уже применительно к процессам передачи сигналов стало, наряду с понятием количества информации, основным в теории информации. Значительный вклад в становление теории информации внесли такие крупнейшие отечественные специалисты в области теории вероятностей и математической статистики как А.Н.Колмогоров, С.А.Бернштейн, А.Я.Хинчин и ряд других.