ПОИСК Статьи Чертежи Таблицы Статистический смысл принципа максимума энтропии из "Нелинейные задачи статистической динамики машин и приборов (БР) " Понятие энтропии как меры неопределенности тесно связано с понятием количества информации о состоянии стохастической системы в некоторый момент времени. Информационный смысл энтропии раскрыт в многочисленных работах по теории информации и широко используется при решении задач связи, кодирования и т. п. [13, 25]. Еще одной областью эффективного применения энтропийных подходов является математическая статистика. В данном параграфе мы рассмотрим задачу о восстановлении гипотетической плотности вероятности]Гслучайной величины по выборочной информации на основе принципа максимума энтропии. Этот пример еще раз иллюстрирует справедливость сформулированного выше принципа и указывает дополнительное направление его использования. [c.49] Предположим, что на основании выборочных данных установлены оценки нескольких первых моментов случайной величины и гистограмма, характеризующая эмпирическое [распределение. Для построения доверительных интервалов и проверки гипотез о распределении желательно иметь информацию о гипотетической. плотности вероятности исследуемой величины. В качестве оценки этой плотности вероятности может быть использовано распределение, построенное на основе принципа максимума энтропии. [c.51] Неизвестные константы С, Xj вычисляют на основании условий типа (2.44). Расчеты выполняют при помощи ЭВМ. [c.52] Построенные оценки плотности вероятности случайной величины являются оптимальными в смысле принципа максимума энтропии. Это означает, что при заданных выборочных значениях моментов случайной величины указывается наиболее непредвзятый вид гипотетического распределения [26]. [c.52] Вернуться к основной статье