Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама
Понятие энтропии как меры неопределенности тесно связано с понятием количества информации о состоянии стохастической системы в некоторый момент времени. Информационный смысл энтропии раскрыт в многочисленных работах по теории информации и широко используется при решении задач связи, кодирования и т. п. [13, 25]. Еще одной областью эффективного применения энтропийных подходов является математическая статистика. В данном параграфе мы рассмотрим задачу о восстановлении гипотетической плотности вероятности]Гслучайной величины по выборочной информации на основе принципа максимума энтропии. Этот пример еще раз иллюстрирует справедливость сформулированного выше принципа и указывает дополнительное направление его использования.

ПОИСК



Статистический смысл принципа максимума энтропии

из "Нелинейные задачи статистической динамики машин и приборов (БР) "

Понятие энтропии как меры неопределенности тесно связано с понятием количества информации о состоянии стохастической системы в некоторый момент времени. Информационный смысл энтропии раскрыт в многочисленных работах по теории информации и широко используется при решении задач связи, кодирования и т. п. [13, 25]. Еще одной областью эффективного применения энтропийных подходов является математическая статистика. В данном параграфе мы рассмотрим задачу о восстановлении гипотетической плотности вероятности]Гслучайной величины по выборочной информации на основе принципа максимума энтропии. Этот пример еще раз иллюстрирует справедливость сформулированного выше принципа и указывает дополнительное направление его использования. [c.49]
Предположим, что на основании выборочных данных установлены оценки нескольких первых моментов случайной величины и гистограмма, характеризующая эмпирическое [распределение. Для построения доверительных интервалов и проверки гипотез о распределении желательно иметь информацию о гипотетической. плотности вероятности исследуемой величины. В качестве оценки этой плотности вероятности может быть использовано распределение, построенное на основе принципа максимума энтропии. [c.51]
Неизвестные константы С, Xj вычисляют на основании условий типа (2.44). Расчеты выполняют при помощи ЭВМ. [c.52]
Построенные оценки плотности вероятности случайной величины являются оптимальными в смысле принципа максимума энтропии. Это означает, что при заданных выборочных значениях моментов случайной величины указывается наиболее непредвзятый вид гипотетического распределения [26]. [c.52]


Вернуться к основной статье

© 2025 Mash-xxl.info Реклама на сайте