ПОИСК Статьи Чертежи Таблицы Энтропия как мера неопределенности состояния термодинамической системы из "Нелинейные задачи статистической динамики машин и приборов (БР) " Далее был выяснен статистический смысл энтропии как меры неопределенности множества микроскопических состояний термодинамической системы [8]. [c.39] Выражение для энтропии (2.4), введенное Гиббсом [8], имеет ясный статистический смысл. Величина S является мерой неопределенности, хаотичности состояния фазового ансамбля в момент времени t и характеризует неполноту наших сведений о процессах, протекающих на микроскопическом уровне. [c.40] Для необратимых процессов энтропия неравновесного состояния возрастает со временем. Равновесное состояние изолированной системы характеризуется такими значениями своих параметров, при которых S = max [21 ]. Это свойство энтропии устанавливается на основе известной гипотезы Гиббса о перемешивании фазового ансамбля [8, 21 ]. Таким образом, переход к равновесному состоянию связан с возрастанием неопределенности и уменьшением объема информации об изучаемом процессе. [c.40] В статистической термодинамике и теории информации существуют и другие определения энтропии, которые отличаются от выражения (2.4) либо наличием аддитивных добавочных членов, либо более конкретным видом, учитывающим свойства плотности вероятности. Так как в дальнейшем нас будут интересовать лишь относительные значения энтропии, то постоянную Больцмана в формуле (2.4) можно положить равной единице. [c.40] Вернуться к основной статье