Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Шеннона энтропия

Шеннона энтропия 62 Шкалы интервальные 153, 154  [c.204]

Понятие энтропия информации ввел один из авторов теории информации - Шеннон. Поводом для этого послужил чисто формальный признак функция Шеннона, связывающая информацию с числом N возможных событий в поведении системы, математически оказалась сходной с Н-функцией Больцмана. Мерой энтропии информации I по Шеннону служит не само число N, а его логарифм по основанию 2  [c.10]


В кибернетике энтропия используется в качестве количественной меры информации, которую несет данный набор сигналов. Набор сигналов можно отождествить с физической системой, состоящей из дискретных подсистем, которые с некоторой вероятностью могут находиться в одном из нескольких структурных состояний Для вычисления средней информации, или энтропии, сообщаемой данным набором сигналов, служит формула Шеннона  [c.153]

Как было установлено К. Шенноном, информация / о системе, получаемая при наблюдении за системой, связана с происходящим при этом изменением вероятности состояния системы таким же соотношением (с точностью до знака), как и (3.49). Это формальное сходство выражений для термодинамической энтропии S и уменьшения информации — / ( информационной энтропии по Шеннону) привело многих авторов к необоснованному отождествлению термодинамической энтропии с информационной энтропией , хотя последняя не является термодинамическим параметром. Использование одного и того же термина (энтропия) для различных величин лишь вводит в заблуждение.  [c.73]

Основная теорема Шеннона. Если Но — энтропия источника, С — пропускная способность канала и Но < С, то для любого е > О существует такое натуральное число п, зависящее от Е, и такой код, зависящий от Е, что зная п последовательных букв на выходе канала, мы можем правильно определить соответствующие п букв на входе с вероятностью большей, чем 1 — е если Но >- С, то при достаточно малом Е такого кода не существует.  [c.342]

Используя выражение энтропии и доверительного интервала поля рассеяния для соответствующих законов распределения контролируемой величины (нормального, равновероятного, существенно положительных величин), можно рассчитать верхние пределы допускаемых значений параметров т),-, v,-, yjv (табл. 1). При вычислении энтропии для закона Максвелла, например, согласно теореме Шеннона [48], интегрирование выполняем в пределах [О, оо]  [c.27]

Величина I P)—L Р)—Я [Р) ная, избыточностью кодирования при распределении Р. Задача состоит в отыскании в заданном классе взаимно однозначных кодирований кодирования, обладающего мин. величиной 1(Р). Существование минимума и его значение устанавливаются теоремой Шеннона для канала без шума, гласящей, что для источника с конечный алфавитом А с энтропией Н Р) можно так приписать кодовые слова буквам источника, что ср. длина кодового слова L P) будет удовлетворять условиям  [c.398]

Величина Н (А), введенная Шенноном, называется энтропией системы. Обозначение Н (А) показывает, что энтропия относится к системе А, и его не следует понимать как обычное обозначение функциональной зависимости.  [c.118]


Эту величину Шеннон назвал энтропией совокупности Ри Р2> Рз, . Рт- Ее можно использовать для характеристики получения информации в результате некоторого опыта, вне зависимости от его природы, если только этот опыт имеет т исходов, причем вероятности появления каждого из них равны р, рг, Рз, , Рт-  [c.42]

Исторически теория информации заимствовала многие понятия из статистической механики. Среди прочих, к ним относится понятие информационной энтропии, введенное Шенноном [151]. Однако теперь, когда теория информации представляет собой хорошо разработанную теорию, можно, следуя Джейнсу [98, 99], принять ее положения за исходные и применить их к статистической механике. В частности, мы увидим, что все равновесные распределения Гиббса могут быть выведены из условия максимума информационной энтропии при соответствующих ограничениях, наложенных на статистический ансамбль. Отметим, однако, что подход, основанный на теории информации, не следует рассматривать как строгое обоснование статистической механики ). Но во всяком случае, он предоставляет собой очень удобный эвристический метод построения функций распределения и статистических операторов. Этот метод оказывается особенно полезным в неравновесной статистической механике.  [c.49]

Согласно Шеннону [642] энтропия системы равна  [c.230]

В соотношении Шеннона (165) информация измеряется в "натах", а не в битах, так что становится очевидной связь этого выражения с энтропией (164) при к = I. Если информация полностью стирается, то система атомов может попадать в любую из возможных ячеек, число которых равно Г. При этом возникает совершенно хаотическое тепловое движение.  [c.177]

Мера информации Шеннона—Винера, которая излагается в этой главе, тесно связана с кодированием, т. е. способом представления сообщений или событий (для передачи по каналу). Информация Я, связанная с множеством сообщений, равна среднему значению информации, необходимой для точного определения одного элемента этого множества. Данный код однозначно определяет каждое сообщение из множества. Энтропию множества, выраженную в битах, легко можно интерпретировать как среднее значение минимального числа двоичных цифр, необходимых для однозначного описания одного элемента множества. Если 6 — основание логарифма, применяемого для определения информационной меры, то количество информации равно среднему значе-  [c.80]

Величина I характеризует какое именно состояние системы реализовалось. Шенноновская информация относится к замкнутым системам. Г. Хакен [15] расширил предстаяления об информационной энтропии он показал, что с формальной точки зрения различие в интерпретации энтропии Больцмана и информационной энтропии по Шеннону обусловлено различием в ограничениях, используемых для замкнутых и открытых систем. Это позволило придать универсальность информационной энтропии и расширить ее использование также и для открытых систем, если в процессе самоорганизации в системе образуются макроскопические структуры. Хакен представил соогношение (1.4) в виде  [c.10]

По той же причине эксперимент Сциларда не может служить основанием для отождествления физической энтропии, используемой в термодинамике, с информационной энтропией, введенной Шенноном. В эксперименте Сциларда вообще не требуется никакой предварительной информации о местонахождении молекулы после введения в цилиндр поршня, поскольку само движение поршня указывает на ее местонахождение и превращение теплоты в работу будет происходить независимо от того, где находится молекула.  [c.166]

Прошло время, утихли залпы полемических сражений, похоронили убитых физически, отреклись от убитых морально, осмотрелись и увидели, что второй закоя и энтропия зажили самостоятельной жизнью и стали проникать всюду. Так, в 1929 г. Сциллард и более точно и широко в 1949 г. Шеннон открыли соотношение между энтропией и информацией.  [c.171]

Пусть источник сообщений характеризуется энтропией Н (бит/буква), а канал связи имеет пропускную способ-носз ь с (би1/с). Тогда можно закодировать сообщения так. чтобы передавать символы по каналу связи со ср. скоростью С///—Е (буква/с), где к—-сколь угодно малое число. Передавать буквы со ср. скоростью, превышающей jН, невозможно. Достижение верх, границы для скорости передачи, указываемой теоремой Шеннона, осуществляется за счёт применения процедур эфф. кодирования.  [c.73]


В статистич. теории энтропия служит мерой неопределенности рассматриваемых состояний системы при статистич. описании. Разность энтропий Шеннона не может, однако, быть мерой относит, степени хаотичности (или упорядоченности) выделенных состояний, т. к. она не является функционалом Ляпунова (см. Устойчивость движения). Это имеет место лишь при условии, что сравнение производится при одинаковых значениях энергии—ф-ции Хамильтона. В таком случае энтропия равновесного состояния максимальная и, следовательно, равновесное состояние при указанном условии является наиб, хаотическим.  [c.229]

Это направление Э.т. возникло в кон. 50-х — нач. 60-х гг. после того, как А. Н. Колмогоровым было введено понятие энтропии ДС, близкое к теоретико-информац. энтропии К. Э. Шеннона (С. Е. Shannon) (см. Теория информации), Пусть измеримые множества А i, образуют разбиение а вероятностного пространства (X, ц). Энтропией этого разбиения наз. число  [c.630]

Поскольку волновой функции мы придаем информационный характер, приходится более подробно познакомиться с понятием информации. Информация, как обычно, вводится по Шеннону, а для выявления ее связи с энтропией используются тепловые "микромашины" Сцилларда [9]. Для описания классических измерений в терминах информационных процессов в книге вводится специальное понятие восприятия.  [c.12]

Данная глава имеет вводный характер. Она знакомит читателя с понятием информации в ее простейшем варианте, т.е. по Шеннону. Здесь же выясняется связь информации с энтропией. На примере идеальной газодинамики поясняется, как возникают физические классические поля в таких динамических процессах, которые описываются непрерывными функциями координат и времени. Вопрос о том, как могут быть связаны между собой динамические и информационные процессы, в данной главе пока не обсуждается. В конце главы выводится уравнение Леонтовича — уравнение для огибающей волнового пакета. Нетрудно видеть, что это уравнение похоже на квантовое уравнение Шрёдингера для волновой функции. Но на самом деле между этими двумя уравнениями имеется коренное различие уравнение Леонтовича описывает эволюцию классического физического поля, а уравнение Шрёдингера, как будет видно из дальнейшего изложения, описывает эволюцию волн информации.  [c.18]

Величина запутывания Е чистого состояния Ч (А,В) определяется как энтропия фон Неймана матриц плотности р или рд, либо, что то же самое, как энтропия Шеннона для вероятностейp = j  [c.129]

В оригинале введенную К. Шенноном информационную энтропию автор называет статистической и, чтобы отличить ее от термодинамической, пишет .1I0B0 энтропия с заглавной буквы, опуская определение. Однако для удобства читателей в переводе каждый раз приводится полное название с маленькой буквы.— Прим. ред.  [c.58]

Энтропия-информация есть характеристика функции распределения в системах. Эту её особетюсть подчеркнул А. Эйнштейн в классической работе [25]. В такой форме энтропия использовалась в работах К. Шеннона. Подробно вопросы связи энтропии и функций распределения расс югре/ ы, например, в книге [26].  [c.15]


Смотреть страницы где упоминается термин Шеннона энтропия : [c.229]    [c.49]    [c.21]    [c.726]    [c.247]    [c.45]    [c.88]   
Методы принятия технических решений (1990) -- [ c.62 ]



ПОИСК



Шеннон

Энтропия



© 2025 Mash-xxl.info Реклама на сайте