ПОИСК Статьи Чертежи Таблицы Наглядные пояснения к понятию - информация из "Введение меры информации в аксиоматическую базу механики Изд.2 " В строгом виде информация характеризует устранённую неопределённость. В системе беспорядок - неопределённость. Её величину выражает энтропия. С помощью измерений выбрали один элемент. Этим неопределённость устранена. В результате получено количество шформа-цни в виде числа, равного энтропии с обратным знаком. [c.19] При таком диапазоне масштабов и количеств беспорядок, создаваемый случайностями, устанавливает очевидный и неустранимый запрет иа создание npoei ra как детерминированного чертежа-инструкции . Одиако Вселенная, а в ней человек с его разумом существуют. [c.19] Дело в том, что в природе нет проекгов в обиходном понимании этого термина. Объекты, тождественные при макроскопических наблюдениях, как правило, неповторимы на своих микроуровнях (атомном, микрокристаллическом, клеточном). Природа неспособна создавать что-либо по тем правилам проекта , которые ей хочет навязать человек. [c.19] Но ведь в науке информация строго определена именно так не как проект , а как функцня случайностей - устранённой неопределённости. Информация потому является основой всего сущего, что ее определение связано с фундаментальной переменной в науке - энтропией, подчиняющейся аксиоме о стремлении случайностей к максимуму беспорядка, известной как второе начало термодинамики. [c.20] Когда инженер создает проект машины, исходными для него являются некоторый набор материалов, деталей и агрегатов, а таюке заданные условия их применения и результаты, которые должны быть достигнуты с номошыо этой машины. [c.20] Кажущаяся парадоксальность этих утверждений создает трудности в понимании моих работ. [c.21] Поэтому определение эитроп1И1-информации (1.1) неполное. В нём ис указаны условия синтеза информации (самопроизвольного возникновения новой информации в физической системе). Самопроизвольно (как и в термодинамике) означает направление процессов в сторону роста эитр0И1И1 или уменьшения энерпш взаимодействия. [c.22] Определение энтропии-информации (1.1) задает фундаментально разные иерар.чические уровни синтеза информации (рис. 1.2). [c.22] Кажется однозначным и очевидным условие, что в определении энтропии (1.1) величина адиабатического инварианта К = ка - постоянной Больцмана. Это не так. Вид и свойства элементов системы, законы их взаи. юдействий задают возможность разных постоянных К. Должен существовать процесс В, приводящий к однозначному определению адиабатического инварианта К в функции условий задачи. [c.22] Вернуться к основной статье