Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Единица количества информации

Бит (бит) ( ) — единица количества информации, равная количеству информации, получаемому при осуществлении одного из двух равновероятных событий.  [c.202]

Констатация того факта, что процессы считывания и передачи цифровой информации по каналам связи носят избирательный характер, " является фундаментальным положением теории информации. В частности, понятие двоичный выбор непосредственно приводит к понятию единицы количества информации.  [c.50]


Единица количества информации 6  [c.296]

При осуществлении связи между Землей и космическим пространством на расстояниях порядка 100 млн. км микроволновая техника обеспечивает скорость передач в пределах 10 бит/с (бит — единица количества информации в двоичной системе счисления, получаемая при реализации одного из двух равновероятных событий). А луч лазера позволяет на этих расстояниях развить скорость передачи в 10 тыс. раз большую, в пределах 10 бит/с.  [c.87]

Нат (натуральный логарифм равновероятных возможностей) — единица количества информации. Если данная вероятность определяется из возможного числа п равновероятных событий, то мера этой информации в натах опред. по ф-ле Л ат = 1п п. Очевидно, что . Ln 2 = 0,693  [c.303]

Бит — единица количества информации.  [c.190]

Постановка качественно новых дидактических целей, естественно, не отменяет известных методов учебного процесса. Обучение в форме репродуцирования известных в обществе знаний всегда будет занимать основной объем учебного времени. И очень важно, чтобы его конкретная методическая разработка носила развивающий характер, чтобы традиционные формы обучения не были абсолютно изолированы от поисковой деятельности. Дидактические цели развития личности, ее профессионального самосознания относятся не только к задачам общевузовского образования, но и к целевому планированию учебного процесса на любых других уровнях, в том числе и на уровне одного предмета и даже темы. Важно, чтобы методическая разработка конкретных задач носила достаточную интеллектуальную нагрузку, дифференцированную с возможностями каждого студента. Конкретное информационное содержание каждой темы и раздела должно быть критически пересмотрено с позиции максимально возможного укрупнения дидактических единиц и вклада в интеллектуально-поисковое развитие личности.. Только в этом случае информационно-рецептивный и репродуктивный методы позволят создать тот фонд знаний, который станет эффективной базой обучения творчеству. Большое значение в отборе учебного материала при информационном методе обучения имеет критерий методологического характера этих знаний. В этом случае обучение приобретает более четкую профессиональную направленность, поскольку такое знание определяет /возможность ориентировки специалиста в большом количестве информации (базе данных информационной системы) и эффективной реализации использования ее для конкретных целей профессиональной деятельности.  [c.156]

Известны слабые стороны использования информационного под-кода в психологии и дидактике. Однако следует констатировать, что на сегодня мы вынуждены принять в качестве единицы измерения количества информации бит. Для практических целей желательно использование единицы печатный знак (пзн), который может быть приравнен 1,5—2 бит [2]. Заметим, что, используя указанную размерность, мы предполагаем одновременный учет семантических связей s нормируемом информационном объеме, т. е. приближаемся к понятию мыслительная операция .  [c.390]


Если по каналу связи за время Т передается непрерывный сигнал, ограниченный частотой Р гц, то по теореме В. А. Котельникова по каналу должно быть передано 2РТ дискретных определяющих ординат. Пусть на канал действует помеха с равномерным частотным спектром в пределах передаваемой полосы частот и мгновенные напряжения помехи подчиняются нормальному закону распределения. Если — средняя мощность помехи, Р— средняя мощности сигнала, то по формуле Шеннона количество информации при сколь угодно малой вероятности ошибки выражается в двоичных единицах формулой  [c.343]

Важной характеристикой 3. является также пропускная способность, т. е. количество информации, к-рое может быть воспринято и переработано аппаратом 3. (включая и мозг) в единицу времени. Она определяется величиной порядка 15—17 бит/с.  [c.97]

Определение количества информации. Для того чтобы пояснить понятие информации, рассмотрим следующий пример. Допустим, что в данное время объект имеет равные вероятности быть в исправном и неисправном состоянии. Если поступает сообщение от датчика температуры, что изменение температуры меньше 40° С, то объект с вероятностью 60% находится в исправном состоянии при поступлении сообщения от датчика давления, что давление больше 0,15 МПа, можно гарантировать (с вероятностью единица ) исправное состояние объекта. Какое из этих сообщений несет больше информации Очевидно, второе, так как оно полностью устраняет неопределенность состояния объекта.  [c.132]

С другой стороны, естественно предположить, что количество информации, даваемое последовательностью сообщений, равно сумме информаций, приносимых каждым из сообщений. При этих условиях приходим к оценке количества информации с помощью логарифма вероятности априори объявленного события. Эта вероятность всегда меньше единицы, и ее логарифм всегда отрицателен определим количество информации через —log р. Двойное сообщение а, Ь принесет, следовательно, информацию  [c.205]

Интересно построить кривую, представляющую поток информации в простом случае, когда имеются две возможности с вероятностями р и 1—р эта кривая должна проходить через максимум, когда р= /2, т. е. когда два дополняющих друг друга события равным образом вероятны. Очень ловкий игрок выигрывает почти всегда, и объявление его результатов будет состоять из ряда сообщений, в которых будут объявляться только выигрыши, вероятность которых почти равна единице, и эти сообщения будут давать очень мало информации средний поток информации будет, следовательно, очень малым. Очевидно, то же самое получится и у неумелого игрока наоборот, игра среднего игрока даст максимум потока информации, причем каждое сообщение приносит почти одно и то же количество информации.  [c.207]

Если охарактеризовать сигнал как и шум некоторой мощностью , т. е. средней величиной квадрата его мгновенной величины, то можно показать, что количество информации на единице поверхности равно log(l+ Р,/Рь). где Ps и Рь суть соответственно мощности сигнала и шума эта формула применима в случае, когда вероятность как сигнала, так и шума распределена по гауссову закону.  [c.213]

Полезно указывать общий объем информации, который спектрометр способен накопить при снятии спектров максимальный информационный ток, т. е. количество информации, которое спектрометр может обработать за единицу времени эффективность спектрометра, т. е. долю обработанной информации от всей поступившей по отношению к доле мертвого времени оптимальную загрузку спектрометра, т. е. тот ток, при котором эффективность спектрометра максимальна. Важно бывает указать соответствующие характеристики для информации, выводимой из спектрометра.  [c.20]

В этом случае сравнение количества информации, получаемой на д-ы шаге от анализа каждой из допустимых вершин, не может производиться по формуле (2-26), поскольку информация от опроса разных вершин получается за разные интервалы времени. В то же время нельзя принимать решения на основе сравнения получаемого от опроса разных вершин количества информации за единицу времени. Поясним последнее утверждение следующим примером.  [c.237]

Различные последовательности сигналов соответствуют различному содержанию сообщения, т. е. содержат различное количество информации, которое оценивается в специальных единицах информации.  [c.7]


Оценивая влияние случайных помех, теория информации дает возможность предсказать, какой процент содержания информации, введенной в канал связи, достигнет конца цепи передач и будет расшифрован. При этом стремятся подлежащее передаче содержание информации, выражаемое как среднее значение количества информации на каждый сигнал или в единицу времени, доставить по возможности без потерь к концу цепи передачи сообщения. Такая постановка задачи аналогична с задачей передачи мощности без существенных потерь в машиностроении. Потери передаваемой мощности в машиностроении выражают через к. п. д. Потери передаваемой информации в результате воздействия помех на форму и частоту передаваемых сигналов также можно выразить через к. п. д. линии передачи информации.  [c.7]

Количество информации, которое глаз принимает и преобразует, составляет 50 двоичных единиц в секунду.  [c.22]

Основная задача согласования связей между человеком-опе-ратором и РЭА заключается в оптимизации устройств кодирования и декодирования информации. Для этого надо знать ответы на следующие вопросы какое количество информации данного вида способен принять, переработать и передать в единицу времени человек-оператор каковы его пропускная способность , точность работы и время задержки сигнала.  [c.94]

Емкость ВЗУ зависит от плотности записи, т.е. от количества информации, размещенной на единице площади поверхности рабочего слоя носителя.  [c.70]

Рассмотрев некоторые способы фильтрации избыточной информации, обратимся теперь к процессу принятия решения о результатах контроля, т. е. рассмотрим работу автоматических регистрирующих устройств. До последнего времени регистрирующие устройства дефектоскопов обслуживал один оператор, у которого незначительны минутный объем информации (нагрузку в 2 единицы информации даже тренированный человек выдерживает не более 5 мин) и потребное количество информации для принятия решения (недостающая часть информации дополняется человеком за счет знаний, навыков, опыта). Поэтому использовались системы без решения. Теперь, независимо от того, занят ли в производстве обслуживающий персонал или оно полностью автоматизировано, дефектоскопы необходимо снабжать регистрирующими устройствами с решением.  [c.466]

Достаточно взять количество разрядов в словах, появляющихся на выходе источника в единицу времени. Один двоичный сигнал, могущий принимать значения нуля или единицы, называют бит . Следовательно, информационная производительность источника будет выражаться в битах в секунду. Информационная производительность связана с понятием быстродействия, хотя последнее значительно менее точно определено и употребляется для обозначения весьма разнородных величин. В частности, под быстродействием обычно понимают количество обрабатываемых или производимых слов в секунду, не упоминая при этом о числе разрядов в этих словах, т. е. о количестве информации в каждом из них.  [c.14]

С бурным развитием техники и увеличением количества информации, которую необходимо передавать, возникла задача не только увеличить каналы связи, но и повысить скорость передачи информации, которая находится в прямой зависимости от длины волны и ширины полосы пропускания канала. Применение электромагнитных колебаний оптического диапазона позволяет в единицу времени передать гораздо больше информации, чем в радиодиапазоне.  [c.207]

По большей части процессы запоминания (как оперативного, так и долговременного) не описываются простой моделью передачи информации. Они обладают значительной чувствительностью к последовательной связанности, особенно для языкового материала, так что запоминание улучшается, когда обусловленная такой связанностью избыточность растет, а количество информации уменьшается. Однако, по крайней мере для оперативной памяти, размер множества, которому принадлежат запоминаемые объекты, не является существенным фактором. Поэтому полезна возможность кодировать эти объекты более компактными единицами  [c.117]

Память. Оперативная память играет важную роль в задачах обсуждавшегося выше типа она позволяет реализовать воспроизведение с запаздыванием и восприятие с опережением , чтобы использовать последовательную связанность и добиться больших скоростей передачи. Предполагается, что относительная независимость оперативной памяти от количества информации в единице предъявляемого материала, если  [c.122]

Согласно первой точке зрения, интервал допуска В выбирается из области, которая первоначально в силу симметрии вдвое превосходит амплитуду движения А. Если первоначально на интервале 2А было задано равномерное распределение, то вероятность любого интервала длины В равнялась В/2А. После выбора точки остановки эта вероятность обращается в единицу. Поэтому количество информации, необходимое для выбора  [c.124]

Если берется логарифм по основанию два, то единицей информации является бит. Если основание логарифмов не оговаривается, то единичное количество информации не определено. Ин-  [c.128]

В непрерывном случае Н (х) в соответствии с определением (7.6) равно среднему количеству информации, которое должно быть передано, чтобы уменьшить неопределенность величины л с априорным распределением / (л ) до неопределенности равномерного распределения на интервале, длина которого совпадает с единицей измерения х.  [c.130]

Конструкторская информация, как указывалось выше, представляет собой описание различных сущностей, участвую щих в процессе конструирования машин. Информация, описывающая те или иные сущности, полный объем сведений о них, представляет собой некоторые информационные совокупности различной сложности, состоящие из множества элементарных сообщений, каждое из которых несет одну единицу информации. В качестве единицы количества информашш принимается случайное сообщение (или значение случайной величины), которое-с равной вероятностью может принимать одно из двух взаимно исключающих друг друга значений, на пример О или 1, поворот направо или налево и т. п. Единица количества информации называется бит .  [c.19]


Для определенности в дальнейшем чаще всего будем говорить о битах информации, поэтому уместно напомнить определения. В вычислительной технике числа, слова и прочие данные представляют в двоичной системе, т. е. в виде комбинации знаков О и 1. Единицы или знаки дю-ичной системы называют битами (от англ. binary - двоичный и digit -знак, цифра). Бит — единица количества информации, которое содержится в сообщении типа да - нет . Последовательность из 8 битов образует более крупную единицу информации - 1 байт. Одним из обоснований применения двоичной системы является простота и надежность накопления информации в виде комбинации всего двух физических состояний носителя, например, в виде изменения или постоянства намагниченности в данной точке носителя информации.  [c.562]

Бит — [бит bit] — единица количества информации. Наимен. образовано сокращением англ. слов binary — двоичный и didit — знак, цифра. Применяли также наимен. бид и двоичная цифра (единица). В 1928 г. америк. инженер Хартли предложил оценивать кол-во информации логарифмом числа возможных событий. Если данная вероятность опред. из возможного числа п равновероятных событий, то мера этой информации в битах опред. выражением N = log, п. Отсюда 1 бит = log, (X,/Jf,) при --= 2 X,. Бит равен кол-ву информации, получаемому при осуществлении одного из двух равновероятных событий. В наст, время ед. допускается применять наравне с ед. СИ.  [c.241]

Важной характеристикой процедуры, обеспечивающей интерактивный режим, является показатель скорости ответа. Этим показателем может являться количество машинных операций, требующееся для обработки единицы входной информации. Таким образом, отметим, что для JDBNE это составляет около 700 операций на символ информации, а для FBNSV - 2000 операций на одно число.  [c.17]

Значение световой энергии на фотографическом Материале, даже в том случае, если энергия отнесена к единице или к заданному количеству информации, определяет лишь чувствительность материала, но не системы, использующей этот материал. Чувствительность системы в целом определяется величиной, обратной световой энергии, подаваемой на объект, и позволяющей воспро-взвести определенный объем информации от объекта или энергией, приходящейся на единицу воспроизводимой информации. Существующие голографические системы требуют, кроме подачи световой энергии на объект, еще и дополнительной энергии для создания опорной волны. Как правило, один и тот же источник когерентного света с заданной мощностью распределяет ее между объектом и опорной волной. Это распределение может быть различным, и от него зависит достигаемый аффект. При определенных условиях достигаемый эффект максимален и, следовательно, в этом случае для передачи единицы информации требуется минимальная энергия.  [c.106]

Интенсивными указанные электрометрические измерения именуются еще и потому, что число их на единицу протяженности обследуемого трубопровода достаточно велико, и при шаге, равном 5 м, составляет 200 на 1 км, а при сгущении шагов до 1 м на К 1Ком-либо аномальном участке - еще больше. Огромное количество информации (результатов измерений) собирает-  [c.96]

Важными характеристиками являются продольная, поперечная, поверхностная и объемная плотности записи. Продольная плотность Рпрод измеряется числом периодов гармонического сигнала или бит информации, приходящихся на единицу длины носителя в направлении записи. Поперечная плотность Рпопер — ЭТО ЧИСЛО дорожек, приходящихся на единицу длины носителя в направле-НИИ, перпендикулярном к направлению записи. Поверхностная плотность Рпов, равная произведению Рпрод и Рпопер, определяет количество информации, записанной на единице поверхности носителя. Объемная плотность определяется количеством информации, записанной в единице объема носителя.  [c.246]

Дробные количества информации не следует считать аномальными. Сообщения, или достаточно длинные последовательности сообщений, в общем случае могут кодироваться различным количеством цифр так, чтобы среднее их число, приходящееся на одно сообщение, равнялось числу единиц информации, характеризующих все множество сообщений. Например, для трех равновероятных сообщений имеем Н = loga 3 a 1,58. Легко найти для этих сообщений такой код, который обеспечивает в среднем использование менее двух двоичных цифр на одно сообщение, как показано в табл. 5.2. Для этого кода среднее число двоичных цифр, затрачиваемых на одно сообщение, равно (1/3) (1) + (2/3) (2) = 5/3 aj  [c.81]

Однако существует важное, хотя и тонкое различие между дискретной и непрерывной формами Н х). В непрерывном случае плотность вероятности, в отличие от самой вер.оятности, уже не безразмерная величина вследствие этого численное значение Н (л ) будет зависеть от выбора единицы, в которой измеряется величина X. Мы можем сделать количество информации сколь угодно большим или малым, выбирая единицу измерения. Например, равномерное распределение в интервале длины г имеет плотность вероятности 1/г и из соотношения (7.6) следует  [c.130]

В дискретном случае мы интерпретировали величину Н (д ) как среднее количество информации, требуемое для точного определения одного из элементов множества, т. е. как среднюю переданную информацию, когда апостериорная вероятность увеличивается до единицы. Рассмотрим теперь информацию, переданную при задании определенного значения х в формуле (7.2). Подстановка единичной вероятности вместо / (л у ) в числитель означает подстановку единичной импульсной функции, умноженной на dx, и приводит к отношению б (л — х ) axif (х ) dx. Чтобы точно определить значение непрерывной переменной, необходимо бесконечное количество информации.  [c.130]


Смотреть страницы где упоминается термин Единица количества информации : [c.350]    [c.339]    [c.344]    [c.154]    [c.94]    [c.71]    [c.237]    [c.77]    [c.573]    [c.13]    [c.151]    [c.130]   
Приборы автоматического контроля размеров в машиностроении (1960) -- [ c.6 ]



ПОИСК



Информации — Количество

Информация



© 2025 Mash-xxl.info Реклама на сайте