Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Плотность распределения вероятностей независимых случайных величин

Эта вероятность может быть выражена через плотность распределения f(x, у) системы двух независимых случайных величин X и Y, равную произведению их плотностей распределения [2]  [c.33]

Перейдем теперь к построению формулы закона распределения суммарной погрешности размеров и формы, заданной стационарной случайной функцией (11.129). Найдем сначала плотность вероятности некруглости. Для этого используем выражение (11.134), где r k (ф) — независимые случайные величины для любого фиксированного значения аргумента ф, распределенные согласно формуле (11.63).  [c.419]


Зная плотность вероятности погрешности собственно размера (11.2) и отклонения формы (11.155), можно найти закон распределения общей погрешности (ф), рассматриваемой в виде суммы (11.145) независимых случайных величин г и т] (ф) в предположении, что ф фиксировано  [c.420]

При таких условиях в теории вероятности доказывается центральная предельная теорема Ляпунова, в соответствии с которой распределение суммы большого числа независимых случайных величин (с произвольными законами распределения ) подчиняется нормальному закону. В практике нормальное распределение встречается очень часто погрешности изготовления и измерения деталей, рассеяние механических свойств материалов, распределение различного рода случайных воздействий и т. п. Нормальный закон распределения обладает устойчивостью, линейные функции нормальных случайных величин также следуют этому закону. Во многих задачах с помощью нормального закона или его модификаций можно приближенно представить другие распределения. Плотность распределения при нормальном законе выражается следующим равенством  [c.218]

Тг (Я), I = 1, /тг, положительных выбросов процесса ( ) могут считаться независимыми случайными величинами, распределение которых описывается плотностью вероятности Релея (4.5.40)  [c.267]

Если 11 и — две независимые нормальные слу чайные величины с параметрами (а, а) и (Ь, о), т плотность распределения вероятностей случайно величины г = имеет вид  [c.456]

Это — хорошо известный в теории вероятностей закон композиции, с помощью которого плотность закона распределения суммы п независимых случайных величин выражается через плотности тех законов, которым подчинены слагаемые. Мы получаем таким образом следующее  [c.56]

Так называемая локальная предельная теорема теории вероятностей, дающая приближенное выражение для плотности закона распределения которому подчиняется сумма большого числа взаимно независимых случайных величин, в наиболее удобном для наших целей виде может быть формулирована следующим образом  [c.58]

Нормальное распределение. Рассмотрим случайную величину X, которая состоит из суммы малых, независимых составляющих Х1, Ха,. .., Х . Можно доказать (А1.1) при весьма общих условиях, что если п велико, то плотность распределения вероятностей X имеет вид  [c.328]


Пусть жесткости q (г = 1, 2,. . ., га) представляют собой случайные независимые величины, имеющие плотность распределения / ( i). Тогда, пользуясь основными теоремами теории вероятностей [4], будем рассматривать матрицу FK известных или вычисляемых плотностей распределения элементов матрицы D.  [c.136]

В приложениях часто применяют упрощенный, квазистатический подход, трактуя г и 5 не как случайные процессы, а как случайные величины, распределения которых отвечают некоторым, заранее заданным значениям времени или наработки. При этом в основе расчета лежит совместная плотность вероятности /)(/ , s), а при условии независимости г и 5 - плотности вероятности Рг г) и p (s) (рис. 1.4,5) В первом случае вероятность безотказной работы  [c.45]

Плотность вероятности (22) соответствует гамма-распределению с параметрами /г и (д = (Я). Временные интервалы Тц. (Я) являются здесь взаимно независимыми и одинаково распределенными случайными величинами с экспоненциальной плотностью вероятности (23).  [c.277]

Закон распределения суммы квадратов к независимых нормально-распределенных случайных величин с нулевым математическим ожиданием и единичной дисперсией носит название хи-квадрат (х ) распределения. Плотность вероятности такого распределения описывается следующим выражением [31  [c.62]

Его можно трактовать как совместное распределение случайных величин и Х , распределенных нормально с параметрами ах, ст, и Яа, Ог. если коэффициент корреляции между Х и Х2 равен г (т <1). В том случае, когда Х1 и Х независимы, г = 0 ш р (хг, х ) равно произведению плотностей вероятности величии Хх и Х. .  [c.435]

Другой метод нахождения О. с., более совершенный с теоретич. точки зрения,— метод наибольшего правдоподобия. Согласно этому методу рассматривают функцию правдоподобия Ь а), которая представляет собой функцию неизвестного параметра а и получается в результате замены в плотности совместного распределения p xi, j,. .., хп а) аргументов х самими случайными величинами если независимы и одинаково распределены с плотностью вероятности р(х а), то Ца) = p(li а) р 1. а). .. р( а).(Если h распределены дискретно, то в определении функции правдоподобия L следует плотности заменить вероятностями событий %i = Xl ). в качестве О. с. наибольшего правдоподобия для неизвестного параметра а принимают такую величину а, для к-рой L a) достигает наибольшего значения [при этом часто вместо L рассматривают т. н. логарифмическую функцию правдоподобия 1(а) = InL(a) в силу монотонности логарифма, точки максимумов функций Ца) и 1(а) совпадают]. Примерами О. с. наибольшего правдоподобия являются оценки по наименьших квадратов методу.  [c.574]

Отказом в данном случае будет выход J t) размеров обработанной детали за пределы поля допуска (отказ параметра, характеризующий технологическую надежность). Размер каждой очередной детали есть случайная величина, распределенная в определенном диапазоне, который называют мгновенным полем рассеяния размеров. Следовательно, время зафиксированного отказа параметра есть случайная величина. Интервалы времени между двумя отказами t , и т. д. также являются случайными величинами, которые имеют, однако, вполне определенный закон распределения во времени, обусловленный самим характером данных отказов. Отказ наступает независимо от того, сколько времени прошло с момента предыдущего отказа, каковы размеры предыдущих деталей. Отказы, действие которых проявляется внезапно, называют внезапными или случайными. Примерами внезапных отказов могут служить проколы шин автомобиля в пути, которые не зависят ни от степени изношенности шин, ни от технического состояния самого автомобиля. Нетрудно видеть, что подобные случайные отказы, имеющие характер мгновенных повреждений (неблагоприятное сочетание определяющих параметров при данной реализации случайной величины), не могут быть локализованы какими-то профилактическими мероприятиями, например, планово-предупредительной заменой режущих инструментов или шин автомобиля. Практика исследования и анализ внезапных отказов показывают, что плотность вероятности распределения отказов во времени будет описываться следующим выражением  [c.69]


Этот результат известен как центральная предельная теорема— одна из полезнейших теорем теории вероятностей. Многие из случайных величин обязаны своим существованием влиянию многочисленных независимых факторов. Следовательно, в соответствии с центральной предельной теоремой, функция плотности вероятности распределения таких случайных величин приближается к гауссовой. Если справедливо гауссово приближение, анализ многих физических задач существенно упрощается, поскольку свойства гауссовой функции хорошо изучены и имеются ее подробные таблицы.  [c.234]

Но здесь нам приходит на помощь аналитический аппарат теории вероятностей. В конце предыдущего параграфа мы видели, что 11 ° х) есть плотность закона распределения, которому подчиняется сумма п, т. е. в нашем случае весьма большого числа независимых между собой случайных величин. Для таких законов распределения теория вероятностей в лице своих предельных теорем дает простые, удобные и весьма точные приближенные аналитические выражения, и притом такие, общая форма которых почти не зависит от специальной природы тех законов, которым подчинены слагаемые роль этих законов сводится к тому, что они определяют собой значения небольшого числа параметров, входящих в полученные приближенные выражения. Мы получаем таким образом возможность, даже не имея детальных сведений о строении отдельных компонент системы С, а основываясь, главным образом, на чрезвычайно большом числе их, делать важные заключения, касающиеся этой системы, — явление, обычное для всех применений теории вероятностей, именно таким путем стремящейся раскрыть важнейшие черты массовых явлений.  [c.56]

Рассматриваемые величины (это также относится и к смещениям yj, б , исходному И вторичному дисбалансам) представляют собой сумму большого числа случайных, независимых компланарных векторов, причем фаза слагаемых распределена по закону равномерной плотности в интервале (0,2я). Поэто.му модули результирующих векторов, как это доказывается с помощью центральных предельных теорем теории вероятностей, подчиняются закону распределения Релея  [c.188]

Эргодический процесс является прежде всего стационарным случайным процессом. Стационарность предполагает независимость функций плотности распределения вероятностей от сдвига по времени. Вследствие этого для стационарных случайных процессов все моменты распределения также не зависят от начала отсчета времени. Стационарность является необходимым, но не достаточным условием эргодичности случайного процесса. Для того чтобы стационарный процесс был эргодическим, нужно, чтобы характеристики, полученные усреднением по одной реализации, не отличались от аналогичных характеристик, полученных усреднением по другим реализациям. Свойство эргодичности существенным образом облегчает анализ акустических сигналов. По-, скольку для них в этом случае средние статистические величины равны средним по времени, все функции плотности распределения вероятностей могут быть получены не по совокупности реализаций, а лишь по одной из них. Так, функция р(х), не зависящая от времени t в силу стационарности процесса, равна относительному времени пребывания сигнала п(О между уровнями а и ж -f Ад , а функция корре.чяции равна среднему по времени произведению  [c.14]

Для оценки вероятности разрушения по способу, предложенному Н. С. Стрелецким [12] и развитому А. Р. Ржаницы-ным [6], рассматривается вероятность сосуществования высоких значений нагрузки Q и низких значений несущей способности R, как независимых случайных величин, плотность распределения которых описывается функциями Ф (Q) и Ф (R). Плотность вероятности сосуществования значений нагрузки Q и несущей способности R в этом случае составляет  [c.137]

При большом количестве стандартных деталей и узлов, из которых формируется машина, каждую деталь или узел можно рассматривать как случайную величину, а машину в целом как сумму большого числа независимых случайных величин. Слагаемые этой суммы подчиняются самым разнообразным законам распределения. Но если выполняются именно эти условия, то в соответствии с формулировкой известной теоремы Ляпунова (при неограниченном увеллче-нии числа слагаемых случайных величин плотность вероятности суммы подчиняется нормальному закону распределения) следует ожидать, что габаритные пропорции гаммы станков могут быть близки друг к другу. А если вкусам коллектива конструкторов в действительности отвечает золотое сечение, то с большой долей вероятности можно ожидать проявления и закрепления в этих пропорциях золотого сечения.  [c.77]

Условная плотность распределения и независимость непрерывных случайных величин. Равенство (30.4) выражает вероятность сложного события (произведение двух событий — одновременное попадание случайного вектора X в полосы dxi и dj a (рис. 67)].  [c.210]

Прежде чем применять центральную предельную теорему, необходимо установить наличие сответствующих для этого предпосылок. Иногда трудно определить число независимых случайных величин, которое можно считать большим . Присутствие одной негауссовой величины с большой дисперсией по сравпению с остальными может явиться причиной существенного отличия формы функции плотности вероятное п от гауссовой. В некоторых случаях результирующая функция плотности вероятности может хорошо аппроксимироваться гауссовой в окрестности среднего зпачения и существенно отличаться на краях распреде-ле1Н1я. Важным вопросом для многих проблем является форма хвостов функции распределения. В этих случаях необходимо проявлять особую осторожность при использовании центральной предельной теоремы. Наконец, если одна или несколько величин в сумме имеют бесконечное значение среднего или дисперсии, то центральная предельная теорема неприменима.  [c.234]


Рис. 6.2 отражает график изменения величины энтропии двух возможных значений независимого параметра в зависимости от вероятностей появления обоих этих значений. Непосредственный перенос формулы (6.9) на случай бесконечно большого числа возможных значений параметра невозможен, так как при этом величина Hi стремится к бесконечности, поскольку неопределенность в этом случае и в самом деле неограниченно возрастает. Это же явление наблюдается при дискретизации какой-либо непрерывной функции плотности распределения вероятностей, когда непрерывное распределение приближенно заменяется дискретным, а для последнего по формуле (6.9) вычисляется энтропия, которая затем, путем последовательного измельчения интервалов дискретности, постоянно уточняется. При использовании непрерывного закона распределения с бесконечной областью значений случайной величины, например, нормального распределения в области (—оо, +оо) или распределения по экспоненциальному закону в области (О, оо), перед дискретизацией данная область огра-.иичивается путем отсечения на ее краях бесконечных интерва-.лов значений с очень малыми вероятностями реализации.  [c.62]

Ограничим рассмотрение иормалг,111.1м совместным распределением вероятностей величин х, уи. . Уп- Нормальное многомерное распределение наиболее реально для случаев, когда величины х, уи. . ., г/ являются режимными или выходными показателями технологического процесса и на них влияет множество независимых случайных возмущений. Для сокращения записи ряда формул обозначим х = го, г/1 = 21 уг = 22 . . Уп = гп и будем пользоваться этими новыми обозначениями как компонентами вектора г. Как известно, совместная плотность распределения величин 2о, в этом  [c.253]

Следовательно, если интересоваться длительностями временных интервалов Тщах (Я) между таким локальными максимумами, то по аналогии с выражением (4.8.23) можно заметить, что они являются в данном случае взаимно независимыми и одинаково распределенными случайными величинами с экспоненциальной плотностью вероятности  [c.279]

При гипотезе Hq предполагается, что г/о (О имеет гауссово распределение со средним значением, равным нулю. По определению функция и ее преобразование Гильберта — ортогональны, что в данном случае обеспечивает и их статистическую независимость. Функция Z — сумма квадратов независимых гауссовых случайных величин с нулевым средним значением и равными дисперсиями. Функция плотности вероятности представляет собой распределение с двумя степенямм свободы. В частности, для 2 0  [c.344]


Смотреть страницы где упоминается термин Плотность распределения вероятностей независимых случайных величин : [c.113]    [c.171]    [c.663]    [c.171]    [c.21]   
Механические свойства металлов Издание 3 (1974) -- [ c.0 ]



ПОИСК



0 независимые

А1.3. Случайные величины и распределения вероятностей

Величина распределения вероятностей

Величины Распределени

Величины Распределение

Величины случайные — Распределения

Вероятности плотность

Вероятности. Стр Вероятность

Вероятность

Вероятность. . ПО Распределения вероятностей

Независимость

Плотность вероятности (распределения)

Плотность вероятности случайной величин

Плотность распределения

Распределение (вероятностей)

Распределение плотности вероятност

Случайная величина

Случайная распределения

Случайность



© 2025 Mash-xxl.info Реклама на сайте