Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Регрессия линейная

Хп-й Хп — выходной параметр, характеризующий качество готовой детали. Примем, что плотности вероятности распределения случайных величин Хо, Хи---, п-ь Хп нормальны их совместная плотность в любых сочетаниях также нормальна соответственно множественные и парные регрессии линейны.  [c.83]

Если двумерное распределение ( ь 2) является нормальным, то обе функции регрессии линейны  [c.265]

Во многих случаях можно считать, что регрессия линейна. В противном случае проводится следующая проверка. Отправной точкой рассуждений является выборка (х,, у,) (г = 1, 2,. .., п), в которой собраны те значения г/, которые относятся к одному и тому же значению л . Проверку можно провести лишь в том случае, когда в одной точке проводятся, по крайней мере, два измерения. Нужно составить т < л-групп количество значений у (г/,/) (г = 1, 2,. .., т / = 1, 2,. .., л,) в г-той группе будет равно п,, а их среднее значение г/,.  [c.26]


Если регрессия линейна, то средние значения г/, не должны быть слишком сильно разбросаны около прямой регрессии.  [c.26]

После проведения опытов, заданных матрицей планирования (табл. 21.2), вычисляют коэффициенты регрессии линейного полинома  [c.321]

На практике наиболее часто встречается случай линейной регрессии, уравнение которой записывается в виде  [c.300]

Коэффициент Ьо называют свободным членом уравнения регрессии коэффициенты Ь — линейными эффектами коэффициенты Ьц — квадратичными эффектами б ,- — эффектами парного взаимодействия. Коэффициенты уравнения (5.24) определяются методом наименьших квадратов с учетом среднеквадратичных погрешностей зависимой и независимой переменных. Для случая, когда независимые переменные определены точно, этот метод рассмотрен в 5.2. С более сложными случаями можно ознакомиться в специальной литературе, например [3, 6].  [c.108]

Для линейной регрессии от одного параметра  [c.108]

Полный факторный эксперимент содержит слишком большое число опытов (Л/=3, 3 =27 N=4, 3 = 81 N=5, 3"=243). Сократить число опытов можно, если воспользоваться так называемыми композиционными или последовательными планами, предложенными Боксом и Уилсоном. Ядро> таких планов составляет ПФЭ 2 при N<5 или дробная реплика от него при Согласно этим планам, если линейное уравнение регрессии оказалось неадекватным, необходимо добавить 2 N звездных точек, расположенных на координатных осях факторного пространства ( а, О,. .., 0), (0, а,..., 0),. ... .., (0, о,.... а), где а — расстояние от центра плана до звездной точки — звездное плечо, и увеличить число экспериментов в центре плана Ко- Такие планы называются центральными, ибо все опыты расположены симметрично вокруг основного уровня эксперимента, и композиционными, т. е. последовательно строящимися, а сокращено ЦКП.  [c.127]

Как правило, независимые переменные задаются с известной ошибкой, т. е. каждому значению л-, соответствует стандартное отклонение s,- и, следовательно, каждому значению yi — стандартное отклонение Нахождение взаимосвязи между у и х называется регрессионным анализом данных. Если эта взаимосвязь линейна, то с помощью измеренных значений строится прямая регрессии [14].  [c.19]

Изложенный метод запрограммирован программа на языке ФОРТРАН нахождения коэффициентов линейной регрессии методом наименьших квадратов приведена в Приложении 2.  [c.21]

Нахождение коэффициентов линейной регрессии методом наименьших квадратов  [c.204]

Поскольку результаты испытания во всем интервале напряжений могут быть описаны единой формулой, при определении долговечности для одного какого-то уровня напряжений можно не ограничиваться результатами испытаний образцов только на этом уровне, а учитывать результаты испытаний всех образцов во всем интервале напряжений. Это позволяет более экономно испытывать образцы и подвергать их совместной статистической обработке методом корреляционного анализа с составлением линейного корреляционного уравнения. Уравнение кривой усталости в координатах Ig iV — Ig а (линия регрессии) с помощью этого метода определяется так  [c.55]


Уравнение регрессии в программе решается методом наименьших квадратов, но этот метод достаточно просто реализуется только в том случае, если уравнение регрессии имеет линейную форму относительно оцениваемых параметров  [c.156]

Не следует путать линии регрессии с кривыми функциональной зависимости между сигналами. Прямые линии регрессии [(2.31) не означают, что между рассматриваемыми сигналами существует линейная функциональная связь. Линии регрессии определяют свойства функции плотности совместного распределения сигналов, связанные с их статистической завпсимостью, п показывают связь средних значений одного сигнала с фиксированным значением амплитуды второго сигнала, причем мгновенные значения амплитуды первого сигнала могут быть, конечно, различными.  [c.63]

Линии среднеквадратичной регрессии. К регрессионному анализу акустических сигналов можно подойти с другой точки зрения. На практике чаще всего встречаются не чисто прямые, квадратичные и т. п. линии регрессии, а близкие к ним. В таких случаях можно поставить задачу о нахождении нары прямых, квадратичных или других линий, которые наилучшим образом описывают реальные линии регрессии. В качестве критерия близости такой аппроксимации обычно используют средний квадрат отклонения. Получающиеся при этом кривые носят название линий среднеквадратичной регрессии. В качестве примера рассмотрим подробнее линейную среднеквадратичную регрессию.  [c.66]

Примечательна связь, которая существует между прямыми линиями среднеквадратичной регрессии (2.31) и так называемыми наилучшими линейными оценками сигналов. Задача о нахождении наилучшей линейной оценки сигнала %i t) сигналом 2 t) ставится следующим образом найти значения коэффициентов линейной аппроксимации (г) = ai + bib(Oi которые обращают в минимум средний квадрат отклонения [ i(f) —ai — bi 2(0] -Так же ставится и задача о нахождении наилучшей линейной оценки сигнала г(0 с помощью сигнала h t). Приравнивая нулю производные от среднеквадратичного отклонения и решая получающуюся при этом систему уравнений, можно убедиться, что значения коэффициентов оказываются в точности равными соответствующим значениям коэффициентов прямых среднеквадратичной регрессии = i u/ rf, а, = p,j — i(X2. То же имеет место и для коэффициентов наилучшей линейной оценки сигнала hit) с помощью h t).  [c.67]

Соответствие между прямыми среднеквадратичной регрессии (2.31) и наилучшими линейными оценками не случайно и является следствием статистической связи между сигналами прямолинейная среднеквадратичная регрессионная зависимость сигналов i(i) и h(t) существует только в том случае, когда в одном 8  [c.67]

На основе испытаний образцов для каждого уровня напряжений получены статистические облака реализации случайной функции Численное построение кривых ползучести, т. е. уравнений регрессии по имеющемуся статистическому материалу, проводилось по методу наименьших квадратов с параболической и линейной аппроксимацией для первого — нелинейного и вто-)ого — линейного участков кривых, расчет — на ЭЦВМ V1-222 с помощью программы, приведенной в работе [1].  [c.92]

Рассматриваемая модель является моделью второго порядка (но независимым переменным) и линейной по параметрам р. Вид модели (ее порядок) в значительной мере определяется величиной интервала изменения исследуемых факторов. Чем меньше значения интервалов, тем вероятнее применение линейного уравнения регрессии. Этот случай и рассматривается ниже.  [c.90]

Кроме того, применение метода ортогонализации юзволяет решать задачу построения математической лодели объекта поэтапно. На первом этапе строится /равнение регрессии, линейное относительно рассматриваемых факторов. Если такое линейное уравнение адекватно прогнозируемому объекту, то задачу по-атроения математической модели объекта можно считать решенной. Если уравнение регрессии неадекватно, го необходимо перейти к следующему этапу, на котором в уравнение регрессии включаются новые переменные типа х] и ХгХ/. Если коэффициенты регрессии при новых переменных оказываются незначимыми и переход к квадратичному уравнению незначительно уменьшает остаточную дисперсию, то это означает, что в уравнение регрессии не включен фактор, который оказывает существенное влияние на свойства объекта. Поэтому третий этап заключается в нахождении новых факторов, существенно влияющих на развитие прогнозируемого объекта, и включении их в уравнение регрессии.  [c.181]


Поставленную в п. а данного параграфа задачу нахождения параметров заданного уравнения регрессии линейного вида (1-232) путем минимизации средней квадратичной погрешности оценки искомой величины (1-237) можно решать также в процессе работы системы контроля на объекте с одновременным периодическим (после каждого опроса величин) уменьшением значений параметров уравнений (1-232) и использованием рассчитанного в каждом периоде работы системы значения у для заданных целей контроля объекта. Для этого могут использоваться рекуррентные алгоритмы восстановления функции, которые каждый период опроса используют в качестве исходной иинформации как текущие значения косвенных показателей, так и текущее значение искомой величины у. Последнее может поступать зашумленное значительной случайной помехой и приходит с запаздыванием, вызванным, например, необходимостью использовать для определения значения у ручные лабораторные методы анализа. Эти рекуррентные алгоритмы не накапливают исходную для расчета параметров информацию, а поэтому требуют небольшогд 178  [c.178]

Коэффициенты Ьа, Ь,, 2 и 6з найдем методом планирования эксперимента. Прологарифмировав (6.10), получим линейное уравнение регрессии, где в качестве факторов служат Xi = lnRes Хг=1пЯ и Хз=1п2. Запишем его в кодированных значениях факторов Xj (6.4), учтем также их возможное взаимное  [c.122]

Такой сокращенный план — половина ПФЭ 2 — носит название полуреплики от ПФЭ 2 . Пользуясь таким планированием, можно определить свободный член и три коэффициента уравнения регрессии при линейных членах.  [c.124]

В активном планируемом эксперименте все условия регрессионного анализа сохраняются, но организован он лучше, поскольку коэффициенты регрессии-некоррелированы (коэффициент корреляции характеризует статическую меру линейной связи между двумя случай-ными переменными).  [c.9]

Результаты эксперимента представлены С1 едующим линейным уравнением регрессии  [c.18]

Если все коэффициенты регрессии незначимы, можно считать, что рассматриваемый фактор не влияет на прогнозируемую характеристику объекта. В зависимости от того, какие коэффициенты регрессии значимы, а какие нет, можно говорить о форме связи между исследуемыми параметрами. Если значим только коэффициент регрессии % при Ф1 (х) = х — х, можно считать, что связь между факторами линейная, еслц 1бб  [c.166]

Рассмотрим линейную регрессию, которая описывается зави- и w тямп  [c.62]

На рис. 2.15 приведены линии регрессии двух вибрационных сигналов редуктора, для которых функции плотности совместного распределения изображены на рис. 2.10. При малых значениях нагружающего момента вибрационные сигналы в двух рассматриваемых точках практически независимы, так как линии регрессии параллельны осям координат. При увеличении Мн между сигналами появляется линейная связь, которая при дальнейшем увеличении нагрузки становится все более тесной. При больших нагружаюд] их моментах линии регрессии частично сливаются и становятся кривыми, что свидетельствует о наличии сильной нелинейной связи между сигналами, близкой к функциональной.  [c.64]

ИЗ Сигналов присутствует часть, прямо пропорциональная другому сигналу. Другими словами, прямые среднеквадратичной регрессии характеризуют степень линейной пропорциональной связи между рассматриваемыми сигналами. Количественно эта связь характеризуется наклонами прямых линий среднеквадратичной регрессии (2.31), проп-орциональпыми коэффициенту взаимной корреляции сигналов.  [c.68]

Выведем еще одно важное равенство для корреляционного отношения Till. С этой целью рассмотрим среднеквадратичное отклонение регрессии ]х,2 х ) от наилучшей линейной оценки (2.31) сигнала сигналом i(f)  [c.73]

Отыскание для данной частной оперативной характеристики плана Г v) наиболее близкой к ней оперативной характеристики плана А La (t ) можно выполнить различными способами, причем обоснование последних [включая вычисление линейной регрессии для выпрямленной характеристики Lf (и)] в большей или меньшей степени включает произвольные постулаты и носит интуитивный характер. Как увидим, это не суп1ественно для выводов, которые будут представлены ниже. Не вдаваясь в элементарные мотивировки и детальные пояснения, перейдем к изложению использованного способа, который можно назвать аппроксимацией через функцию нормального распределения по двум точкам. Этот способ по идее совпадает с выпрямлением кривых накопленных частостей на вероятностной бумаге , отличаясь от него большей объективностью и удобством (по крайней мере, при отсутствии хорошей вероятностной сетки).  [c.77]

Оценка параметров уравнения линии регрессии дала в нашем случае а = 4,87 Ь = - 6,22, X = 1,68. Уравнение эмпирической линии регрессии имеет вид / = 15,14 — 6,23 X, а соответствующее ему семейство усталостных кривых показано на рис. 13. Линейность кривой регрессии проверяли путем вычисления критерия Фишера, при этом дисперсия внутри системы S, =0,9999 и дисперсия вокруг эмпирической линии регресии S] = 0,4095. Дисперсионное отношение их f = 0,9999/0,4095 = 2,44  [c.37]

Можно предположить, что износостойкость наплавки при угле атаки абразивных частиц, близком к 90°, должна определяться способностью ее поверхностных участков противостоять внедрению абразивных частиц. Критерием такой способности может явиться твердость поверхностных участков наплавок. Поэтому представляет интерес выяснение зависимости относительной износостойкости е от макротвердости HV. Корреляционный анализ полученных данных позволил установить наличие зависимости е от HV имеет место линейная корреляционная связь между е и HV. Теоретическая линия регрессии выражается уравнением  [c.49]


Смотреть страницы где упоминается термин Регрессия линейная : [c.373]    [c.120]    [c.126]    [c.130]    [c.82]    [c.477]    [c.117]    [c.118]    [c.25]    [c.68]    [c.75]    [c.36]    [c.50]    [c.315]    [c.317]    [c.94]    [c.126]   
Справочник по надежности Том 3 (1970) -- [ c.201 ]



ПОИСК



Коэффициент линейной регрессии

Регрессия

Регрессия линейная множественная

Уравнение линейной регрессии



© 2025 Mash-xxl.info Реклама на сайте