Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Метод спуска

Для иллюстрации рассмотрим использование метода спуска при расчете оптимального теплообменного аппарата типа труба в трубе .  [c.207]

Если это не так, то метод спуска применяется не ко всей области определения функции, а в подобластях, в каждой из которых минимальное значение функции должно быть одно.  [c.207]

Метод спуска применяется следующим образом. В рассматриваемой области выбирается один набор параметров (Хц, Уо, Zq), одна точка, лежащая, по предположению, наиболее близко к оптимальным значениям параметров. Вычислив значение функции П в этой точке, находим такую новую точку (х , у , z ), чтобы П (Xj, г/j, z ) было меньше, чем П (Хо, Уо, Zo).  [c.207]


Методы спуска. Большинство итерационных методов, применяемых для решения задачи безусловной минимизации, относятся к классу методов спуска, т.е. таких методов, для которых каждая итерация (шаг) приводит к уменьшению значения  [c.141]

P ") = -V/( .W), где — матрица Гессе (5.35). Метод спуска  [c.142]

Под методом сопряженных направлений для минимизации квадратичной функции (5.4) понимают метод спуска (5.36), в котором направления  [c.142]

Указанный метод называется методом спуска и широко применяется в различных областях математической физики.  [c.632]

Для получения формулы, определяющей фундаментальное решение, соответствующее двумерному случаю, воспользуемся приемом, который называется методом спуска. Он заключается в следующем из решения задачи для п независимых переменных можно получить как Частный случай решения для п — 1 или меньшего числа переменных.  [c.110]

Для дальнейшего будет удобно пользоваться геометрической терминологией. Для этого введем в рассмотрение (п+1)-мерное пространство с координатами Ф, Х1, Х2, Хп , в котором условие (168) или аналогичное ему изображает некоторую гиперповерхность 5. Можно говорить, что задача состоит в том, чтобы определить координаты наинизшей точки на поверхности 5, для чего обычно используются методы спуска.  [c.98]

Некоторые специальные итерационные схемы определения минимума функций Р (X) = (X) Г (X) вида (17.5) 01 носят к и1 то-дам спуска, если Р (X ) Р (Х "), то мы как бы спускаемся от значения функции в нулевом приближении Хо к значению в минимизирующей точке X, где Р (Х ) = 0. К наиболее важным методам спуска относятся так называемые градиентные методы, в которых при выборе направления движения к минимуму используется градиент функции Р (X). Итерационные методы поиска, напротив, не связаны с вычислением градиентов. Эти методы построены по такому принципу среди ряда приближений ищутся минимизирующие Р (X), затем вместо этих приближений образуются новые, так что Ьа каждом этапе поиска используются только те приближения, которые в совокупности дают более близкое к минимуму значение.  [c.297]

МЕТОДЫ СПУСКА И ГРАДИЕНТНОЙ МИНИМИЗАЦИИ  [c.303]

Итак, для построения конкретного метода спуска мы имеем две задачи выбор направления Ах и спуск по направлению — выбор р . Главное отличие метода определяется выбором направления спуска. Для оптимизации оптических систем применяются преимущественно детерминированные методы. Стохастические или случайные методы, рассмотренные в работе [25], несмотря на свою простоту, не получили распространения из-за низкой сходимости. В следующих параграфах мы рассмотрим основные методы безусловной оптимизации, а затем коснемся задачи контроля ограничений.  [c.216]


Скорость сходимости методов спуска может быть выражена порядком сходимости, показывающим уменьшение оценочной функции от шага к шагу.  [c.216]

Рис. 5.13. Траектории различных методов, спуска Рис. 5.13. Траектории различных методов, спуска
Методы по нахождению направления спуска к оптимуму и вычислению шага Дх подробно изложены в литературе.  [c.18]

Наиболее применяемым в настоящее время из методов минимизации является метод наискорейшего спуска. В большой степени широкому распространению метода способствуют его сравнительная простота и возможность применения для минимизации весьма широкого класса функций. При определении направления поиска выбирают наибыстрейшее убывание целевой функции F(X), т. е.  [c.286]

Описанные варианты реализации градиентного метода отличаются друг от друга способом выбора длины шага. Скорость сходимости этих методов примерно одинакова, а трудоемкость каждой итерации вариантов процесса (6.42) различна только в способах определения параметра а. Как правило, вычисления градиента в меньшем числе точек требует метод наискорейшего спуска.  [c.286]

Если критерий оптимальности представлен квадратичной функцией, то минимум функции достигается ровно за п шагов (рис. 6.4, г). В случае критерия оптимальности произвольного вида метод позволяет для заданной погрешности получить приближенное решение быстрее, чем это позволяют сделать методы наискорейшего спуска и параллельных касательных.  [c.287]

Рис. 7.7. Кривые оптимальной стабилизации напряжения СГ ----алгоритмы по методу динамического программирования ----алгоритмы по методу покоординатного спуска Рис. 7.7. Кривые оптимальной <a href="/info/319905">стабилизации напряжения</a> СГ ----алгоритмы по <a href="/info/50803">методу динамического программирования</a> ----алгоритмы по <a href="/info/756815">методу покоординатного</a> спуска
К группе градиентных методов относятся также методы наискорейшего спуска, сопряженных направлений, а также метод сопряженного градиента [30].  [c.157]

Для определения a и Р можно воспользоваться методом наискорейшего спуска или другими численными методами определения экстремумов функций многих переменных. Результаты численного определения a и p в зависимости от размерной скорости потока представлены в виде графиков на рис. 9.4,а—г.  [c.268]

Для отыскания оценок t их используется один из методов спуска 2-го порядка, например метод Ньютона—Рафсона или метод Девидона (метод переменной метрики), которые при наименьшем числе шагов приводят к точкам, достаточно близким к точкам минимума. Следует отметить, что при реализации методов минимизации на III этапе целесообразно использовать априорную информацию о границах возможных изменений параметров состояния, т. е. применять оптимизацию с ограничениями.  [c.135]

В связи с отсутствием в настояш ее время алгоритмов для решения такого рода дискретных задач в данной работе осуш ествляется направленный перебор, используюш ий основные идеи покоординатного релаксационного спуска с элементами произвольности (случайности) в процессе поиска [39]. Метод покоординатного спуска имеет многие преимуш ества по сравнению с методом сплошного перебора. Количественно перебор в том и другом случаях можно сопоставить как произведение и сумму возможных вариантов [36]. И хотя этот метод в некоторых случаях не приводит к получению абсолютного оптимума, его можно применить для решения самых общих задач оптимизации дискретно изменяющихся переменных. Методу покоординатного спуска, используемому для решения задач с непрерывными переменными, уделяется внимание в работах многих авторов, в том числе в [22, 40, 41]. Различные варианты этого метода иногда называют методами Гаусса — Зейделя, Саусвелла и т. д. [24]. Согласно этому методу спуск из очередной точки производится по направлению одной из координатных осей. Последовательность, в которой выбираются эти оси, может быть различной. Обычно они берутся в фиксированном циклическом порядке (чаще всего просто поочередно). Иногда выбирается та ось, для которой величина д<Мдх максимальна. Этот способ вряд ли целесообразен при большом числе переменных, так как в каждой точке выполняется большой объем вычислений для определения частных производных по всем переменным.  [c.25]


Системы вариационно-разностных уравнений хорошо приспособлены для решения итерационными методами. Это становится очевидным, если учесть, что большинство итерационных методов можно трактовать как различные методы спуска из выпуклого программирования (см., например, [5.14]). При этом становятся ясными вопросы их сходимости. Важное достоинство итерационных методов в том, что они являются самоисправляющимися, т. е. не только не накапливают, но и исправляют ошибки округления.  [c.180]

Наибольшие затраты времени вызывает выполнение пункта 2. Если поиск ближайшей для точки Pj производить путем перебора всех предыдугцих (далее — метод I), то всего потребуется порядка N операций. Число операций можно уменьшить, если использовать метод спуска (метод П —Green, Sibson 1978), а  [c.117]

На рис. 4 приведена зависимость 1р = времени (в сек) построения сетки Дирихле на одну точку от количества точек N (расчеты проводились на ЕС-1052). Это время получено осреднением по 10 последовательным га агам. Номера кривых 1-4 соответствуют номерам методов построения индуктивные методы с поиском ближайгаей путем перебора (I), метода спуска (II), перенумерации (III) и алгоритм, основанный на локальных перестройках (IV). Временной гааг т выбирался из условия ВР 25%. Величина ВЗ здесь составляла 2-3%, а Р —до 5%. Были также проведены расчеты с существенно больгапм гаагом т, когда ВЗ и Р достигали, соответственно, 50% и 52%, а ВР — более 100%. Нри этом использовался метод V. Кривые 5, 6 относятся к значениям ВЗ 20% и 50% соответственно.  [c.121]

Без учета ограничений ищется оптимум любым методом спуска до тех пор пока некоторые неравенства не будут нарушены. Как только произойдет нарушение одного или нескольких ограничений снуск прекращается и осуществляется возврат в допустимую область изменения переменных щ по направлению антиградиентов к тем гиперповерхностям, ограпичепия которых оказались парушеппыми.  [c.36]

Следующий этап работ по моделированию поля геологического параметра состоит в определении автокорреляционной функции. Обычным путем подсчитать АКФ по экспериментальным данным не всегда удается, так как для этого требуется достаточно длинная реализация поля моделируемого геологического параметра по 1 , причем точки измерений параметра должны быть размещены на одинаковых расстояниях. Метод МАКФ предусматривает выбор подходящей АКФ из некоторого заданного набора функций. Выбор осуществляют методом спуска по наименьшей средней квадратичной погрешности восстановления геологического параметра. Выбранная аппроксимирующая АКФ отвечает статистической структуре некоторой модели поля, которое наилучшим образом приближается к точкам экспериментальной основы. Для подбора модельной АКФ задается класс функций. С. П. Сидоркина предлагает формулу, представляющую собой суперпозицию функций, ап-  [c.223]

Метод спуска, применяемый для подбора автокорреляционной функции, требует задания ее параметров с, а и р. Начальное приближение задается в зависимости от типа автокорреляционной функции. При использовании эмпирической АКФ параметры аир подбирают по номограмме. Начальное приближение при моделировании неоднородного поля выбирают, пользуясь способом, предложенным С. П. Сидоркиной. Он предусматривает наложение графика случайной функции Я = Ц) на график с теоретическими линиями 226  [c.226]

Используя в качестве отправной точки (17.10), рассмотрим некоторые итерационные методы минимизации функции Р (X) = = (X) i (X). Эти методы отличаются выбором К и Гчасть из них относится к методам спуска Р (Х О Р (Х ], а в других используются градиенты (или сопряженные градиенты) функции Р (X). Поскольку в большинстве этих методов фигурируют некоторые аппроксимации градиента g, их обычно называют градиентными методами.  [c.303]

Метод переменных матриц. Метод переменных матриц, предложенный Давидоном [1959] и обобщенный Флетчером и Пауэллом [1963], является мощным итерационным методом спуска, позволяющим находить локальные минимумы нелинейных функций нескольких переменный. Метод основан на обычном предположении, что члены второго и более низких порядков в разложении Тэйлора преобладают над всеми другими членами в окрестности локального минимума. Напомним, что для квадратичной функции п переменных вида (17.32) точкой минимума является X = —Н %. В методе переменных матриц, однако, обратная матрица Н" не вычисляется непосредственно. Вместо этого вводится аппроксимирующая ее матрица 6, в качестве которой перво-  [c.310]

Различные градиентные методы отличаются способом отыскания вектора кю. Наиболее простыми градиентными методами решения минимаксных задач являются методы спуска [13], обобщенного градиентного спуска [23] и их аналоги [12]. Однако эти методы обеспечивают медленную сходимость, а в некоторых случаях они не обеспечивают сходимости. Ниже описан метод е-наиско-рейшего спуска [13] и его модификация, при которой экономится машинное время за счет уменьшения времени определения направления е-наискорейшего спуска.  [c.208]

Прямые методы оценки н а пр а в л е н и й. Наиболее простым является метод покоординатного спуска (метод Гаусса —Зейдел я). Направление поиска выбирают поочередно вдоль всех координатных осей, т. е. вектор Р в (6.43) состоит из нулевых элементов за исключением одного, равного единице.  [c.284]

Модификацией алгоритма покоординатного спуска является метод ортогональных направлений (метод Розен-брока), который основан на вращении системы координат в соответствии с изменением скорости убывания критерия оптимальности. При этом направление одной оси соответствует наиболее вероятному направлению скорейшего убывания на данной итерации критерия оптимальности, а остальные находятся из условия ортогональности.  [c.284]

Рис. 6.4. Поиск экстремума квадратичной функции методом покоординатного спуска (а), методом параллельных касательных (б), методом нанскорейшего спуска (в) и методом сопряженных градиентов (г) Рис. 6.4. Поиск экстремума квадратичной функции <a href="/info/3433">методом покоординатного спуска</a> (а), <a href="/info/3428">методом параллельных касательных</a> (б), методом нанскорейшего спуска (в) и <a href="/info/483622">методом сопряженных</a> градиентов (г)

Работа метода заключается в следующем. После определения градиента критерия оптимальности в точке X движутся вдоль направления антиградиента до точки, в которой достигается минимальное значение функции. Затем в этой точке снова определяют градиент и движутся по прямой согласно направлению нового антиградиента и т. д., пока не достигнут точки, имеющей наименьшее значение функции F(X). На рис. 6.4, в приведен пример движения при поиске методом наискорейшего спуска оптимума для критерия оптимальности, зависящего от двух переменных. Направление grad F(X, i) является касательным к поверхности уровня в точке Х, и, следовательно, gradF(Xft) в точке Х +1 ортогонален grad F(X,4 i).  [c.286]

Для поиска локальных оптимумов используются однопарамвтрические методы оптимизации (метод покоординатного спуска в сочетанжи с методом золотого сечения), Функщюнально-технические огранячендя на систему пластин целесообразно учитывать методом штрафных функций fij. Тогда алгоритм оптимизации заключается в минимизации функции  [c.131]


Смотреть страницы где упоминается термин Метод спуска : [c.93]    [c.207]    [c.215]    [c.141]    [c.180]    [c.59]    [c.97]    [c.152]    [c.128]    [c.148]    [c.245]    [c.9]    [c.118]   
Теплоэнергетика и теплотехника Общие вопросы Книга1 (2000) -- [ c.141 , c.142 ]



ПОИСК





© 2025 Mash-xxl.info Реклама на сайте