Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Вектор градиента целевой функции

Для вычисления векторов градиента целевой функции и градиентов ограничений необходимо знать, как изменяется отклик конструкции в зависимости от вариаций параметров проектирования. В качестве отклика, например, может выступать прогиб балки в определенных сечениях, напряжения или деформации в различных точках конструкции, собственные частоты и т.п. В качестве параметров проектирования могут использоваться площади стержней, толщины оболочек, размеры поперечных сечений балок и т.д.  [c.482]


УС(х) —вектор градиента целевой функции  [c.10]

У С(х) — транспонированный вектор градиента целевой функции  [c.10]

Ввод графической информации 45 автоматический 45, 47 полуавтоматический 45, 46 ручной 45, 46 Вектор градиента целевой функции 153 Время послесвечения 66, 67  [c.215]

Если XV — точка максимума, то на основании (6.1) линейные члены в (6.2) равны нулю, откуда равны нулю составляющие вектора-градиента целевой функции  [c.153]

Значение Г [к] определяет очередной шаг и зависит в общем случае от вектора А, значений градиента целевой функции V В7 и от номера шага к, При выполнении  [c.308]

С помощью целевых функций и удается обеспечить выбор направления изменения вектора параметров независимым от величины шага по параметрам, т. е. градиент целевой функции (т) по параметрам в данном случае определяется косвенно с помош,ью изменения функции ограничения. Кроме того, данный алгоритм предполагает предварительную однопараметрическую оптимизацию.  [c.213]

Основным свойствам градиента целевой функции является то, что вектор градиента по направлению совпадает с направлением наискорейшего возрастания этой функции. Именно это свойство обусловило применение градиентных методов нри решении задач нелинейного программирования.  [c.26]

Все разновидности градиентных методов основываются на вычислении вектора-градиента от целевой функции у  [c.42]

Следующий метод, называемый методом проекции вектора-градиента, непосредственно применяется к задачам с ограничениями [51]. Пусть требуется максимизировать целевую функцию F W) при наличии ограничений типа  [c.158]

Метод проекции вектора-градиента является одним из наиболее эффективных методов решения задач нелинейного программирования. Этот метод позволяет двигаться к условному экстремуму вдоль границ области работоспособности по спрямленной траектории, не имеющей зигзагообразного характера, если, конечно, сама целевая функция не несет ярко выраженного гребневого характера. В противном случае сохраняются недостатки, присущие обычному градиентному методу.  [c.159]

При постановке задачи по способу 1 исходная целевая функция может и не быть гребневой. Однако при сведении задачи поиска условного экстремума этой функции к поиску безусловного экстремума штрафной функции последняя также становится функцией, имеющей гребни на своей гиперповерхности отклика. Конечно, в способе 1 возможно и применение метода проекции вектора градиента. Однако эффективность поиска при этом обеспечивается, если целевая функция не будет гребневой. В большинстве случаев это может быть достигнуто только за счет необъективного отражения целей расчета в постановке задачи.  [c.161]


Строка в матрице В, соответствующая принимаемой за целевую функцию Zft(W), обозначается через ВО. Другими словами, ВО — вектор нормированных частных производных Zh по Wi, или вектор градиента функции  [c.210]

Чтобы лучше понять идею градиентных методов, подробнее остановимся на свойствах градиентов. Рассмотрим систему независимых единичных векторов еь ег, ез,. . ., e,v, направленных вдоль осей координат Хи 2, Хз,. . ., являющихся в то же время проектными параметрами. Вектор градиента произвольной целевой функции F хи x , Хз,. . ., х ) имеет вид  [c.169]

Иногда характер целевой функции бывает достаточно хорошо известен, чтобы можно было вычислить компоненты вектора градиента путем непосредственного дифференцирования. Если таким способом частные производные получить не удается, то можно найти их приближенные значения в непосредственной окрестности рассматриваемой точки  [c.169]

Важной задачей в этом методе является выбор шага. Если размер шага слишком мал, то движение к оптимуму будет долгим из-за необходимости расчета целевой функции и ее частных производных в очень многих точках. Если же шаг будет выбран слишком большим, то в районе оптимума может возникнуть "рыскание", которое либо затухает слишком медленно, либо совсем не затухает. На практике сначала шаг выбирается произвольно. Если окажется, что направление градиента в точке существенно отличается от направления в точке и, то шаг уменьшают, если отличие векторов по направлению мало, то шаг увеличивают. Изменение направления градиента можно определять по углу поворота градиента рассчитываемого на каждом шаге по соответствующим выражениям.  [c.32]

Н - величина шага, п - размерность вектора и, Q- алгоритм вычисления целевой функции Q и), Ь -количество шагов по конкретному направлению градиента функции Q.  [c.32]

Здесь Vr(-) — градиент соответствующей вектор-строки по элементам вектора г. Решение краевой задачи (11.72), (11.73) проводится непосредственно за счет выбора функции V (11.71) и попадания системы в целевое множество G (11.68).  [c.353]

Как показал специальный анализ, рассмотренный алгоритм корректировки производных обеспечивает получение проекции вектора-градиента целевой функции на поверхность линейных ограничений по и Qb (при этом bl Hjhrij — компоненты вектора-градиента, дУ И/дгц — компоненты проекции вектора-градиента на поверхность ограничений по W и Qb)-  [c.48]

Метод градиента. При оптимизации процесса этим методом рабочее движение совершается в направлении быстрого возрастания выходного параметра, т. е. в направлении градиента целевой функции 1/(х). Причем направление движения корректируется после каждого рабочего шага, т. е. каждый раз заново вычисляется значение вектора grad /(х) по результатам специально спланированных пробных экспериментов.  [c.129]

В настоящей работе используется третий путь решения названной выше проблемы, т. е. в процессе оптимизации осуществляется постоянный учет ограничений [10, 12, 25—27]. В связи с этим остановимся подробнее на одном известном методе движения по границе области — методе Розена [И, 28]. Для его реализации необходимо, чтобы искомая точка, из которой начинается движение, оказалась некоторой граничной точкой области (что не всегда просто достигается на практике). Допустимым направлением движения, соответствующим наибольшей скорости убывания функции цели, является направление вектора, совпадающее с проекцией градиента целевой функции д31дХ 1) на соответствующую касательную плоскость, проведенную к одной из поверхностей ограничения/а (Х)(ае I,/"), либо 2) на пересечение гиперплоскостей, проведенных в этой точке ко всем поверхностям fp (X) = /р (р = 1, г), если среди направлений 1-го варианта не оказалось допустимых. Вычислительная схема метода для 2-го варианта довольно громоздка при этом решается система линейных алгебраических уравнений, которая может оказаться вырожденной в случае, если среди функций /р (X) (р = 1, г) найдутся несущественные. Кроме того, при движении из точки, находящейся на нелинейной поверхности ограничения, на шаг конечной длины в указанном направлении (1 или 2) следующая точка поиска может оказаться вне области Л. В этом случае возвратить точку на поверхность ограничения можно, применяя  [c.19]


Если мы вычислим градиенты целевой функции и двух активных ограничений в точке ж , которая лежит на пересечения двух ограничений (рис. 13.3а), то увидим, что все они указывают приблизительно в противоположных направлениях. Другими словами, через точку (х невозможно провести прямую так, чтобы векторы всех градиентов лежали по одну сторону от нее. Для этой ситуации условия Куна-Таккера формулируются следующим образом в точке оптимума векторная сумма градиентов целевой функции и всех активных ограничений должна быть равна нулю при подобранных определенным образом положительных множителях, которые называются множителями Лагранжа. Иг. рис. 13.4 показана данная векторная сумма для рассматриваемого примера. Здесь значения множителей Лагранжа, которые позволяют векторной сумме сойтись к нулю, > О и > 0. Следовательно, ж является точкой оптимума.  [c.481]

Наконец, в зависимости от того, используются при поиске производтахе целевой функции по управляемым параметрам или нет, различают методы нескольких порядков. Если производные не используются, то имеет место метод нулевого порядка, если используются первые или вторые производные, то соответственно метод первого или второго порядка. Методы первого порядка называют также градиентными, поскольку вектор первых производных FQi) по X есть градиент целевой функции  [c.158]

Г радиентные методы поиска оптимальных решений основаны на использовании математических моделей, аппроксимирующих функции цели, и на анализе их частных проиаводных. Г р а д и е н -том целевой функции в рассматриваемой точке называется вектор, который направлен по нормали к поверхности постоянного уровня и по алгебраической величине равен производной этой функции. Указанный вектор в каждой точке области определения функции цели направлен по нормали к поверхности постоянного уровня, проведенной через эту точку, и поэтому совпадает по направлению с наискорейшим уменьшением или возрастанием целевой функции. Поэтому движение к оптимуму по градиенту совершается по кратчайшему пути. В общем виде градиент целевой функции у = / (x , Хц, Х/,) есть вектор  [c.322]

Метод сопряженных градиентов. В градиентных методах для поиска экстремума использовались свойства ортогональности векторов. В методе сопряженных градиентов оптимум целевой функции ищется на ос-fiOBe свойств орготональности приращений вектора градиентов. Для этой цели наряду с градиентом используют матрицу Гессе Г критерия оптимальности. С помощью матрицы Г удается выбрать направление поиска, наиболее полно учитывающее особенности критерия оптимальности. Напомним, что векторы А и В называют сопряженными относительно симметричной и положительно определенной матрицы Г, если скалярное произведение векторов А и ГБ равно нулю, т. е. <А, ГВ > =0. Направление поиска Р +1 на й+1-м шаге определяется как  [c.287]

Физически вектор градиента указывает вверх по склону холма, то есть в направлении быстрейшего увеличения целевой функции. Если мы хотим минимизировать целевую функцию, мы до.ижны двигаться в направлении, противоположном  [c.480]

Специфической особенностью функции минимума является возможность дать такое определение гребня, из которого непосредственно вытекает алгоритм нахождения точек гребня. Эта возможность обусловлена тем обстоятельством, что гиперповерхность гребня функции 10 является гиперповерхностью пересечения гиперповерхностей конфликтных запасов работоспособности, один из которых принят за целевую функцию. Уравнение гиперповерхности гребня можно рассматривать как ограничение типа равенства в постановке экстремальной задачи. Тогда, применяя для поиска такой метод, как метод проекции вектора-градиента, удается удерживать траекторию поиска в достаточно малой окрестности гребня. Другими словами, движение к экстремуму в гребневой ситуации будет происходить в локально наилучшем направлении. Именно эта особенность функции минимума обусловливает преимущество максиминного критерия с позиций эффективности поиска.  [c.191]

Более вероятна вторая ситуация, возникающая при ЫАФМС. При этом меняется индекс запаса работоспособности, отождествляемого с целевой функцией. Другими словами, шаг в пространстве WFl приводит к пересечению траекторией поиска гиперповерхности некоторого гребня. Дальнейший поиск должен происходить в направлении проекции вектора-градиента на гиперповерхность гребня. Очевидно, что сначала нужно определить этот гребень, т. е. найти индексы jV4 и Nb запасов работоспособности, образовавших гребень.  [c.215]

ВИДЯ, он iMoжeт это сделать, если все время будет двигаться вверх. Хотя любая ведущая вверх тропа в конечном счете приведет его к вершине, кратчайшей из них будет самая крутая, если, правда, альпинист не натолкнется на вертикальный обрыв, который придется обходить. (Математическим эквивалентом обрыва на поверхности, образуемой целевой функцией, являются те ее места, где поставлены условные ограничения.) Предположим пока, что задача оптимизации не содержит ограничений. Позднее мы включим их в схему поиска. Метод оптимизации, в основу которого положена идея движения по самой крутой тропе, называется методом наискорейшего подъема или наискорейшего спуска. Вектор градиента перпендикулярен линии уровня и указывает направление к новой точке в пространстве проектирования. Отметим, что градиентный метод в отличие от метода касательной к линии уровня можно использовать применительно к любой унимодальной функции, а не только тех, у которых это свойство явно выражено.  [c.169]

Индекс к указывает на последовательность вычислений в процессе итераций. Новые направления называются сопряженными и соответствуют текущей локальной квадратичной аппроксимации функции. Затем по новому направлению проводят одномерный поиск и, найдя минимум, проверяют, достигнута ли требуемая степень сходимости. Если проверка показывает, что это так, то счет прекращается. В противном случае определяют новые сопряженные направления, к увеличивают на единицу и продолжают процесс до тех пор, пока не будет обеспечена сходимость или пока поиск не будет проведен по всем Л +1 направлениям. Закончив цикл поиска по Л +1 направлениям, начинают новый цикл, в котором опять используется направление наискорейшего спуска. Достоинство этого алгоритма состоит в том, что он позволяет использовать преимущества градиентных методов, проявляющиеся при исследовании целевой функции с разрывными производными. Так как N+1 направлений поиска второй совокупности отличаются от направлений единичных векторов градиента, то поиск не зависает на изломе , а идет вдоль линии, соединяющей точки изломов линии уровня, которая, как правило, проходит через точку оптимума. Вообще можно утверждать, что методы, основанные на определении новых направлений поиска на основе накопленных данных о локальном поведении функции, по самой своей природе более эффективны, чем методы, в которых направление поиска задается заранее. Именно поэтому метод Флетчера — Ривса обладает большими преимуществами по сравнению с методами наискорейшего спуска или подъема. Его недостаток состоит в том, что, будучи сложнее указанных методов, он требует разработки более сложных программ.  [c.173]


Необходимы частные производные целевой функции по независимым переменным. Поскольку в основе метода лежит доп>ще-ние об унимодальности целевой функции, в тех случаях, когда есть основания предполагать, что она не является таковой, следует брать несколько исходных точек. На рис. 7.7 представлена схема алгоритма метода Дэвидона — Флетчера — Пауэлла. Алгоритм выполняется следующим образом. Сначала в пространстве проектирования выбирают подходящую начальную точку. Затем, вычисляя составляющие вектора градиента  [c.176]


Смотреть страницы где упоминается термин Вектор градиента целевой функции : [c.481]    [c.162]    [c.211]    [c.195]    [c.198]    [c.108]    [c.153]    [c.123]   
Автоматизированное проектирование конструкций (1985) -- [ c.153 ]



ПОИСК



ATM целевая

Вектор функция

Градиент

Градиент вектора

Градиент функции

Функция целевая



© 2025 Mash-xxl.info Реклама на сайте