Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Покоординатные методы

Отдельную группу детерминированных методов поиска составляют покоординатные методы, в связи с тем что человек, работающий в диалоговой системе оптимизации, обычно выбирает пошаговый покоординатный принцип работы с поочередным варьированием переменных. Покоординатное изменение параметров сводит поиск к одномерному, и наибольшими возможностями в однопараметрическом поиске обладают известные итерационные приемы, такие, как методы дихотомии, метод золотого сечения, сходимость которых проверена на многих задачах.  [c.120]


Таким образом, каждый раз изменяется лишь одна компонента вектора Х ". Выбор этой компоненты может осуществляться произвольно, или же могут вводиться дополнительные условия, определяющие номер компоненты , изменяющейся на данном шаге итерации. Методы такого типа называются покоординатными методами (или, подробнее, покоординатной релаксации).  [c.304]

В покоординатных методах Я, обычно определяется следующим образом. Предположим, что Р (X) аналитична в окрестности точки X . Тогда справедливо разложение  [c.304]

Поскольку в покоординатных методах В задается формулой (17.22), то  [c.305]

Направление /-го шага в (17.22) и (17.30) в принципе произвольно. Образчик последовательных движений в покоординатном методе представлен на рис. 17.2.  [c.306]

При построении поисковых алгоритмов оптимизации следует учесть, что многообразие методов оптимального проектирования ЭМП требует их сравнительной оценки и выбора из них наиболее эффективных для решения конкретных задач. Однако достаточно полные критерии теоретической оценки методов пока не разработаны и поэтому оценка осуществляется обычно с помощью вычислительного эксперимента. Анализ работ по оптимальному проектированию ЭМП показывает, что все основные методы программирования получили практическую апробацию. Так, методы упорядоченного перебора использованы для проектирования асинхронных двигателей [42], методы случайного перебора — для проектирования асинхронных двигателей и синхронных генераторов [24], методы градиента, покоординатного поиска, динамического программирования— для проектирования синхронных машин [8], методы случайного направленного поиска —для проектирования асинхронных машин (22] и т. д.  [c.144]

Метод покоординатного поиска реализуется при заданной неизменной последовательности изменения переменных с фиксированными шагами движения по каждой переменной. Покоординатный поиск стремится к локальному оптимальному решению при отсутствии ограничений или наличии ограничений только на диапазоне  [c.147]

В частном случае релейных управлений для переменных задач справедливо условие (7.33), т. е. они имеют всегда два допустимых значения. Это обстоятельство требует модификации метода Монте-Карло для случайного перебора только тех точек допустимой области, которые принадлежат вершинам многомерного параллелепипеда. Адаптация метода покоординатного поиска осуществляется выбором величины шага 1Д1/1=2А, которая позволяет переходить из одной вершины параллелепипеда в дру-  [c.213]


В общем случае достаточно эффективным оказывается применение алгоритмов с комбинацией методов статистических испытаний (Монте-Карло) и покоординатного поиска. Для ограничений достаточно общего вида (7.22) путем введения соответствующих масштабов строится многомерный куб. В этом кубе путем статистических испытаний с определенной вероятностью находится аппроксимирующая управляющая функция, которая принимается за начальное приближение к глобальному оптимуму. Принимая полученное решение за начальное, методом покоординатного поиска находится ближайший локальный оптимум. Если начальное решение находится в сфере притяжения глобального оптимума, то полученное после покоординатного поиска решение можно считать окончательным. При наличии овражных ситуаций можно использовать специальные приемы, например поворот координатных осей.  [c.217]

Рис. 7.7. Кривые оптимальной стабилизации напряжения СГ ----алгоритмы по методу динамического программирования ----алгоритмы по методу покоординатного спуска Рис. 7.7. Кривые оптимальной <a href="/info/319905">стабилизации напряжения</a> СГ ----алгоритмы по <a href="/info/50803">методу динамического программирования</a> ----алгоритмы по методу покоординатного спуска
Множество методов направленного поиска для систематизации и краткого обзора отличительных свойств удобно разбить на три основные группы I) покоординатного поиска 2) локальной аппроксимации 3) случайных направлений.  [c.243]

Методы покоординатного поиска. Эти методы отличаются тем, что выбор величины Sd производится среди ограниченного множества возможных направлений координатных осей р-мерного пространства параметров оптимизации, т. е. на каждом шаге движение осуществляется в направлении, параллельном какой-либо координатной оси. Следовательно,  [c.243]

Изложенные методы покоординатного поиска в некоторых случаях обеспечивают отыскание относительного экстремума. Если он совпадает с абсолютным, то найденное решение является оптимальным решением задачи. Например, для Но, линии равного уровня которой представлены на рис. П.З, о, оптимальное решение в виде точки Zj находится за один цикл поиска. Если ориентация линий равного уровня относительно координатных осей изменяется (рис. П.З, б), то число циклов стремится к бесконечности и практически оптимальное решение можно найти лишь приближенно. С учетом конечных величин шагов, реализуемых на ЭВМ, процесс поиска может закончиться в достаточном удалении от оптимальной точки (случай ложного оптимума). Особенно большая вероят-  [c.243]

Несмотря на простоту реализации на ЭВМ и логику, отмеченные недостатки ограничивают применение методов покоординатного поиска в чистом виде. Для устранения недостатков предложены разные способы [74]. Наиболее общие среди них сводятся к повороту координатных осей и построению новых направлений поиска.  [c.244]

Методы случайных направлений. Эти методы позволяют выбрать направления поиска случайным образом с помощью программ выработки случайных чисел. Простейшие из них возникли при включении элементов случайности в детерминированные методы направленного поиска. Например, при покоординатном поиске последовательность варьируемых переменных может устанавливаться случайно. Или в градиентных методах вместо (П. 16) градиент можно определять по выражению  [c.246]

Прямые методы покоординатного поиска непригодны для решения задачи Д, за исключением частного случая, когда ограничения заданы в виде гиперплоскостей, ортогональных координатным осям (рис. П.6, г). Наоборот, прямые методы случайных направлений легко адаптируются к появлению ограничений на пути движения. Например, при выборе случайных направлений с помощью гиперсфер или направляющих косинусов достаточно дополнительно учесть линеаризацию поверхности ограничений (рис, П.6, d). При использовании многогранников для выбора случайных направлений вершины, принадлежащие недопустимой области, отбрасывают. Поэтому при решении задачи Д вместо симплексов применяют комплексы с числом вершин, значительна превышающим размерность-пространства поиска. Тогда, отбрасывая ряд вершин, удается сохранить многогранник достаточной размерности для определения направления движения. На основе направляющих конусов и комплексов построен ряд эффективных алгоритмов адаптируемого направленного поиска [80].  [c.251]


В данном случае осуществлялся поиск минимального активного объёма машины Р 1 в пространстве параметров дискретного (числа эффективных проводников в пазу) и непрерьшного (индукции в воздушном зазоре) при ограничениях синхронного переходного реактивного сопротивления дЛ < 03, тока в обмотке якоря /д <5,11 А и в обмотке возбуждения 7 < 1,9 А. При дискретном изменении шаг по этому параметру кщ =2. Как видно из рисунка, метод покоординатного поиска, хотя и требует больших затрат на поиск экстремума по сравнению с методом градиента, позволяет в данных условиях установить более достоверно местоположение экстремума, поскольку реально параметр может быть равен в данном случае только 22.  [c.162]

Рис. 5-27. Поиск экстремума методом градиента (///) и методом покоординатного поиска в пространстве смешанно-целочисленных (/) и непрерывных (//) переменных Рис. 5-27. <a href="/info/654556">Поиск экстремума методом</a> градиента (///) и методом покоординатного поиска в пространстве смешанно-целочисленных (/) и непрерывных (//) переменных
Следует отметить, что метод покоординатного спуска оказывается неработоспособным при овражном рельефе  [c.249]

Рис. 5.21, Поиск минимума методом покоординатного спуска Рис. 5.21, <a href="/info/306705">Поиск минимума</a> методом покоординатного спуска
Решение этой задачи методом покоординатного спуска может быть получено стандартным способом при использовании приведенной стоимости для каждого элемента по следующему правилу. Пусть с = ( f). Введем произвольный симплекс  [c.298]

Выше в п, 9.1 было отмечено, что в случаях долин, пересекающих поверхность функции 5 (со) под острым углом к осям координат, градиентный метод и метод покоординатного спуска могут привести к ошибочным решениям. В условиях рассматриваемой задачи диагональные долины иногда встречаются. Вполне надежным способом поиска min S (со), вообще и в частности, при диагональных долинах является способ условных минимумов. Этот способ изложен для двумерного случая в предыдущем параграфе, а для затрат S (ю), зависящих от трех и более факторов, в п. 9.4.  [c.183]

Прямые методы оценки н а пр а в л е н и й. Наиболее простым является метод покоординатного спуска (метод Гаусса —Зейдел я). Направление поиска выбирают поочередно вдоль всех координатных осей, т. е. вектор Р в (6.43) состоит из нулевых элементов за исключением одного, равного единице.  [c.284]

Модификацией алгоритма покоординатного спуска является метод ортогональных направлений (метод Розен-брока), который основан на вращении системы координат в соответствии с изменением скорости убывания критерия оптимальности. При этом направление одной оси соответствует наиболее вероятному направлению скорейшего убывания на данной итерации критерия оптимальности, а остальные находятся из условия ортогональности.  [c.284]

Рис. 6.4. Поиск экстремума квадратичной функции методом покоординатного спуска (а), методом параллельных касательных (б), методом нанскорейшего спуска (в) и методом сопряженных градиентов (г) Рис. 6.4. Поиск экстремума квадратичной функции <a href="/info/3433">методом покоординатного спуска</a> (а), <a href="/info/3428">методом параллельных касательных</a> (б), методом нанскорейшего спуска (в) и <a href="/info/483622">методом сопряженных</a> градиентов (г)
Для поиска локальных оптимумов используются однопарамвтрические методы оптимизации (метод покоординатного спуска в сочетанжи с методом золотого сечения), Функщюнально-технические огранячендя на систему пластин целесообразно учитывать методом штрафных функций fij. Тогда алгоритм оптимизации заключается в минимизации функции  [c.131]

При конструировании комбинированных алгоритмов поиска предпочтение следует отдавать комбинациям методов, которые не требуют специальных математических конструкций и экспериментальной настройки параметров и быстро осваиваются проектировщиками. В качество примера рассмотрим алгоритм, использующий последовательную комбинацию методов случайного перебора, покоординатного поиска и локального динамического програ.ммиро-вания. Этот алгоритм применяется для проектирования синхронных генераторов и бесконтакных сельсинов и обеспечивает высокую надежность функционирования [8].  [c.147]

Метод случайного перебора (случайных испытаний или Монте-Карло) применяется на начальной стадии поиска. Число случайных испытаний и диапазон изменения переменных при этом считается фиксированым. С помощью метода Монте-Карло решаются две основные задачи отыскание начальной точки, принадлежащей допустимой области поиска или отыскание в начальном приближении глобального оптимального решения. Уточнение этого решения достигается сужением диапазона изменения переменных вокруг найденного решения. Эту процедуру можно повторить неоднократно. Если при заданном числе испытаний не удает-ся найти ни одной точки в допустимой области, то это число постепенно увеличивается. Невозможность отыскания допусти.мой точки за приемлемое число испытаний указывает на очень узкий (щелевидный) характер допустимой области, что практически встречается очень редко. В этом случае необходимо отказаться от использования метода Монте-Карло вообще и перейти к следующему методу — покоординатного поиска.  [c.147]


Для решения подобных задач использованы алгоритмы с последовательной комбинацией методов Монте-Карло и покоординатного поиска [6]. Применение локального динамического программирования исключается из-за большого числа переменных. Применение метода Монте-Карло является обязательным даже в предположении унимодальности задачи, так как покоординатный поиск, несмотря  [c.212]

При наличии нескольких управляющих функций на каждом ин тервале At ищется п параметров оптимизации. Для метода Монте-Карло это означает, что при единичном испытании вырабатывается последовательность псевдослучайных чисел, преобразуемых в случайные наборы yp i, 1= 1,..., п. При покоординатном поиске можно поступать двояко. В одном случае процедура поиска сохраняется неизменной. Тогда вариация параметров оптимизации, например, в сторону возрастания производится в последовательности У , У]п, У2, yin,..., /ml,..., Утп- В другОМ СЛуЧЗе ПОИСК Уp ,.. , Урп на любом интервале At осуществляется методами многомерного поиска, например градиентным. Во всех случаях увеличение числа управляющих функций приводит к увеличению времени поиска.  [c.217]

Таким образом, методы покоординатного поиска могут иметь различную модификацию в зависимости от выбора последовательности координатных осей, способов преодоления оврагов ( гребней ) и т. п. Используя эти модификации, а также возможные вариации методов одномерной оптимизации, можно построить ряд эффе1 тивных алгоритмов направленного поиска, изложенных в [79, 80].  [c.244]

Вследствие конечности шагов поиска градиентные методы также, как и методы покоординатного поиска, могут привести к ложному оптимуму, особенно при наличии оврагов и гребней (рис. П.4, а). В этих случаях более работо-способнык и оказываются методы Ньютона, использующие квадратичную аппро-  [c.245]

Сравнительный анализ алгоритмов направленного поиска, предпринятый различными авторами [8], показывает, что наименьшее количество шагов в процессе поиска обеспечивают методы локальной аппроксимации (градиентный, ньютоновский и др.). Однако при расчетах на ЭВМ более важным показателем является машиносчетное время, которое при определенных условиях можно считать пропорциональным количеству вычислений целевой функции Но. Для методов, требующих определения производных, это количество возрастает с увеличением числа переменных. Поэтому при решении практических задач часто более эффективными оказываются методы покоординатного поиска и случайных направлений, которые по ЧИСЛУ шагов наименее эффективны в сравнении с детерминированными методами (по аналогии с упорядоченным и случайным перебо-  [c.248]

В многозтапных методах каждый щаг поиска осуществляется изменением одного или нескольких параметров из полного их числа и. К таковым относится группа методов покоординатного поиска, основанных на использовании одномерного поиска экстремума Q по каждому параметру х., и метод динамического программирования, в соответствии с которым функция цели разбивается на составляющие, которые последовательно оптимизируются на различных этапах расчета, чем и достигается решение задачи оптимизации в целом.  [c.152]

Методы покоординатного поиска. Типичными представителями группы многоэтапных методов поисковой оптимизации являются метод Гаусса—Зейделя и созданный на его основе метод Пауэлла [30]. В соответствии с методом Гаусса-Зейделя поиск на каждом этапе ведется по одному параметру при зафиксированных значениях всех остальных. Пример поиска по методу Гаусса-Зейделя в пространстве двух параметров показан на рис. 5.25. В примере сначала фиксируется значение параметра х, =х, ив этом сечении определяется значение параметрах , дающее лучшее значение Q. Затем фиксируется параметр Хг на уровне Х2 и находится значение первого параметра х", соответствующее лучшему значению Q в сечении Х2 =Х2 = onst. В дальнейшем действия по. поиску экстремума Q повторяются в той же последовательности.  [c.161]

Программная система позволяет применять для оптимизационных расчетов гиродвигателей методы сканирования, статистических испытаний, градиента, случайного поиска, покоординатного улучшения функции цели (Гаусса—Зейделя). При этом имеется возможность проводить расчеты ГД различных типов асинхронных с короткозамкнутым ротором, синхронных с магнитозлектрическим возбуждением, синхронных реактивных, бесконтактных двигателей постоянного тока, а также ГД различных конструктивных схем и исполнений, с различными алгоритмами управления, что достигается применением общих методов и алгоритмов анализа физических процессов, определяющих функциональные свойства проектируемых объектов, рациональным выбором входных данных.  [c.231]

Работа с моделью. В рассматриваемой задаче для на- хождения оптимального варианта конструкции теплообменника варьируют два параметра 1 и гакв Дв программе соответственно Ш и/02). В связи с этим говорят о двумерной задаче оптимизации. Простейшим методом решения таких многомерных задач является алгоритм покоординатного спуска. Его идея заключается в последовательном циклическом применении одномерного поиска для каждого варьируемого параметра. Проще всего проиллюстрировать метод покоординатного спуска с помощью распечатки, полученной на ЭВМ (рис. 5.21). Поиск был начат с начальной (базовой) точки 01 ==0,08 02=0,04. Сначала осуществлялся спуск вдоль координаты 02 при фиксированном значении 01 = 0,08, и в точке 02 = 0,06 было достигнуто наименьшее значение целевой функции 2=212. Затем спуск проводился вдоль координаты 01 при фиксированном значении 02 = 0,06.  [c.249]

В результате описанного процесса возникает последовательность точек Х = Xi, Х2,. . ., л , с каждым шагом приближающихся к точке максимума X. Поиск заканчивается, когда grad/[X]=0 (подробнее см. в работе [26]). Градиентный метод применим для одноэкстремальных дифференцируемых функций, но не всегда является самым выгодным. В частности, если одна из компонент градиента на протяжении всего поиска резко выделяется по абсолютной величине, то выгоднее так называемый метод сечений (покоординатный спуск). Этот метод состоит в том, что ищут экстремум функции / (х , Х2,. . xj при фиксированных значениях всех Xj-, кроме х( которому соответствует  [c.172]

Способ покоординатного спуска и модификация градиентного метода применительно к дискретным переменным обладают тем претмуществом, что при благоприятной форме поверхности 5 (со) они требуют меньше вычислений, чем способ условных минимумов. Благоприятной для способа покординатного спуска является поверхность S (а>) с долиной, параллельной осям координат, о чем уже говорилось применительно к двумерному случаю. Для модификации градиентного метода выгодны котлообразные поверхности (поверхности параболоида). Тот и другой  [c.183]

Минимизация крттерия прозодилась методом покоординатного спуска при Sh) = id , iUt =0,1, Ив = 5t Ои, й = 1 В.В качестве компонентов вектора варьируемых параметров л использовались высота электродов л , a,e[i lo О, i], м расстояние между электродами а , а е[0,5 /0 -О.0 " толщина электростатического экрана а,. йз [о. /0 2-/0 1м толцина стенок трубопровода,  [c.84]

Возможность существования особых точек (седловых, типа гребней и оврагов и т. д.), разрывности функционала и изменений переменных условных экстремумов на границах допустимых областей, многосвязности, многоэкстремальности функционала, ограничений типа неравенств, дискретность переменных и т. д. — все это приводит к практической непригодности аналитических методов оптимизации теплоэнергетических установок. Применение ЭВМ. и численных методов нелинейного программирования позволяет в основном преодолеть эти затруднения. При малом числе оптимизируемых переменных и при узких пределах их изменения отыскание глобального экстремума практически обеспечивает метод сплошного перебора на ЭВМ вариантов путем обхода в определенном порядке узлов многомерной сетки в пространстве независимых переменных и вычисление в каждой точке значений функций ограничений и функционала. При этом отбрасываются те точки, в которых ограничения не выполняются, а среди точек, для которых ограничения справедливы, выбирается точка с наименьшим (или наибольшим) значением функционала. При оптимизации по большому числу параметров применяются методы направленного поиска оптимума градиентные, наискорейшего спуска, покоординатного спуска (Л. 21].  [c.57]



Смотреть страницы где упоминается термин Покоординатные методы : [c.306]    [c.458]    [c.148]    [c.245]    [c.254]    [c.162]    [c.163]    [c.294]    [c.104]   
Смотреть главы в:

Конечные элементы в нелинейной механике сплошных сред  -> Покоординатные методы



ПОИСК



Метод покоординатного спуска

Метод циклического покоординатного спуска

Методы нелинейного математического покоординатного поиска

Покоординатного подъема метод



© 2025 Mash-xxl.info Реклама на сайте