Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Алгоритмы поиска оптимума

Подсистема расчетного проектирования реализована в проектных организациях первой и составляет основу первых очередей действующих САПР ЭМП. Это обусловлено тем, что формализация данного этапа проектирования ЭМП достигла высокого уровня еще до применения ЭВМ. Имеющиеся методики поверочного расчета ЭМП являются хорошей базой для алгоритмизации и программирования расчетов на ЭВМ. Кроме того, благодаря ЭВМ возможно применение новых методов моделирования расчетов и поиска оптимальных значений параметров ЭМП. В результате расчеты ЭМП имеют качественно новый уровень, отличающий процессы синтеза от процессов анализа. Поэтому в подсистему расчетного проектирования САПР ЭМП кроме наборов расчетных моделей ЭМП включаются также наборы алгоритмов поиска оптимума и наборы критериальных моделей, а сама подсистема обычно называется подсистемой оптимального проектирования ЭМП. Более подробно подсистема и процессы автоматизированного расчетного проектирования рассмотрены в гл. 5.  [c.45]


Выбор и реализация алгоритма поиска оптимума (в данном случае максимума) целевой функции предоставляется студенту.  [c.227]

Алгоритмы поиска локального оптимума X являются, как правило, итеративными, т. е. порождают последовательность векторов Х< ) =Хь Хг, Х, сходящуюся к вектору X.  [c.282]

Усовершенствование алгоритмов поиска ведется в направлении повышения их качества и эффективности. Под критерием качества обычно понимается точность, с которой обеспечивается нахождение оптимального решения, а критерий эффективности — машиносчетное время поиска в целом. Критерии точности и быстродействия, как правило, являются противоречивыми. Поэтому сравнительный анализ алгоритмов проводится по одному из них при заданном значении другого. Например, лучшим считается алгоритм, который при одинаковом времени поиска точнее находит оптимум или, наоборот, при одинаковой точности быстрее находит оптимум.  [c.145]

Дальнейшая детализация программных модулей и написание программ ведется в соответствии с алгоритмами, представленными схемами, структурными и операционными графиками. При этом необходимо учитывать характер взаимодействия программных модулей, точнее, кратность использования модулей в вычислительном процессе. Так, например, программные модули, входящие в ППП / — ППП 5 и ППП 8 на рис. 5.12, используются многократно соответственно количеству шагов поиска оптимума.  [c.151]

Ниже рассматривается задача оптимизации, в результате решения которой выбирается оптимальный способ управления операцией технологического процесса, а также способ математического обеспечения систем автоматического управления, реализующих алгоритм оптимального управления (структурная схема, коррекция настройки с целью поиска оптимума и т. д.).  [c.373]

Блок математического обеспечения БМО, анализируя текущую информацию о ходе операции технологического процесса, осуществляет коррекцию алгоритма оптимального управления для поиска оптимума (О = min). Таким образом расчеты, проделанные по описанному выше алгоритму, в общем случае дают надлежащее приближение закона оптимального управления, а блок математического обеспечения реализует итеративный процесс улучшения алгоритма. Предложенные САУ могут быть отнесены к классу самообучающихся адаптивных оптимизирующих систем.  [c.385]


Основная особенность оптимизации проектных решений заключается в том, что вни.мание конструктора, главным образом, должно быть сосредоточено на выборе метода синтеза возможных решений. И только после того, как множество возможных решений сформировано либо найден эффективный алгоритм формирования возможных решений, приступают к выбору метода поиска оптимального решения. По существу все методы оптимизации относятся к поиску оптимума на дискретном множестве возможных решений. В отдельных случаях, когда множество возможных решений представляется какой-либо структурой определенного класса, могут применяться известные методы оптимизации (например, методы оптимизации на сетях, комбинаторные методы). В остальных случаях единственной альтернативой методу глобального перебора служит тот или иной метод ограниченного перебора возможных вариантов проектных решений.  [c.592]

Поиск локального оптимума в общем виде представлен схемой на рис. 5.7,0. Блок формирования задачи включает алгоритмы формального описания задачи проектирования, а также алгоритмы преобразования исходной формулировки задачи с ограничениями к форме задач без ограничений.  [c.129]

В комбинированных алгоритмах направление поиска выбирается по-разному в зависимости от приближения к оптимуму. Вдали от оптимума целесообразны направления, обеспечивающие улучшение значений целевой функции. По мере приближения к оптимуму более предпочтительными становятся направления максимального улучшения. Вблизи оптимума наиболее эффективны направления в сторону вероятного расположения оптимума с учетом кривизны поверхности целевой функции.  [c.131]

С точки зрения конечной цели поиска первый подход более естествен и предпочтителен, так как не требует избыточной информации о локальных оптимумах. Однако известно, что методы поиска глобального оптимума (методы перебора и динамического программирования) имеют на практике ограниченное применение из-за большого машиносчетного времени. Поэтому при решении практических задач часто более эффективными оказываются алгоритмы, включающие в себя поиск локальных оптимумов. Обобщения по использованию методов локального поиска для решения задач глобальной оптимизации даны в [71].  [c.133]

Блок формирования задачи по своему содержанию аналогичен соответствующему блоку для алгоритмов локального поиска (рис. 5.7,а). Блок выбора начальных точек включает методы перебора (обычно метод Монте-Карло). Число перебираемых точек N фиксируется заранее. Выше указывалось, что с ростом М увеличивается вероятность отыскания глобального оптимума. Однако реализация соответствующего количества локальных поисков может оказаться очень трудоемкой даже для мощных современных ЭВМ. В таких случаях из N начальных точек производится отбор приемлемого числа точек, что требует включения в рассматриваемый блок также правил отбора.  [c.134]

Блок поиска локальных оптимумов на рис. 5.7,6 по существу включает в себя схему на рис. 5.7, а, за исключением первых двух блоков. Содержание этого блока составляют алгоритмы локального поиска совместно с правилами их смены и условиями окончания поиска. Локальный поиск повторяется столько раз, сколько отобрано начальных точек в предыдущем блоке. Для сокращения суммарного времени локальных поисков иногда применяется следующий прием. Результаты поисков из разных начальных точек сравниваются на промежуточных стадиях через равные отрезки времени. При этом поиски, которые за одинаковое время показывают существенно худшие результаты, прекращают, не дожидаясь окончательных результатов.  [c.134]

Если локальные поиски ведутся алгоритмами случайных направлений, то выбор начальных точек существенно упрощается и чередуется с процессами поиска. Сначала выбирается одна начальная точка в Di, из которой начинается поиск. После отыскания соответствующего локального оптимума организуется поисковое движение в случайных направлениях до попадания в подмножество Dzk, которое является областью притяжения нового локального оптимума. Найденная в этом подмножестве случайная точка рассматривается как новая начальная точка, из которой снова начинается локальный поиск, и так далее до тех пор, пока общее число начальных точек не станет равным N. Обычно локальный поиск совершается мелкими шагами, а перемещение в область притяжения нового оптимума — крупными.  [c.134]


Кроме алгоритмов направленного поиска в блок поиска локальных оптимумов можно включать также алгоритмы вероятностной аппроксимации целевой функции. Применяя идеи сглаживания и фильтрации путем усреднения результатов случайных испытаний, эти алгоритмы позволяют строить такие аппроксимирующие функции, которые унимодальны и имеют оптимум, совпадающий с глобальным оптимумом Hq [64]. Тогда поиск глобального оптимума Но сводится к поиску локального оптимума аппроксимирующей функции.  [c.135]

В блоке оценки глобальности оптимума (рис. 5.7,6) производится сравнительный анализ найденных ранее локальных оптимумов, выбор оптимального решения, подозреваемого на глобальность, и оценка его удовлетворительности. При неудовлетворительной оценке выбранного решения производится смена алгоритмов или параметров в блоках выбора начальных точек и поиска локальных оптимумов, что указано соответствующими обратными связями на рис. 5.7, б.  [c.135]

Критерии точности и быстродействия алгоритмов получили широкое признание, несмотря на отсутствие единого подхода к их количественной оценке, которая во многом зависит от конкретного содержания задачи проектирования и методов поиска. Например, при проектировании серий большое значение приобретает точность в отыскании параметров оптимизации, а при проектировании единичного изделия, наоборот — точность отыскания оптимума целевой функции. Для оценки быстродействия алгоритмов с простой логикой поиска нередко достаточно ограничиться суммарным числом вычислений функций цели и ограничений. Наоборот, для  [c.145]

В общем случае достаточно эффективным оказывается применение алгоритмов с комбинацией методов статистических испытаний (Монте-Карло) и покоординатного поиска. Для ограничений достаточно общего вида (7.22) путем введения соответствующих масштабов строится многомерный куб. В этом кубе путем статистических испытаний с определенной вероятностью находится аппроксимирующая управляющая функция, которая принимается за начальное приближение к глобальному оптимуму. Принимая полученное решение за начальное, методом покоординатного поиска находится ближайший локальный оптимум. Если начальное решение находится в сфере притяжения глобального оптимума, то полученное после покоординатного поиска решение можно считать окончательным. При наличии овражных ситуаций можно использовать специальные приемы, например поворот координатных осей.  [c.217]

Время поиска существенно уменьшается при стремлении к локальному оптимуму. В этом случае соотношение (П.43) принципиально сохраняет свою силу, однако значения N существенно уменьшаются и не являются постоянными. Количество расчетов Но на каждом этапе определяется принятым методом одномерной оптимизации и начальной точкой, с которой начинается поиск на данном этапе. Поэтому N изменяется при повторной оптимизации на данном этапе. На основе стратегии динамического программирования построены алгоритмы локальной оптимизации, обеспечивающие значительно меньшее время поиска по сравнению с глобальной оптимизацией [4, 8].  [c.255]

Если предварительная информация о поведении целевой функции отсутствует, т. е. неизвестно, имеется ли один оптимум или, возможно, несколько локальных оптимумов, дифференцируема ли эта функция и т. п., то можно прибегнуть к алгоритму общего одномерного поиска. Это далеко не самая быстрая процедура среди известных, но алгоритм очень прост по основной идее, легко реализуется при  [c.227]

Замечание. Очевидно, что эффективность использования данного алгоритма существенно зависит от выбора значения параметра е, который определяется целым рядом соображений. В качестве достаточно общей оценки е можно, по-видимому, рекомендовать апробированную при решении конкретных задач оценку е = 10б, где б — требуемая точность выполнения ограничений на величину др в точке оптимума (критерий останова программы поиска).  [c.262]

Вообще говоря, последние две группы методов оказываются более эффективными, чем прямые методы (т. е. оптимум достигается здесь за меньшее число шагов), если можно достаточно просто и точно (аналитически или численно) рассчитывать производные. Однако во многих технических задачах, в том числе и в нашем случае, сделать это весьма сложно. Поэтому методы, использующие производные, исключены из рассмотрения. Прямые методы, в свою очередь, делятся на два класса детерминированные методы и методы случайного поиска. Методы случайного поиска [160] отличаются от детерминированных тем, что оптимизируемые параметры в процессе поиска минимума функции качества определяются с элементом случайности. Эти методы эффективны при большом числе переменных и сложных целевых функций (например, при наличии локальных экстремумов). Численные эксперименты показали, что при минимизации функции трех переменных, аппроксимирующей функцию (7.40), с помощью алгоритма случайного поиска с самообучением требуется в среднем в 3—5 раз чаще вычислять целевую функцию в процессе поиска, чем при минимизации детерминированными методами.  [c.253]

Логическим развитием рассмотренной выше методики одномерного поиска было бы последовательное изменение каждого проектного параметра до тех пор, пока не будет достигнут максимум целевой функции. По завершении этой процедуры для всех переменных можно вернуться к первой и посмотреть, нельзя ли еще более усовершенствовать решение. Этот метод, называемый методом покоординатного подъема, не всегда позволяет найти оптимальное решение. На рис. 7.1, а показана двумерная целевая функция, подходящая для решения задачи этим методом. Ее особенность состоит в том, что линии уровня близки по форме к окружностям или эллипсам, оси которых параллельны осям координат. Если же эти оси наклонены к осям координат (рис. 7.1, б), то эффективность алгоритма снижается, так как для нахождения оптимума приходится вычислять гораздо больше значений целевой функции. Метод покоординатного подъема совершенно неприменим, если линии уровня имеют точки излома (рис. 7.1, в) Поскольку линии уровня такого типа весьма часто встречаются в инженерной практике, то прежде, чем воспользоваться указанным методом, следует убедиться, что решаемая задача не имеет подобного недостатка. Несмотря на это, метод покоординатного подъема часто используют на первой стадии решения задачи, применяя затем более сложные методы. К достоинствам метода покоординатного подъема следует отнести возможность использования простых алгоритмов одномерного поиска, таких, как метод золотого сечения.  [c.163]


В уравнениях зарядной системы (7.50) предполагаетсй, >йо частота вращения генератора постоянная, а параметры не зависят от насыщения (коэффициенты уравнений постоянны). Однако эти допущения непринципиальны и при необходимости их можно учесть без ущерба для алгоритмов поиска оптимума.  [c.221]

Из (3) найдем МДС подмагничивания е. Затем можно рассчитать цепь подмагни-чивания, найти токи I l, определить размеры обмоток и сердечника и вычислить значение критерия оптимальности. Этот алгоритм определяет критерий оптимальности как функцию X, а. Поиск оптимума следует проводить при ограничениях  [c.267]

Хотя метод золотого сечения и обладает высокой эффективностью, ясно, что он не является оптимальным при заданном числе вычислений целевой функции. Если конструктору заранее известно, что он сможег использовать лишь два значения целевой функции, то он, конечно, предпочтет метод дихотомии, который позволяет уменьшить интервал неопределенности сразу вдвое, а не в 1/0,618 раза, как метод золотого сечения. Если есть возможность в процессе поиска оптимума изменять расположение точек, в которых вычисляются значения целевой функции, то можно соединить преимущества симметричного расположения точек, о которых говорилось выше, с преимуществами метода дихотомии и построить оптимальный алгоритм поиска. Пусть 2 — длина интервала неопределенности после Ы-го шага. Условие симметрии имеет вид  [c.150]

Для поиска локальных оптимумов используются однопарамвтрические методы оптимизации (метод покоординатного спуска в сочетанжи с методом золотого сечения), Функщюнально-технические огранячендя на систему пластин целесообразно учитывать методом штрафных функций fij. Тогда алгоритм оптимизации заключается в минимизации функции  [c.131]

К алгоритмам оптимального проектирования ЭМП целесообразно предъявлять следующие общие требования 1) небольшая погрешность и большая вероятность получения глобального оптимума как для целевой функции, так и для параметров оптимизации, особенно при проектировании серий 2) невысокая чувствительность к функциональным свойствам задачи из-за сложности их изучения 3) малое количество шагов в процессе поиска, обеспечивающее удовлетворительное машиносчетное время при больших вычислительных объемах поверочных расчетов электромеханических преобразователей 4) малый объем вычислений, простота и наглядность, обеспечивающие быстрое усвоение и реализацию алгорит-  [c.144]

Эффективные алгоритмы оптимального проектирования ЭМП должны обеспечивать поиск не только в условиях хорошо организованных функциональных поверхностей (в случае непрерывных задач), но и при возникновении сложных (критических) ситуаций типа многоэкстремальности, овражности, нахождения оптимума на границе и т. п. Поэтому в алгоритмы следует включать различные методы поиска и приемы для преодоления критических ситуаций.  [c.145]

Например, на рис. 5.11, б поиск из точки Zq приводит в точку 0- Затем на некотором расстоянии от Zq, значительно превышающем шаг предыдущего процесса поиска, выбирается точка Z в направлении, перпендикулярном траектории предыдущего поиска в точке 2о. Из точки Zo совершается новый поиск, котррый приводит в точку l. Далее на прямой, соединяющей точки Со и j, в направлении улучшения целевой функции выбирается новая начальная точка Z2. Поиск из Zj приводит в С2. Если Hoi a) лучше о С ), то дальнейшее движение по оврагу совершается аналогичным образом. Если Но(Сз) хуже Hq ), то оптимум ищется между точками С) и Сг, т. е. выбирается Z2 ближе к С]. Если при достаточном приближении величина Но С ) все равно хуже, то оптимум следует искать между точками Со и С. Комбинированные алгоритмы многокритериального поиска, использующие последовательно сочетание методов случайного перебора и анализа мно-л<ества неулучшаемых решений, предложены в [70].  [c.149]

В связи с отсутствием в настояш ее время алгоритмов для решения такого рода дискретных задач в данной работе осуш ествляется направленный перебор, используюш ий основные идеи покоординатного релаксационного спуска с элементами произвольности (случайности) в процессе поиска [39]. Метод покоординатного спуска имеет многие преимуш ества по сравнению с методом сплошного перебора. Количественно перебор в том и другом случаях можно сопоставить как произведение и сумму возможных вариантов [36]. И хотя этот метод в некоторых случаях не приводит к получению абсолютного оптимума, его можно применить для решения самых общих задач оптимизации дискретно изменяющихся переменных. Методу покоординатного спуска, используемому для решения задач с непрерывными переменными, уделяется внимание в работах многих авторов, в том числе в [22, 40, 41]. Различные варианты этого метода иногда называют методами Гаусса — Зейделя, Саусвелла и т. д. [24]. Согласно этому методу спуск из очередной точки производится по направлению одной из координатных осей. Последовательность, в которой выбираются эти оси, может быть различной. Обычно они берутся в фиксированном циклическом порядке (чаще всего просто поочередно). Иногда выбирается та ось, для которой величина д<Мдх максимальна. Этот способ вряд ли целесообразен при большом числе переменных, так как в каждой точке выполняется большой объем вычислений для определения частных производных по всем переменным.  [c.25]

Универсальность алгоритма означает, что его можно легко применить для решения самых разнообразных задач. В этом отношении метод Фибоначчи, видимо, уступает другим, так как требует отдельного вычисления положения точек, в которых будут определяться значения целевой функции на каждом новом шаге. Этим приходится расплачиваться за повышение эффективности метода. С точки зрения универсальности малоэффективный метод общего поиска имеет по крайней мере одно преимущество — его можно с успехом применять и для неунимодальных функций, если они достаточно гладкие. Нередко заранее не известно, является ли рассматриваемая целевая функция унимодальной. В таких случаях следует воспользоваться несколькими разными алгоритмами и посмотреть, дают ли они все один и тот же оптимум. Отсюда следует важный вывод, который следует иметь в виду, решая задачи оптимизации не существует универсального алгоритма, который позволял бы решать любые задачи. Решая сложные задачи оптилшзации, следует пользоваться разными методами, так как это позволяет увеличить долю удачных решений.  [c.152]

Индекс к указывает на последовательность вычислений в процессе итераций. Новые направления называются сопряженными и соответствуют текущей локальной квадратичной аппроксимации функции. Затем по новому направлению проводят одномерный поиск и, найдя минимум, проверяют, достигнута ли требуемая степень сходимости. Если проверка показывает, что это так, то счет прекращается. В противном случае определяют новые сопряженные направления, к увеличивают на единицу и продолжают процесс до тех пор, пока не будет обеспечена сходимость или пока поиск не будет проведен по всем Л +1 направлениям. Закончив цикл поиска по Л +1 направлениям, начинают новый цикл, в котором опять используется направление наискорейшего спуска. Достоинство этого алгоритма состоит в том, что он позволяет использовать преимущества градиентных методов, проявляющиеся при исследовании целевой функции с разрывными производными. Так как N+1 направлений поиска второй совокупности отличаются от направлений единичных векторов градиента, то поиск не зависает на изломе , а идет вдоль линии, соединяющей точки изломов линии уровня, которая, как правило, проходит через точку оптимума. Вообще можно утверждать, что методы, основанные на определении новых направлений поиска на основе накопленных данных о локальном поведении функции, по самой своей природе более эффективны, чем методы, в которых направление поиска задается заранее. Именно поэтому метод Флетчера — Ривса обладает большими преимуществами по сравнению с методами наискорейшего спуска или подъема. Его недостаток состоит в том, что, будучи сложнее указанных методов, он требует разработки более сложных программ.  [c.173]



Смотреть страницы где упоминается термин Алгоритмы поиска оптимума : [c.5]    [c.98]    [c.261]    [c.171]    [c.129]    [c.133]    [c.216]    [c.165]    [c.220]   
Основы автоматизированного проектирования электромеханических преобразователей (1988) -- [ c.144 ]



ПОИСК



Алгоритм

Алгоритм поиска

ЛП-поиск



© 2025 Mash-xxl.info Реклама на сайте