ПОИСК Статьи Чертежи Таблицы Оптимизация и акселеризация алгоритмов адаптации из "Адаптивные робототехнические комплексы " Одной ИЗ важнейших проблем при синтезе алгоритмов адаптации является их оптимизация. Применительно к дискретным алгоритмам адаптации это означает, что оператор адаптации А в (3.15) на каждом шаге алгоритма должен выбираться исходя из условия минимизации заданного функционала качества адаптации. [c.83] Значительный практический интерес представляют локальные функционалы вида (3.24) и интегральные функционалы вида (3.22) или (3.25). Функционал (3.24) характеризует расстояние от оценки Тй до неизвестного вектора параметров поэтому будем называть его идентификационным. [c.83] Весьма заманчиво синтезировать оператор адаптации из условия минимизации функционала качества (3.24). Однако до последнего времени считалось, что такой критерий оптимальности нельзя использовать для синтеза алгоритма адаптации, так как вектор I, входящий в (3.24), неизвестен и, следовательно, искомый оператор адаптации будет зависеть от неизвестных величин. В связи с этим казалось очевидным, что соответствующие оптимальные алгоритмы адаптации нереализуемы и поэтому не могут найти применения в адаптивных системах управления. Однако более глубокий анализ показывает, что высказанные соображения справедливы лишь отчасти и в ряде случаев не являются препятствием для синтеза и непосредственного использования оптимальных алгоритмов адаптации. Этот факт был установлен в работах [107, 109]. Там же предложен описываемый ниже метод синтеза локально оптимальных дискретных алгоритмов адаптации и установлены условия их реализуемости. Приведем здесь некоторые оптимальные алгоритмы, представляющие наибольший интерес для адаптивного программного управления РТК. [c.83] Совершенно аналогично определяются оптимальные параметры 7ft и в общем случае рекуррентных градиентных алгоритмов вида (3.41). Явные формулы этих алгоритмов и их свойства рассмотрены в работах [107, 109]. [c.84] Рассмотрим рекуррентный алгоритм адаптации (3.41), где Yd = 1, а параметр выбирается на каждом шаге из условия минимизации функционала (3.46), т. е. [c.84] Отметим, что описанный метод синтеза алгоритма адаптации аналогичен методу наискорейшего спуска в задачах оптимизации. [c.84] На практике быстрота сходимости описанных рекуррентных алгоритмов адаптации может оказаться недостаточной, поэтому возникает необходимость в акселеризации алгоритмов, направленной на сокращение общего времени адаптации. [c.84] Для эстиматорных неравенств вида (3.26) или (3.28) = . Это означает, что синтезированный оптимальный алгоритм обеспечивает точную идентификацию за один шаг, и, следовательно, время адаптации ц 0. Отметим, что этот алгоритм с оптимальным параметром (3.48) аналогичен методу Ньютона. [c.85] Преимущество акселерантного оптимального алгоритма адаптации (3.41), (3.48) перед другими рекуррентными алгоритмами заключается в высокой быстроте сходимости и точности адаптации. Однако трудность вычислений на одном шаге этого алгоритма определяется необходимостью обращения матрицы вторых производных ф (То, о) (при условии, что она не вырождена) и может оказаться чрезмерно высокой. В то же время локально оптимальные алгоритмы адаптации вида (3.41), (3.45) или (3.47), не требующие вычисления и обращения матрицы ф (т, t), существенно проще для вычисления. При этом они обеспечивают решение эстиматорных неравенств (4.1) через конечное число шагов. [c.85] Таким образом, вопрос о целесообразности применения аксе-лерантных или обычных рекуррентных алгоритмов адаптации тесно связан с проблемой эффективности всего процесса в целом, т. е. с общим объемом вычислений, затрачиваемых на адаптацию. В связи с этим возникает задача конструирования акселерантных алгоритмов адаптации, менее трудоемких, чем оптимальный алгоритм (3.41), (3.48), но обладающих существенно большей быстротой сходимости по сравнению с обычными рекуррентными алгоритмами вида (3.41), (3.44) или (3.45). [c.85] Вернуться к основной статье