Энциклопедия по машиностроению XXL

Оборудование, материаловедение, механика и ...

Статьи Чертежи Таблицы О сайте Реклама

Функция дискриминантная

Совокупность векторов х, координаты которых принимают значения, соответствующие определенному дефекту, образуют множество. Эти множества могут пересекаться, поэтому классификация — диагностика дефектов сводится к построению разделяющих поверхностей, отделяющих элементы одного множества от другого. Разделяющие поверхности можно определить скалярными функциями (дискриминантными) (х), (х),. . . , (х). . . Эти функции выбираются так, чтобы для всех х X, — множество X, характеризующее /-й дефект) выполнялось  [c.147]


Дискриминантные и разделяющие функции. Пусть в пространстве признаков (параметров) содержатся точки, принадлежащие п различным диагнозам (состояниям) Dj,  [c.47]

Дискриминантными функциями для этих диагнозов будем называть скалярные функции /, (дг) (г = 1, 2, п), удовлетворяющие условию  [c.47]

Таким образом, функция (х) принимает для точек диагноза D, наибольшие значения по сравнению со всеми другими дискриминантными функциями. Обозначение fi (х) в краткой форме указывает зависимость функции от всех координат пространства Xi, fi (д ) = Д Xj,. ....Хд ). Пример линейной дискриминантной функции для t-ro диагноза  [c.47]

Существенное практическое значение имеет разделение на два диагноза (состояния) D K D 2 (например, исправное и неисправное). Этот случай часто называется дихотомией или дифференциальной диагностикой. При распознавании двух состояний в качестве разделяющей функции можно принять разность соответствующих дискриминантных функций  [c.48]

В рассматриваемом случае [условия (7.8) 1 имеется разделяющий слой (рис. 12), толщина которого зависит от выбранных значений порогов. Отметим, что поверхности, разделяющие области диагнозов в пространстве признаков, могут быть различными, так как выбор дискриминантных функций не является однозначным.  [c.48]

Линейные разделяющие функции. Один из важнейших классов разделяющих функций связан с линейными дискриминантными функциями. Тогда разделяющая функция при распознавании двух классов  [c.48]

Если некоторые дискриминантные функции (х) обнаружили значения большие, чем f,-(л >,т. е./,(л /, (- (И-i)). k+i) 6 Di  [c.57]

Кусочно-линейные дискриминантные функции. Ранее рассматривались линейные дискриминантные функции (7.3)  [c.61]

Основы метода потенциальных функций и метода потенциалов. В качестве дискриминантных функций fi (л ) для диагноза Di в пространстве признаков в рассматриваемых методах выбираются функции, имеющие наибольшее значение для точек этой области и убывающие по мере удаления от нее. Подобным свойством обладает потенциал точечного заряда, что и дало название методам.  [c.67]

Применение метода потенциальных функций для распознавания нескольких диагнозов. Для распознавания п состояний системы (диагнозов Di, D 2, , DJ используется п дискриминантных функций fi (л ), причем  [c.71]

Укажем алгоритм построения дискриминантных функций с помощью показа образцов из обучающей последовательности. Алгоритм строится на основе потенциальной функции К (дг, у). Допустим, что в k-u приближении определены все функции fi (k) (-v) и показывается k + 1)-й образец, принадлежащий диагнозу D[. Если для лГ(А.+1) выполняется условие  [c.71]

В том случае, если одна или несколько дискриминантных функций не удовлетворяют условию (9.28), например  [c.71]

Метод потенциалов. В этом методе [6] для построения дискриминантных функций также используются потенциальные функции К х, у). Однако они получаются не в результате последовательной (рекуррентной) процедуры, как в методе потенциальных функций, а строятся на основе имеющейся предварительной информации. Алгоритм построения является не самообучающимся, как в методе потенциальных функций, а заранее выбранным, детерминированным. Однако простота метода делает его привлекательным для практических приложений.  [c.72]


По физическому смыслу f,- (х) представляет собой потенциал в точке X от источника (заряда) в точке х . Все дискриминантные функции положительны, так как потенциальные функции удовлетворяют условию К х, у) > 0. Очевидно, К Xi, Х ) > К (Х/, Х[) (t, / = 1,2,. . ., п i ф /), так как К х, у) — убывающая функция расстояния.  [c.73]

Другой метод образования дискриминантных функций состоит в использовании среднего значения потенциальной функции  [c.73]

Алгоритм распознавания является обычным при использовании дискриминантных функций. Предъявленный для распознавания объект  [c.73]

Метрические методы и методы дискриминантных функций.  [c.94]

В гл. 4 рассматривались методы, основанные на использовании дискриминантных функций fi (лс). Принималось решение  [c.94]

Таким образом, дискриминантная функция fi (х) имеет значения большие, чем остальные функции, для всех точек х, входящих в область диагноза  [c.94]

Метрические методы определения минимального расстояния дают очевидную возможность следующего выбора дискриминантных функций  [c.94]

Однако выражения (13.2) для дискриминантных функций не единственные. Можно выбрать  [c.94]

Дискриминантная функция в соответствии с равенством (13.4)  [c.95]

Так как величина лг одинакова для всех дискриминантных функций, то можно принять в окончательном виде  [c.95]

Рассмотрим теперь связь метода минимального расстояния до множества и метода дискриминантных функций. Если точка — одна из точек, входящих в область диагноза то дискриминантная функция, соответствующая минимальному расстоянию до этой точки,  [c.96]

В качестве дискриминантной функции для диагноза следует выбрать  [c.96]

Процесс принятия решения базируется на сравнении значений дискриминантных функций.  [c.720]

Процесс принятия решения базируется на построении границ областей, разделяющих рассматриваемые М классов-состояний. Границы областей определяются дискриминантными функциями Si (А), gt (А), gn (А), которые являются скалярными и однозначными функциями А.  [c.720]

Рассмотрим основные методы построения дискриминантных функций.  [c.720]

Дискриминантная функция gi (А) определяется в результате минимизации расстояния Di (А) = [(А — А ) (А — А )] и может быть представлена следующим образом  [c.720]

Примечание. Для случая, когда характеризуется множеством опорных векторов Aos], дискриминантная функция определяется соотношением  [c.720]

Рассмотрим случай, когда Р A R ) — многомерные нормальные функции плотности распределения. В качестве дискриминантной функции используют функцию [17]  [c.722]

Эта дискриминантная функция аналогична по структуре рассмотренной ранее функции (13.3), реализующей распознавание по критерию минимума расстояния. В этом случае роль опорных векторов выполняют векторы средних значений А, соответствующие классам  [c.722]

Процесс обнаружения событий в пространстве X состоит из определения всех координат вектора x(t) выделения по ним признаков событий и их сопоставления наборам признаков, характеризующих каждое событие. Два события отличаются друг от друга, по крайней мере одним признаком. Выделение признака производится по знаку некоторой функции f(xi,. . ., Хц,. . ., х ), а именно, если f(x) 0, то признак имеется, иначе — отсутствует. Формально признак можно отождествить с некоторой предикатной функцией P F(x) 0], принимающей два значения — истинно или ложно. Функция f(x) является математическим описанием признака. Часто эта функция называется дискриминантной. Условие Г (х)=0 геометрически означает границу области, в которой признак имеет место. Эта область может соответствовать событию, если событие определяется лишь одним признаком. Поскольку только знак F(x) определяет признак, то функции, отличающиеся между собой значениями, но имеющие одни и те же знаки в смысле описания признака, эквивалентны. Если подмножество Qj, соответствующее /-му событию, состоит из одной замкнутой области, ограниченной границами / i(x)=0,. ... .Fi(x) =0,. .., i l(x) =0, то назовем такое /-е событие простым. Его обнаружение может производиться путем  [c.217]

Определение уравнений границ (дискриминантных функций) между отдельными событиями (подмножествами) в пространстве наблюдений У.  [c.219]

Разделение при налцчии нескольких диагнозов (состояний). В этом случае разделение на п диагнозов осуществляется с помощью линейных дискриминантных функций  [c.57]

T. e. функцию /, (j ), имеющую наибольшее значение по сравнению с остальными функциями. Равенство (13.15) приводит к кусочнолинейным дискриминантным функциям.  [c.96]

Глава 4. Линейные методы разделения, линейные дискриминантные и разделяющие функции рассмотрены в работах Нильсона [38], А. Г. Аркадьева и Э. М. Бравермана [6], Э. Г. Егисапетова [26].  [c.233]

Распознавание с помощью функции правдоподобия. При необходимости учитывать статистические свойства векторов А, определяющих множество (класс необходимо использовать статистические методы распознавания [40]. Каждому классу соответствует априорная вероятность его появления Р . Вероятность принадлелсности вектора А к классу обозначается как Р R JA). Если при распознавании-диагностике принимается решение, что вектор А Rf,, в то время как на самом деле А то имеют место потери. В условиях минимизации математического ожидания полных потерь имеем байесовский классификатор. Синтез байесовского классификатора на основе дискриминантных функций требует знания априорных вероятностей и плотностей распределения для каждого класса R — Р (A/i j). Если априорной информации нет, то для диагностики можно использовать минимальный критерий или критерий Неймана — Пирсона [17, 147]. Объединяет эти методы то, что все они основаны на отношении правдоподобия. Отличаются они друг от друга различными пороговыми значениями. Наибольшее распространение на практике получил критерий Байеса, так как в большинстве задач диагностики удается задать априорные вероятности и потери.  [c.721]


Это выражение представляет множество линейных дискриминантных функций. Если /С 1 (1 — единичная матрица), т. е. координаты вектора статистически независимы, а также Р, = =Л1М11 1, 2,. .., Л , то  [c.722]


Смотреть страницы где упоминается термин Функция дискриминантная : [c.210]    [c.210]    [c.61]    [c.61]    [c.67]    [c.71]    [c.73]    [c.94]    [c.272]    [c.720]    [c.726]   
Биометрия (1990) -- [ c.315 , c.317 ]



ПОИСК





© 2025 Mash-xxl.info Реклама на сайте