Теория и расчет оптико-электронных приборов - Якушенков Ю.Г.
ISBN 5-88439-035-1
Скачать (прямая ссылка):
В общем случае для распознавания сигнала (образа) можно использовать п признаков. Тогда этот сигнал можно представить точкой или вектором в n-мерном пространстве.
Критерий распознавания — правило, по которому определяется поверхность, разделяющая классы в л-мерном пространстве первичных признаков. Обычно распознаются объекты по признакам одной и той же физической природы, но вероятностное их распределение различно.
Распространенными критериями распознавания являются критерий максимальной плотности вероятности n-мерното распределения в данной точке пространства первичных признаков и критерий минимума среднего квадратического отклонения значения сигнала от эталона.
Рассмотрим простейший пример двумерного распределения, когда случайная точка на плоскости признаков Ell, Eu (см. рис. 11.32) относится к классу A1 или A2 по максимуму величины:
PtPAi{EXi-EX2),
где Pi — вес г-го класса (г =1, 2), назначаемый в произвольных безразмерных единицах; pAi(Exl, Ex2) — плотность вероятности г-го класса.
Если для какой-либо точки плоскости (ЕХ1, Ex2) соблюдается неравенство видаP1PaJExi, Ex2) >P2PaJExi, Ex2), то ее следует относить к классу^ в противном случае — к классу A2.
366Глава 11. Фильтрация сигналов в оптико-электронных приборах
Уравнение оптимальной решающей границы разделения классов A1 и A2 может быть получено при гауссовских кривых рА1 и Pa2 из условия
Pi PAI (eW-PM) = Рг РА2 (еХІ >Е\г) в виде уравнения второго порядка:
AExl + 2ВЕХ1ЕХ2 + CEl2 + 2DEX1 + 2ЕЕХ2 + F = O, где А, В, С, D, Е, F — постоянные коэффициенты, определяемые математическими ожиданиями, дисперсиями, коэффициентами корреляции, входящими в выражения для рА1 и Pa2, а также весами P1 и р2. Это выражение (дискриминантная функция) в общем виде описывает плоские кривые 2-го порядка: окружность, эллипс, гиперболу, а при A = B = C = O — прямую линию-
Дискриминантными (решающими, разделяющими) функциями называется множество функций х, т.е. gx(x), g2(x),..., gn(x), обладающее тем свойством, что ffi(x) имеет большее значение, чем все остальные функции g, в том случае, если X принадлежит к г-й области. Предположим, что имеется т классов и соответствующие им области решения. Для классификации любого сигнала Xk нужно вычислить значения S1(Xk), g2(xk),..., gm(xk). Сигнал Xk будет принадлежать тому классу, для которого функция g имеет наибольшее значение.
Решающие функции обычно вычисляют на основе информации, извлекаемой из набора сигналов с известной классификацией. Создание классификатора называется его обучением.
Если функции распределения вероятностей, связанные с тем или иным классом, известны, то для обучающего набора сигналов нужно оценить параметры этих распределений (математическое ожидание, дисперсия и др.), что снижает требования к емкости памяти ЭВМ, необходимой для обучения.
Для многомерных гауссозских распределений обычно применяют вектор математического ожидания и ковариационную матрицу для каждого класса сигналов (образов).
Если при распознавании используются п сигналов, например п значений яркости в п областях спектра, то для обучения необходимо иметь, как минимум, IOn (и даже более) обучающих сигналов (образов).
Оптимальный набор решающих функций g находят с помощью теории статистических решений. Так, в случае задачи об отнесении сигнала к той или иной области по максимуму правдоподобия ЭВМ вычисляет произведения функции плотности вероятности Psi(Xi) на
367Ю.Г. Якушенков. Теория и расчет оптико-электронных приборов
опорные вероятности класса i~p(sг), т. е. на вероятности наблюдения сигнала Sr Эти произведения и образуют набор решающих функций. Если считать функции распределения вероятностей гауссовскими, то решающие функции определяются как
-|(х-тх/Е72(х-тХ;) , где I Ej I — определитель ковариационной матрицы Ej:
Gill аі12 •
°І21 аі22 • •• °і2п
cInl Gin2 • ¦ ° inn
mxj — вектор математического ожидания; (x-mxj)r — транспонированный вектор (x-hixj); x — вектор данных (сигнал).
Более сложным является определение решающих функций в случае многомодального распределения случайных сигналов, что довольно часто встречается в практике работы ОЭП.
Обычно такой класс разбивается на несколько подклассов, для каждого из которых функция распределения вероятностей может быть принята гауссовской.
Критерий максимума функции распределения плотности вероятности сводится часто к максимуму функции правдоподобия в предположении, что имеет место гауссовский закон распределения случайных величин, описывающих распознаваемый сигнал и параметры всей системы (их «случайные части»).
Представим сигнал на выходе ОЭП или какого-либо его звена в виде вектора с компонентами у.
оо
У,= \х}(а)к}(а)<іа, (11.31)
о
где X {а) — j-я компонента входного сигнала, который часто принимается детерминированным; а) — коэффициент передачи (чувствительность) ОЭП, который часто также принимается детерминированной величиной; а — один из возможных аргументов (пространственная или угловая координата, длина волны излучения, время и т. д.).