Научная литература
booksshare.net -> Добавить материал -> Физика -> Якушенков Ю.Г. -> "Теория и расчет оптико-электронных приборов" -> 134

Теория и расчет оптико-электронных приборов - Якушенков Ю.Г.

Якушенков Ю.Г. Теория и расчет оптико-электронных приборов — М.: Логос, 1999. — 480 c.
ISBN 5-88439-035-1
Скачать (прямая ссылка): teoriyairaschetelektronnihpriborov1999.djvu
Предыдущая << 1 .. 128 129 130 131 132 133 < 134 > 135 136 137 138 139 140 .. 188 >> Следующая


В общем случае для распознавания сигнала (образа) можно использовать п признаков. Тогда этот сигнал можно представить точкой или вектором в n-мерном пространстве.

Критерий распознавания — правило, по которому определяется поверхность, разделяющая классы в л-мерном пространстве первичных признаков. Обычно распознаются объекты по признакам одной и той же физической природы, но вероятностное их распределение различно.

Распространенными критериями распознавания являются критерий максимальной плотности вероятности n-мерното распределения в данной точке пространства первичных признаков и критерий минимума среднего квадратического отклонения значения сигнала от эталона.

Рассмотрим простейший пример двумерного распределения, когда случайная точка на плоскости признаков Ell, Eu (см. рис. 11.32) относится к классу A1 или A2 по максимуму величины:

PtPAi{EXi-EX2),

где Pi — вес г-го класса (г =1, 2), назначаемый в произвольных безразмерных единицах; pAi(Exl, Ex2) — плотность вероятности г-го класса.

Если для какой-либо точки плоскости (ЕХ1, Ex2) соблюдается неравенство видаP1PaJExi, Ex2) >P2PaJExi, Ex2), то ее следует относить к классу^ в противном случае — к классу A2.

366 Глава 11. Фильтрация сигналов в оптико-электронных приборах

Уравнение оптимальной решающей границы разделения классов A1 и A2 может быть получено при гауссовских кривых рА1 и Pa2 из условия

Pi PAI (eW-PM) = Рг РА2 (еХІ >Е\г) в виде уравнения второго порядка:

AExl + 2ВЕХ1ЕХ2 + CEl2 + 2DEX1 + 2ЕЕХ2 + F = O, где А, В, С, D, Е, F — постоянные коэффициенты, определяемые математическими ожиданиями, дисперсиями, коэффициентами корреляции, входящими в выражения для рА1 и Pa2, а также весами P1 и р2. Это выражение (дискриминантная функция) в общем виде описывает плоские кривые 2-го порядка: окружность, эллипс, гиперболу, а при A = B = C = O — прямую линию-

Дискриминантными (решающими, разделяющими) функциями называется множество функций х, т.е. gx(x), g2(x),..., gn(x), обладающее тем свойством, что ffi(x) имеет большее значение, чем все остальные функции g, в том случае, если X принадлежит к г-й области. Предположим, что имеется т классов и соответствующие им области решения. Для классификации любого сигнала Xk нужно вычислить значения S1(Xk), g2(xk),..., gm(xk). Сигнал Xk будет принадлежать тому классу, для которого функция g имеет наибольшее значение.

Решающие функции обычно вычисляют на основе информации, извлекаемой из набора сигналов с известной классификацией. Создание классификатора называется его обучением.

Если функции распределения вероятностей, связанные с тем или иным классом, известны, то для обучающего набора сигналов нужно оценить параметры этих распределений (математическое ожидание, дисперсия и др.), что снижает требования к емкости памяти ЭВМ, необходимой для обучения.

Для многомерных гауссозских распределений обычно применяют вектор математического ожидания и ковариационную матрицу для каждого класса сигналов (образов).

Если при распознавании используются п сигналов, например п значений яркости в п областях спектра, то для обучения необходимо иметь, как минимум, IOn (и даже более) обучающих сигналов (образов).

Оптимальный набор решающих функций g находят с помощью теории статистических решений. Так, в случае задачи об отнесении сигнала к той или иной области по максимуму правдоподобия ЭВМ вычисляет произведения функции плотности вероятности Psi(Xi) на

367 Ю.Г. Якушенков. Теория и расчет оптико-электронных приборов

опорные вероятности класса i~p(sг), т. е. на вероятности наблюдения сигнала Sr Эти произведения и образуют набор решающих функций. Если считать функции распределения вероятностей гауссовскими, то решающие функции определяются как

-|(х-тх/Е72(х-тХ;) , где I Ej I — определитель ковариационной матрицы Ej:

Gill аі12 •
°І21 аі22 • •• °і2п
cInl Gin2 • ¦ ° inn

mxj — вектор математического ожидания; (x-mxj)r — транспонированный вектор (x-hixj); x — вектор данных (сигнал).

Более сложным является определение решающих функций в случае многомодального распределения случайных сигналов, что довольно часто встречается в практике работы ОЭП.

Обычно такой класс разбивается на несколько подклассов, для каждого из которых функция распределения вероятностей может быть принята гауссовской.

Критерий максимума функции распределения плотности вероятности сводится часто к максимуму функции правдоподобия в предположении, что имеет место гауссовский закон распределения случайных величин, описывающих распознаваемый сигнал и параметры всей системы (их «случайные части»).

Представим сигнал на выходе ОЭП или какого-либо его звена в виде вектора с компонентами у.

оо

У,= \х}(а)к}(а)<іа, (11.31)

о

где X {а) — j-я компонента входного сигнала, который часто принимается детерминированным; а) — коэффициент передачи (чувствительность) ОЭП, который часто также принимается детерминированной величиной; а — один из возможных аргументов (пространственная или угловая координата, длина волны излучения, время и т. д.).
Предыдущая << 1 .. 128 129 130 131 132 133 < 134 > 135 136 137 138 139 140 .. 188 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed