Научная литература
booksshare.net -> Добавить материал -> Биология -> Леонов Ю.П. -> "Теория статистических решений и психофизика" -> 11

Теория статистических решений и психофизика - Леонов Ю.П.

Леонов Ю.П. Теория статистических решений и психофизика — М.: Наука, 1977. — 223 c.
Скачать (прямая ссылка): teoriyastatisticheskih1977.djvu
Предыдущая << 1 .. 5 6 7 8 9 10 < 11 > 12 13 14 15 16 17 .. 95 >> Следующая

Выбрав значение Я0 для классификации, будем использовать решающее правило (3.7)
К (х, у) ^ Я0.
При такой классификации будут совершаться случайные ошибки. Ошибки появляются из-за того, что области определения условных плотностей вероятностей / (х, уРц) и / (х, y/h2) могут частично налагаться друг на друга. С другой стороны, правило ^ разделяет область значений х, у на две непересекающиеся
области — Гд и Г2. Область 1\ в плоскости (х, у) определяется условием % < Х0, область Г2 — условием к Х0.
Таким образом, если X > Х0, то имеется некоторая вероятность того, что предмет будет отнесен к классу hx.
Вероятность ошибки второго рода равна
Р = р (Hi/hz) = / (х> y/h*)dx dy-
г,
Вероятность ошибки первого рода равна
а = Р (Нг/Нг) = $ / {ос, у/кг) dx dy.
г2
Если области определения плотностей вероятностей / (х, yjhх) и f (х, y/h2) не накладываются друг на друга, то всегда можно так разделить плоскость (х, у) на области Гх и Г2, чтобы а = р = 0.
Если признаки х, у могут принимать лишь дискретные значения (хг, yi)(x2, уг) . . . (хп, уп), то можно составить таблицу значений признаков.
Сравнение отношения правдоподобия с порогом разбивает множество значений на два класса. Если появляется пара признаков, попадающая в отведенные квадраты, то предмет относится к первому классу. В противном случае он относится ко второму классу. В этом случае 1\ и Г2 являются конечными множествами признаков, (х, у).
1 Например, х и у могут быть соответственно продольным и поперечным размерэдщ предметов.
§ 3. Другие критерии
Следует заметить, что различные оптимальные критерии являются частными случаями бейесова правила и получаются из него соответствующим выбором цен. При этом решающее правило
(3.7) оказывается универсальным.
Рассмотрим некоторые критерии оптимальности.
Критерий Неймана — Пирсона. Критерий требует, чтобы при заданной величине а вероятности ошибки первого рода и величина ошибки второго рода были минимальны. Это требование можно записать в виде
Р = min при а = а0. (3.11)
Критерий Неймана—Пирсона обычно используется, когда ошибка первого рода обходится значительно дороже ошибки второго рода и необходимо гарантировать заданный уровень а.
Если р является монотонной функцией а, то оптимальности как таковой нет. Просто, чем меньше а0, тем больше (3, и наоборот. Для того чтобы понять, что критерий (3.11) приводит к решающему правилу типа (3.7), достаточно заметить, что условный минимум р достигается, если имеет минимум величина у = р + + Ya> гДе множитель у определяется из условия а = а0. Положив в (3.6) сп — с22 = 0, <72С|з = 1, д1с„ = у, мы убеждаемся,
что критерий Неймана—Пирсона является частным случаем бейе-совского критерия и, следовательно, минимум величины у достигается, когда используется решающее правило (3.7).
Критерий «идеальный наблюдатель». Критерий требует минимума величины
Р = + ?гР>
где ql = р (h,)\ q2 = р (h2)\ q1 + q2 = 1; qlt q2 — априорные вероятности состояний hu h2.
Критерий «идеальный наблюдатель» предписывает минимизировать полную вероятность ошибки. Действительно, так как а = р р = р (HJh2) есть условные вероятности, то
Р = Р (hi)P (Нг/К) + Р (К)Р (Нг/Н2) = р (#„ кг) + р (tfj, Л2),
т. е. равна полной вероятности ошибки.
Для того чтобы заметить, что этот критерий также приводит к решающему правилу (3.7), достаточно положить в (3.6) сп = = с22 = 0, с21 = cI2 = 1. Тогда бейесовский критерий, использую-
щий решающее правило (3.7), переходит в критерий «идеального наблюдателя».
Следовательно, минимум величины р также достигается, когда используется решающее правило (3.7). Правило отношения правдоподобия распространяется на сложные и многоальтернативные гипотезы Эти вопросы рассматриваются в Приложении III.
В заключение полезно рассмотреть информационную интерпретацию решающего правила (3.7). Для монотонных к (х) и к0 сравнение к с к0 эквивалентно сравнению ср (х) с ср (Я0), где (•) —любая монотонная функция при к > 0. В частности, можно положить ср = In (•). Тогда условие (3.7) примет вид:
если In / {x/h2) — In / (x/hi) < In k0, то принимается H^,
если In / (x/h2) — In / (x/hi) > In k0, то принимается H2.
Согласно основному положению теории информации величина In f (x/hf) определяет неопределенность, связанную с гипотезой ht. Следовательно, правило (3.7) предписывает выбирать ту гипотезу, неопределенность которой меньше.
Пример 3.3.
Пусть имеется выборка, состоящая из к независимых нормальных величин. Причем известно, что распределение этих величин может быть двух типов: либо N (0, о), либо N (т2, а). Априорная вероятность появления величин с т — 0 равна д0,
и априорная вероятность появления величин с т Ф 0 равна qY.
Задача состоит в том, чтобы по выборке из к величин xlt х2, . .
. . ., xh решить, из какого распределения сделана выборка.
Другая интерпретация задачи состоит в том, что нужно проверить гипотезу о наличии (т^=0)или отсутствии (т=0) сигнала по наблюдениям сигнала в шуме. Для принятия оптимального решения используем бейесовскую стратегию. Рассмотрим вначале случай одного наблюдения х.
Предыдущая << 1 .. 5 6 7 8 9 10 < 11 > 12 13 14 15 16 17 .. 95 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed