Научная литература
booksshare.net -> Добавить материал -> Биология -> Андреев В.Л. -> "Классификационные построения в экологии и систематике" -> 41

Классификационные построения в экологии и систематике - Андреев В.Л.

Андреев В.Л. Классификационные построения в экологии и систематике — М.: Наука, 1980. — 142 c.
Скачать (прямая ссылка): klassifikacionniepostroeniyavekologii1980.pdf
Предыдущая << 1 .. 35 36 37 38 39 40 < 41 > 42 43 44 45 46 47 .. 58 >> Следующая

W"1 = —2785,38 41628,20 —1682,98 .
567,28 —1682,98 6101,70
Тепер
ь найдем вектор]
0,253-0,269 -0,014
8 = 0,078---0,077 --- 0,001
0,247---0,215 0,032
• Коэффициенты дискриминантной функции:
“1 = -0,014-3811,66 + 0,001 (-2785,38) + 0,032-567,28 = = - 35,49,
а, = - 0,014 (-2785,38) + 0,001-41628,20 +
+ 0,032 (-1682,98) = - 10,70, ш3 = — 0,014 • 567,28 + 0,001 (-1682,98) +
+ 0,032-6101,70= 187,14.
8. Наконец, расстояние Махаланобиса равно
- 0,014 (-35,49)+ 0,001-(- 10,70) +
+ 0,032-187,14 = 6,49.
Величина — неименованная п не зависит от единиц измерения признаков, но зависит от их числа.
Достоверность морфологических расхождений окуней из двух сравниваемых выборок определим на основе (7.14):
“ "ЭЛИТ ' 6/|9 “ 55,63,
F= 20 - 15 -3 -1 55,63 17 42<
3
При степенях свободы 3 и 31 критическое (табличное) значение /9Б (3; 31) — 4,5. Расчетное значение выше табличного, значит, различия между выборками статистически достоверны.
Поскольку число измерений Nx + N2 = 35 мало, то применение асимптотически распределенных критериев нецелесообразно. Вместо этого можно использовать критерий (7.16), который имеет точное дисперсионное отношение:
Ali2 = (l-uii|lj-1 = 0,37,
= 18,16,
ai,2 p
что для 3 и 32 степеней свободы существенно выше критического.
Глава 8 ДИСКРИМИНАНТНЫЙ АНАЛИЗ
В дискриминантном анализе должен быть задан алфавит классов Ж, указаны признаки S, в пространстве которых эти классы следует отличать друг от друга, и необходимо найти такое решающее правило, которое позволяет с наименьшей ошибкой относить новые объекты к одному из заданных классов.
Для примера можно использовать задачу, поставленную в цитированной ранее работе [28]. Алфавит состоит из двух классов:
jj карликовые особи и Я, — молодь кунджи, и требуется любую вновь встретившуюся особь на основе учета морфологических признаков с наименьшей вероятностью ошибки отнести к одному из классов.
Допустим, что из всех рыб малого размера карлики в природных условиях встречаются в 9 раз реже, чем некарлики. Тогда любую взятую для распознавания особь на основе только этой информации мы должны считать карликом с вероятностью Р (Я^ =0,1 и молодью — с вероятностью Р (Я2) = 0,9. Эти априорные вероятности отражают исходные знания о том, с какой степенью уверенности можно предсказать карликовую или неполовозрелую особь до их действительного появления. Если решение необходимо принять на основе столь малой информации, то разумно воспользоваться решающим правилом: ' принять Ях, если Р (Ях) > > Р (Я2), и принять Я2 в противном случае. В таких условиях никакое другое правило не дает меньшей вероятности ошибки.
Разумеется, в практической деятельности мы редко ограничиваемся столь малой информацией и для ее увеличения используем какие-либо определяющпе прпзнакп. Рассмотрим некоторые случаи, в которых учитывается либо один, либо сразу несколько признаков, j
8.1. Одномерные распределения
Чтобы увеличить эффективность распознавания, кроме априорной вероятности классов, необходимо задать условные плотности распределения признака. В самом деле, пусть р (х | Я,) — плотность распределения величины х при условии, что она принадлежит первому классу. В этом случае р (х | Ях) и р (х | Я,) отражают различия в распределении признака у карликов и молоди. Произведя измерения и получив значение х, можно определить апостериорную вероятность Р (Я* | х) по правилу Байеса:
р (х IН,.) Р (Н,.)
Р (Я, х) = -а--—------—-----• (8.1)
Если Р (Ях | х) > Р (Я2 | х), то нужно выбрать Н1, а если Р (Нг | х) < Р (Я2 | х), то принять решение Я,. Вероятность ошибки при этом
П/ .4 I Р(*МХ)> если выбрать Hv
0Ш1 { P(Hi\x), если выбрать Я».
Для каждого нового значения х можно минимизировать ошибку, все время выбирая Hlt если Р (Нх | х), > Р (Я., | х) и Я2, если Р (Ях I х) < Р (Я2 | х).
Пользуясь правилом Байеса, можно заменить апостериорные вероятности априорными условными плотностями, в результате
чего получаем эквивалентное правило: принять решение Нц если р (х | Нг) Р (Ях) > р (х | Я2) Р (Я2) или
„ I гг т> * и и
(8.3)
p(x\Htf Р(Н.у
р(х\Н2) ^ Р(ЯХ) •
Величина р (х | Нг) показывает, насколько правдоподобно при данном х наличие Я^-. Поэтому отношение
р (х I HJ/p (X ] Я.). (8.4)
называется отношением правдоподобия.
Действие решающего правила состоит в том, чтобы разбить пространство признаков на области решения и Qs, которые разделяются границей. Рассмотрим несколько случаев построения таких границ для нормального распределения.
Случай 1 : а(1> = 0(2) = а, т. е. дисперсии признака в обоих классах равны.
Плотность вероятности в точке х для Нг
Предыдущая << 1 .. 35 36 37 38 39 40 < 41 > 42 43 44 45 46 47 .. 58 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed