Научная литература
booksshare.net -> Добавить материал -> Биология -> Андреев В.Л. -> "Классификационные построения в экологии и систематике" -> 45

Классификационные построения в экологии и систематике - Андреев В.Л.

Андреев В.Л. Классификационные построения в экологии и систематике — М.: Наука, 1980. — 142 c.
Скачать (прямая ссылка): klassifikacionniepostroeniyavekologii1980.pdf
Предыдущая << 1 .. 39 40 41 42 43 44 < 45 > 46 47 48 49 50 51 .. 58 >> Следующая

р (X | нг) = П р" (1 -Pit*1, р (X | я2) = П ? (1 - гО1"**.
г=1 i=l
Подставляя эти выражения в (8.22), получим уравнение разделяющей функции ~р
L(X) = ?U 1п-^ + (1-*4)
In
i-Pil
l-?i
1 — Р (Hi) Х12 — ^2"
______________ ... LIT 2 - О
P (Hj) Л21 — An
Преобразуем выражение в квадратных скобках: г. In - А + (1 - Xi) In In Л- +
+ In
¦Pt
1-?;
X; 1П
l~Pi
1 — 9,-
1 ~Pi
Получим
i
— In-
Обозначим
1 — P (H1) ?-l2 — A22 Q
COj = In
PiHj Pi (1 — ?j)
?i(l — Pi) Если положить
Р(Я1)-Р(Я,),
®o
Pi
1,
то область решения II у определяется неравенством
L(X) = S (0^+(о0>0, т. е. дискриминантная функция линейна. Пример. Пусть имеются две выборки: Nx = 4, N2 = 5, число признаков р = 6, Р (Яг) = = 0,44, Р (Яг) = 0,56; описание
объектов
я, я.
я. На я, я. Pi 1----Pi fli Яг Я, R, я, «г 1-Ji
1 1 1 0 0,75 0.25 0 1 0 0 0 0,20 0,80
0 1 0 0 0,25 0,75 0 0 0 0 1 0,20 0,80
0 0 0 1 0.25 0,75 0 0 0 1 0 0,20 0,80
0 0 1 0 0.25 0,75 1 1 1 1 0 0,80 0,20
0 1 0 1 0,50 0,50 1 1 0 1 0 0,40 0,60
0 0 1 1 0,50 0,50 0 0 1 0 1 0,40 0,60
Находим коэффициенты дискриминантной функции
i wi i-Pi i “L l-9i
in ----1
1 2,48 ---1,16 4 2,48 1,32
2 0,29 -0,06 5 0,41 0,18
з 0,29 -0,06 6 0,41 0,18
Вектор Х = || 10001 1 || необходимо с наименьшей вероятностью ошибки отнести к одному из классов: Нх или Яг. Подставляя X в выражение
L (х) = 2 “Л + “о — In > 0>
получим
L (х) = 3,30 - 0,32 = 2,98 > 0,
т. е.’ распознаваемый объект относится к классу Ях.
Заметим, что если pt — qu то величина xt не несет информации
0 принадлежности к классам и сог = 0. В случае pt ]> qt имеем
1 — Pi <С 1 — 9г> так 4X0 положителен и для xt имеем сог «голосов» в пользу Нх. Кроме того, при любом постоянном qt <[ 1 чем больше ph тем больше С другой стороны, при pt < q( величина ©j становится отрицательной и мы имеем | со* | «голосов» в пользу Я*.
8.4. Метод наименьших квадратов.
Отбор информативных признаков
Дискриминация представителей различных ГС может формально рассматриваться как регрессионный анализ, основанный на методе наименьших квадратов. Этот подход удобно иллюстрировать примером прогноза уловов, рассмотренным в параграфе 8.3.
Каждое значение прогнозируемой переменной Y определяется как функция независимых переменных
F = / {Sv Л),
причем самым простым видом функции можно считать линейную зависимость
Y = (0q -j- со2S2
или при р переменных
Y= шо -(- 2 otySi" ' (8.23)
г
В более общем случае можно вводить нелинейные члены: Si, St-S» и т. п., например, для двух переменных полином второго порядка
- (Од -j- -j- -f~ (03*S-l -р (jy^SiSvf (8.24)
где значения SjSi = {х1}-х2j | j J} можно считать «новыми» переменными, т. е. значения «новых» признаков вводятся посредством попарного перемножения значений заданных. Уравнение (8.24) нелинейно относительно St, но линейно относительно Y-
Ситуация примера примечательна тем, что значения прогнозируемой переменной У"; являются числовыми и все Y} могут быть упорядочены. Если же значения зависимой переменной не могут быть упорядочены, то регрессионный анализ эффективен при распознавании только двух классов. Соответственно этому всем уj ЕЕ Нг приписывают значения iV/iV, a yj ЕЕ Нг — значения (— N2IN), где N = Nx + N2.
Коэффициенты сог находятся по формулам
©i = SyWi;0i> (8.25)
где vlj — элементы матрицы У'1,
N
Щ) = S (хгк — ii) (Xjk — Zj), (8.26)
к
N
к
Vqi
(8.28)
^'oq — S (Уз — Y o)'i <o0 = Y0 —
т. e. значения матриц V и V0 получаются при объединении всех выборок в одну.
Множественная корреляция, которая служит мерой точности предсказания или мерой связи между зависимой и независимыми переменными, оценивается величиной
Я2 = -А- У «А;- (8.29)
L2 оо
Используя технику дисперсионного анализа, можно проверить гипотезу о значимости связи с помощью критерия
Д2 './V —> — 1
F =
1 — Я-
(8.30)
1 степеня-
который имеет ^-распределение Фишера с р и N — р мп свободы.
При незначимой связи задача прогнозирования (распознавания) теряет практический смысл.
Продолжим изучение задачи прогноза уловов. Согласно формулам (8.25) — (8.27) необходимо вычислить элементы матрицы У при объединении выборок в одну. В данном случае нет необходимости все расчеты делать заново, так как элементы V определяются через известные величины
Предыдущая << 1 .. 39 40 41 42 43 44 < 45 > 46 47 48 49 50 51 .. 58 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed