Научная литература
booksshare.net -> Добавить материал -> Биология -> Андреев В.Л. -> "Классификационные построения в экологии и систематике" -> 43

Классификационные построения в экологии и систематике - Андреев В.Л.

Андреев В.Л. Классификационные построения в экологии и систематике — М.: Наука, 1980. — 142 c.
Скачать (прямая ссылка): klassifikacionniepostroeniyavekologii1980.pdf
Предыдущая << 1 .. 37 38 39 40 41 42 < 43 > 44 45 46 47 48 49 .. 58 >> Следующая

При одинаковых вероятностях классов
P(Bt)
In-
= 0,
Р{НХ)
поэтому решающее правило достаточно просто: чтобы определить класс, к которому принадлежит описание X, следует подсчитать расстояния до каждой выборки
Q, = (X-R,)W-i(X-R*)r
и отнести объект к тому классу, до которого расстояние наименьшее. Граница между двумя областями выражается в виде гиперплоскости, ортогональной («перпендикулярной») отрезку, соединяющему центры классов в пространстве признаков.
Пример. Для прогнозирования уловов Y горбуши в году t + 2 использовались 'данные о размерах уловов Sx и о пропуске на
Данные учета уловов в году t (S,) и (4-2 (У), а также численностп производителей на нерестилищах в году t (S2)
я, На
( S, S- У t S, У
1 6 3 29 1 22 10 19
2 8 4 31 2 30 14 9
3 8 3 30 3 28 12 14
4 И 5 29 4 26 10 17
5 10 4 39 5 30 12 12
6 9 4 38 6 35 14 9
7 13 5 28 7 29 12 13
8 14 6 25 8 32 14 10
9 9 4 32 9 27 11 14
10 12 5 30
11 10 5 31
12 И 5 31
естественные нерестилища производителей 52 в году t. Результаты учетов приведены в табл. 8.1.
Все значения уловов от возврата разбиты на два класса: Нх — «большие» и. Нъ — «маленькие».
Допустим, что имеются данные о родительском стаде: значение признака равное ari') = 15, и признака S», равное ^ = 9, т. е. X = || 15 9 ||. Требуется узнать, какой улов, «большой» или «маленький», следует ожидать при возврате потомства через два года.
Средние значения и дисперсии признаков равны
|1 xf II = 11 Ю,1 4,421|, || xf || = || 28,8 12,11|,
1| (off || = || 12,5 2,46 II, || (о»')* || = || 5,24 0,82 Ц.
В первом приближении взаимосвязь признаков не учитываем и, кроме того, полагаем, что соответствующие дисперсии в обучающих выборках равны. "Усреднение последних проводим по формуле
• (N1 - 1) (в^)« + №-1) (сЯ)2
Л^ + ЛЪ-2 ’
что дает || а? || = || 8,3 1,5 ||. Считаем,’ что Р (Ях) = Р (Я2), и по формуле (8.12) определяем
r/v, 10,1-28,8 е , 4,4-12,1 р ,
1 (х) =-------м----- 1 + —йь—+
1 / 110,1*-28,82 . 4,42 —12,12 \
+ 2 [ 8,3 + 1,5 ) —
2,25 St— 5,13 S2 + 86,2 >0. (8.14)
Подставляя в (8.14) значения X = || 15 9 | L (X) = —79,9 + 86,2 = 6,28 > О,
получим
т. е. улов следует ожидать «большим».
Формулу (8.14) в данном примере следует расценивать как прогнозирующую систему для данной популяции. Подставляя каждый раз новые значения Sx и Si, можно прогнозировать улов с наименьшей возможной в заданных условиях ошибкой.
Разумеется, на практике прогнозирующая система должна учитывать больший материал обучения, большее число признаков, большее число классов и разные наборы решающих правил.
Случай 4 : Wj = W2 = W также является сравнительно простым: ковариационные матрицы для классов одинаковы
L (X) = 4- (Qs - Qi) = XW-1 - R2)r -
_ 4- (rii -f R,) w-i (Rj _ R,)T > P (Яз)
’\Р(НЛ) ' (8.15)
Если вероятности классов одинаковы, то правая часть неравенства равна нулю, и для классификации вектора признаков достаточно определить махаланобисово расстояние до центра каждого класса
(X-ft^W-HX-R,)2,
и отнести вектор к тому классу, до которого это расстояние минимально. Дискриминантная функция в данном случае линейна, а граница между двумя областями не обязательно ортогональна отрезку, соединяющему центры классов.
Пример. СП-матрпцы для обучающих выборок предыдущего примера
Vi =
156,7 2 20,48
I20,48 8,96
Усредненную СП-матрнцу 79,37 29,80 29,80 16,64
Vo =
109,56 42,22 42,22 26,89
используем для построения прогнозирующей системы по формуле (8.15). Детерминант V равен
| V | = 79,37-16,64 - 29,80-29,80 = 432,68,
что дает возможность определить 0,038 —0,069 ¦0,069 0,183
0,722 —1,311 -1,311 3,477
V"1 =
W ~1ЬТ =
W-1 =
X
0,722 — 1,311 •1,311 3,477
I- 3,42II — 2,28
-18,7 -7,7
Используя полученные коэффициенты как фрагмент решающего правила — 3,42 Sx — 2,28 Si'и подставляя вместо переменных Sx
и iSs средние значения каждой выборки, получим jjfj = -3,42-10,1 - 2,28-4,4 = -44,57,
Мг = -3,42-28,8 - 2,28-12,1 = -126,16,
Г = 1/2 (Мг + Мг) = -85,37.
\
Таким образом, прогнозирующая система при сделанных предположениях имеет вид
т. е. прогноз совпадает с полученным ранее.
Случай 5 : Wx ф Ws. Это наиболее общий случай для нормальных распределений: ковариационные матрицы различны. Дискриминантная функция
Как и ранее, если априорные вероятности равны, то область принятия решения Нг определяется неравенством L (X) > 0. При L (X) < 0 принимается Яг. Нелинейная решающая граница (гиперповерхность второго порядка) проходит через точки, для которых L (X) = 0.
Предыдущая << 1 .. 37 38 39 40 41 42 < 43 > 44 45 46 47 48 49 .. 58 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed