Научная литература
booksshare.net -> Добавить материал -> Экономика -> Клейнер Г.Б. -> "Эконометрические зависимости: принципы и методы построения" -> 40

Эконометрические зависимости: принципы и методы построения - Клейнер Г.Б.

Клейнер Г.Б. , Смоляк С.А. Эконометрические зависимости: принципы и методы построения. Под редакцией Баковецкой B.C. — М.: Наука, 2000. — 104 c.
ISBN 5-02-008348-8
Скачать (прямая ссылка): ekonometricheskie_zavisimosti.djvu
Предыдущая << 1 .. 34 35 36 37 38 39 < 40 > 41 42 43 44 45 .. 46 >> Следующая

В этой ситуации функция реальности ошибки известна неточно -известен лишь некоторый класс 3F, которому она принадлежит (для "хьюберовского" засорения 3F состоит из всех функций распределения, отличающихся от заданной не больше чем на е в равномерной метрике). Поэтому, если ошибки наблюдений являются НВ или ПВ, каких-либо препятствий для применения данного метода нет.
Пример 4.13. Примем, что в базовой модели ошибки наблюдений являются ПВ. Как и в модели Хьюбера, будем считать, что класс 3F состоит из всех функций правдоподобия, отличающихся от заданной функции g не более, чем на е. Для этого, естественно, надо ввести метрику на классе функций правдоподобия. Воспользуемся метрикой [58], в которой расстояние р между функциями правдоподобия определяется как максимальное хаусдорфово расстояние между соответствующими множествами их уровня (см. п. 3.3). Тогда класс 2F состоит из функций h таких, что при любом d множество {дсг| /г(лг) ^ d] и {x|g(jt) ^ d] отстоят друг от друга не более чем на е. В этом случае нетрудно показать, что ?~0l) ~ inf g(x) ^ h(r\) ^ sup g(x) = g+(r\) для любых h е 3F.
Если бы функция правдоподобия h и параметр а были известны, степень реальности результатов наблюдений выражалась бы формулой
88
TLh[Vt -Ф(Хпа)] и оптимальная оценка получалась бы максимизацией t
этого выражения по а. Теперь, однако, ситуация иная, и мы должны рассчитывать на наихудшее засорение. Это приводит к следующему критерию оптимальной оценки:
П?"|У, -Ф(Хп а)] => max. (4.20)
t
Например, если g(x) = exp(-fo:2}, то g~(T|)= ш^ exp{-fot2} =
= ехр{~?(|г||+?)2}, так что оптимальное а является решением задачи:
I [\У,-Ф(Хпа)\ + г]2 =>min. (4.21)
t
При е —> 0 этот метод переходит в метод наименьших квадратов, при е —> ©о - в метод наименьших модулей, более устойчивый к грубым ошибкам. ¦
4.3.2. Модель "больших" ошибок
Для "обычных", "малых" ошибок степень реальности убывает по мере возрастания величины ошибки. Таким образом, чем больше величина ошибки, то менее реальной она должна считаться. С "грубыми" ошибками положение должно быть обратным - чем больше величина ошибки, тем более реально, что она является "грубой". Поэтому для таких ошибок степень реальности (функция принадлежности или относительного правдоподобия) должна стремиться к 1 при неограниченном росте модуля величины ошибки и обращаться в нуль при нулевой величине ошибки. Этому отвечают, например,
функции вида /?(?) = 2~D/'^ или /?(?) = 2~(D/^ . Величина D здесь совпадает со средней (по модулю) ошибкой, т.е. такой, которой отвечает степень принадлежности или относительного правдоподобия, равная У2. Представляется, что в каждом конкретном случае величина D может быть установлена исследователем хотя бы ориентировочно.
Пример 4.14. Оценивается параметр а в базовой модели в условиях, когда ошибки являются НВ и среди них имеются как "малые", так и "большие". Естественно считать, что функции принадлежности "малых" и "больших" ошибок четные и непрерывные, что позволяет обозначить их А(|?|) и Я(|?|). Естественно также, что с ростом |^| величина КI ?, I) убывает, а Н( I ? I) - растет. Здесь функция принадлежности для всей совокупности наблюдений имеет вид:
min {min Н[ Y. - Ф(Х., а)}, min h{ Yt - Ф(Х(, а)}}, (4.22)
где Ж - множество номеров наблюдений, которым отвечают "большие" ошибки.
В соответствии с МС-принципом оптимальная оценка отвечает
89
такому а и такому множеству Ж, при которых выражение (4.22) максимально. Для выявления одного из условий оптимальности заметим, что уравнение h{L) = H(L) имеет единственное положительное решение. Оно характеризует такую величину ошибки, которую с равной степенью принадлежности можно считать и "малой" и "грубой" -назовем ее "разделяющей". Пусть, например, функции принадлежности
"малых" и "грубых" ошибок имеют вид: й(?) = 2HVD)2; #(?) =-2~(/Щ)2, где D и R - соответствующие средние ошибки. Нетрудно проверить,
что "разделяющая ошибка" здесь будет равна ~JDR - среднему . геометрическому из средней "малой" и средней "грубой" ошибок. Легко проверить, что максимальное значение (4.22) будет достигаться, если в
Ж отнести все наблюдения, для которых \Yr -Ф(Хпа)\^ L. С другой
стороны, пусть \Yt - Ф(Хпа)\< L для некоторого t е Ж. Если исключить это гиз?{, то в силу неравенства h{Yt -Ф(Хпа)}> H[Yt-Ф(Хпа)} критерий (4.22) увеличится или по крайней мере не уменьшится, что и требовалось доказать.
Мы видим, таким образом, что решение задачи "чрезмерно осторожно": оно требует минимизировать наибольшее отклонение, не превосходящее L, и максимизировать наименьшее отклонение, превосходящее L. Это неудивительно: степень принадлежности совокупности НВ определяется "наихудшей" из них, так что здесь МС-принцип не учитывает ни количества, ни величины других, "неэкстремальных" отклонений.»
Пример 4.15. Пусть в той же задаче ошибки являются ПВ. Здесь критерий согласованности отражает относительное правдоподобие выборки и имеет вид:
П НЩ-Ф(Хпа)х ПЛ[К-Ф(А:,,а)=>тах.
Нетрудно показать, что этот критерий эквивалентен следующему: Пmax[H[Yt - Ф(Хпа)],h[Yt - Ф(Х,,а)]} => max. (4.23)
Предыдущая << 1 .. 34 35 36 37 38 39 < 40 > 41 42 43 44 45 .. 46 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed