Научная литература
booksshare.net -> Добавить материал -> Математика -> Лоуcон Ч. -> "Численное решение задач метода наименьших квадратов" -> 51

Численное решение задач метода наименьших квадратов - Лоуcон Ч.

Лоуcон Ч., Хенсон P. Численное решение задач метода наименьших квадратов: учебное пособие. Под редакцией Тыртышникова Е.Е. — М.: Наука, 1986. — 232 c.
Скачать (прямая ссылка): louson_h_chisl_resh_zmnk.djvu
Предыдущая << 1 .. 45 46 47 48 49 50 < 51 > 52 53 54 55 56 57 .. 88 >> Следующая

Чтобы оценить "размер" множества X, заметим прежде всего, что X будет не ограничено, если rank А < п или <р и к (где к обозначает число обусловленности А) настолько велики, что к<р1 ИД И > 1; в этом последнем случае А +Е будет вырождена для некоторой матрицы Е, И?И <<р.
С другой стороны, в случае гапкЛ = п и ку/ Ы II < 1 оценки возмущений (9.13) или (9.14) позволяют получить полезную информацию о диаметре множества X. Присутствие параметра р в определении X может повести к дальнейшему увеличению его размера.
Если множество X "велико" в том смысле, что содержит векторы, значительно отличающиеся друг от друга, то приходится выбирать какое-либо конкретное решение из X. При широком взгляде на дело в этот процесс выбора можно включить любые шаги, которые может предпринять хозяин задачи, с тем чтобы путем ее преобразования уменьшить множество решений (сохраняя, как правило, вложенность в X).
139
Критерий, используемый для уменьшения размера множества X, зависит от конкретного приложения. Очень распространена ситуация, когда задача Ах ~ b получается в результате локальной линеаризации нелинейной задачи наименьших квадратов. Это уже отмечалось в гл. 1. В подобном случае предпочтительным обычно является выбор из X вектора х с наименьшей нормой; такой выбор снижает вероятность выхода из области, где b — Ах -хорошее приближение к нелинейной задаче.
Что касается преобразования исходной задачи наименьших квадратов, то было предложено множество конкретных процедур, опирающихся на различные мотивировки (статистические, математические, численные, эвристические и т.д.). Большинство этих процедур заключается в выполнении одной или более из операций следующего списка (не обязательно в указанном порядке):
1. Левое умножение А и Ъ на т X m-матрицу G.
2. Правое умножение А на л X n-матрицу Я и соответствующая замена переменных х = Нх или х = Нх + ?.
3. Приписывание дополнительных строк к А и дополнительных элементов к Ь.
4. Присвоение фиксированных значений (часто нулевых) некоторым компонентам решения. Это можно сделать по отношению как к исходному, так и к преобразованному набору переменных.
В § 2-5 мы рассмотрим подробно каждую из этих четырех операций.
Наконец, в § 6 будет описан сингулярный анализ. Под этим термином мы подразумеваем вычисление ряда величин, которые можно извлечь из сингулярного разложения матрицы А, а также их интерпретацию как средство, чтобы достигнуть понимания неопределенностей в задаче Ах = b н выбрать полезное решение. Разумеется, задача Ах^ Ь, к которой применяется сингулярный анализ, может быть получена в результате предварительного использования операций, описываемых в § 2-5. / ¦ ¦
§ 2. Левое умножение Л и ft на матрицу G
Эта операция изменяет норму, в которой оценивается величина вектора невязки. Таким образом, задачу выбора х из условия минимума (Ь -Ах)Т(Ь -Ах) мы заменяем на задачу минимизации величины (Gb-GAx)T(Gb-GAx), которую можно записать также как (b-Ах)тX X(GTG)(b-Ax) или как (Ь -Ax)TW(b - Ах), где W=GTG.
Очень часто используется специальный случай, когда G — диагональная матрица. Тогда и матрица К7 диагональная. В этом случае левое умножение на G можно интерпретировать как операцию масштабирования строк, в которой /'-я строка расширенной матрицы [А : Ь] умножается на число^.
Положим
г = Ь-Ах, ¦ ;-• ¦ (25.13)
r=Cr = Gb — GAx, '1* (25.14)
Таким образом, если матрица ^^ОДшшм, то иужно минимизировать
величину ~ ¦''.,'>, .- (,г/
m m
Z *f,r»-S wffr*v ; ' (25.15)
140
Говоря нестрого, приписывание /-му уравнению относительно большого веса \g{{\ (или, что эквивалентно, t%) имеет тенденцию уменьшать компоненту \г,\ в результирующей невязке. Поэтому если некоторые компоненты исходного вектора Ь известны с большей абсолютной точностью, чем другие, то может оказаться желательным введение для соответствующих строк сравнительно больших весов.
Описанную процедуру для диагональной матрицы G обычно называют взвешенными наименьшими квадратами. Чтобы дать систематический метод для приписывания весов, предположим, что с каждой компонентой bj исходного вектора b можно связать положительное число а{, указывающее приблизительный размер неопределенности в bt. Если имеется соответствующая статистическая информация относительно Ь, то обычно в качестве о, берут среднеквадратичное отклонение неопределенности в Ь{. Тогда веса определяются, как правило, формулой gu = l/ot или, что эквивалентно, »%=1/о2. Заметим, что при_ такому масштабировании все компоненты модифицированного вектора Ь, т.е. bi=gtibi = ft,/o,, имеют неопределенности со среднеквадратичным отклонением 1.
Более общо, если имеется достаточная статистическая информация относительно неопределенности в векторе b для того, чтобы приписать числовые значения корреляции погрешностей в различных его компонентах, то эту информацию можно представить в виде положительно определенной симметричной ковариационной т X ш-матрицы С (эти статистические понятия подробно обсуждаются в книге [144]). Тогда можно вычислить разложение Холесского матрицы С в соответствии с формулами (19.5) и (19.12)-(19.14), т.е. найти нижнюю треугольную матрицу F, для которой C=FFT. После этого весовую матрицу G можно определить как G = F~1.
Предыдущая << 1 .. 45 46 47 48 49 50 < 51 > 52 53 54 55 56 57 .. 88 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed