Научная литература
booksshare.net -> Добавить материал -> Математика -> Лоуcон Ч. -> "Численное решение задач метода наименьших квадратов" -> 52

Численное решение задач метода наименьших квадратов - Лоуcон Ч.

Лоуcон Ч., Хенсон P. Численное решение задач метода наименьших квадратов: учебное пособие. Под редакцией Тыртышникова Е.Е. — М.: Наука, 1986. — 232 c.
Скачать (прямая ссылка): louson_h_chisl_resh_zmnk.djvu
Предыдущая << 1 .. 46 47 48 49 50 51 < 52 > 53 54 55 56 57 58 .. 88 >> Следующая

Нет необходимости вычислять обратную для F в явном виде. Более экономичный метод состоит в прямом вычислении взвешенной матрицы [А : b ] путем решения систем F [А : b ] = [А : Ь) с треугольной матрицей F.
Если G получена описанным способом из априорной ковариационной матрицы погрешностей в Ь, то ковариационная матрица погрешностей в преобразованном векторе b будет единичной.
Как статистические, так и всякого рода иные соображения свидетельствуют в пользу выбора матрицы G, обеспечивающей примерное равенство областей неопределенности для всех компонент преобразованного вектора b = Gb. В результате евклидова норма становится разумной мерой вектора погрешности dbm (25.3).
§3. Правое умножение А на матрицу JT
и замена переменныхх = Нх+ ? ^
Здесь задача
Ах^Ь
(25.16)
заменяется задачей
(25.17)
141
где
А=АН, (25.18)
Ъ = Ь-А%, ' , . (25.19)
х = Ях + ?. (25.20)
Матрица Я имеет размеры л X /, причем / < л. Вектор х — /-мерный, & А-т X /-матрица. Если Я — диагональная л X п-матрица, то такое преобразование можно интерпретировать как применение к А операции масштабирования столбцов.
Для невырожденной л X л-матрицы Я преобразование не меняет задачу математически. Таким образом, множество векторов вида х = Ях + ?, где х минимизирует IЪ — Ах И, совпадает с множеством векторов х, минимизирующих IЬ — Ах И.
Если, однако, Я — неортогональная матрица, то число обусловленности А, вообще говоря, отличается от числа обусловленности А. Поэтому если используется алгоритм, в котором нужно определять значение псевдоранга А (например, алгоритм HFTI (см. 14.9) или алгоритм сингулярного разложения (18.36) —(18.45)), то для матрицы А это значение может быть выбрано иным.
Кроме того, если для псевдоранга установлено значение к, меньшее л, а затем вычисляется решение с минимальной длиной для задачи ранга к, то использование неортогональной матрицы Я изменяет норму, посредством которой измеряется "величина" решения. В общем случае это приводит к тому, что в качестве решения с "минимальной длиной" выбирается другой вектор. Если в задаче (25.16) решение с минимальной длиной -зто решение, минимизирующее Dx 1, то в преобразованной задаче (25.17) решением с минимальной длиной будет решение, минимизирующее ||х||. Это равносильно минимизации В Я~'(х - {) I вместо минимизации II х ||.
По поводу критерия для выбора Я заметим прежде всего, что использование спектральной нормы для матрицы возмущения Е в (25.2) будет реалистическим только тогда, когда абсолютные неопределенности всех элементов А имеют примерно одинаковую величину. Поэтому если имеются индивидуальные оценки неопределенностей для злементов А, то матрицу Н можно выбирать как матрицу, масштабирующую столбцы А, с тем чтобы уравновесить величины неопределенностей в них.
Сходный критерий можно получить на основе априорной информации о решении х. Предположим, известно, что решение х должно быть близко к заданному вектору ? (априорно ожидаемому значению х). Пусть далее для каждого i имеется априорная оценка ot неопределенности в ?/ как оценки х/. Тогда в качестве Я можно взять диагональную л X л-матрицу с диагональными элементами ......ilii4 „
л„ = а,. (25.21)
В таком случае преобразованные неременные
х, = ^-^ ~ (25.22)
имеют единичную априорную неопределенность и нулевые априорно ожидаемые значения. 142
Более общо, если имеется достаточная априорная статистическая информация для того, чтобы построить положительно определенную априорную ковариационную л X и-матрицу С, описывающую неопределенность в ?, то Я можно вычислить как верхний треугольный множитель Холесского этой матрицы (см. (19.16)-(19.18)):
С = ЯЯГ. (25.23)
Тогда априорная ковариация преобразованного вектора Зс из (25.20) будет единичной л X и -матрицей, а априорно ожидаемое значением будет нулевым вектором.
Если для задачи определено значение псевдоранга к, меньшее», и вычисляется решение с минимальной длиной, то разумно такое масштабирование переменных, в результате которого разные компоненты х будут иметь приблизительно одинаковую неопределенность.
Поскольку числа обусловленности матрице и А, вообще говоря, различны, то можно попытаться выбрать Я так, чтобы уменьшить число обусловленности А. Если А не вырождена, то существует матрица Я такая, что cond (ЛЯ) = 1. Такой матрицей будет,например,Я = /?"', где/? - треугольная матрица, вычисляемая в алгоритме Хаусхолдера. Однако едва ли эта матрица доступна априори. Интересно отметить тем не менее, что если информация, определяющая априорную ковариационную матрицу С из (25.23), приблизительно соответствует заданным коэффициентам [Л:ft], то матрица Я будет близка к R. В этом случае число cond (АН) будет, скорей всего, довольно малым.
Если не имеется оценки для С, то остается еще возможность взять диагональную матрицу Я как матрицу масштабирования, уравновешивающую евклидовы (или любые другие) нормы столбцов А. Такое уравновешивание достигается выбором
а'Ф0' -(25.24)
а/=0,
где dj — /-й столбец А. В [183] доказано, что если Я определить в соответствии с (25.24), где норма взята евклидова, то cond (АЯ) не более чем
Предыдущая << 1 .. 46 47 48 49 50 51 < 52 > 53 54 55 56 57 58 .. 88 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed