Научная литература
booksshare.net -> Добавить материал -> Физика -> Гардинер К.В. -> "Стохастические методы в естественных науках" -> 42

Стохастические методы в естественных науках - Гардинер К.В.

Гардинер К.В. Стохастические методы в естественных науках — М.: Мир, 1986. — 538 c.
Скачать (прямая ссылка): stahonicheskiemetodivestestvennaukah1986.pdf
Предыдущая << 1 .. 36 37 38 39 40 41 < 42 > 43 44 45 46 47 48 .. 185 >> Следующая

Возьмем символы у, у' и т. д. для обозначения точек пространства Rl и х, х' — для точек R2; вместо р(у) будем использовать обозначение г (у). Тогда уравнения эволюции можем записать так:

Щр = J dx' {W(x\x')p(x') - W(x'\x)P{x)\ + J dy' W{x\y’)r{y') (3.7.44a)

= J dy' [Щу\у')г(у') - W'X/Ij’M.y)] - r(y) J dx' W(x'\y). (3.7.446) Если для удобства обозначить

М(у) = J dx' W(x'\y),

(3.7.45)
98 Глава 3

то решение уравнения (3.7.44) можно записать, как

r(y, Г) = exp [-fi(y)t]q(y, t), (3.7.46)

где q Су, t) — решение управляющего уравнения только для области Rv а именно следующего уравнения:

д-^ = J dy' [Щу |y')q(y') ~ W(y' | J’)qr(^)](3.7.47)

здесь W (у\у') = ехр[/х (y)f] W(y I _у')ехр[-/л(У)/]. При этом происходит приближение к равновесию. Прежде всего, поскольку /х(у) > 0, то г(у> 0 -* 0 при t оо. Следовательно, неоднородный член в (3.7.44а) исчезает при больших временах, так что остается обычное управляющее уравнение, к которому приложима аргументация пункта «а». Не удивительно поэтому, что решение имеет вид (3.7.42).

3.7.4. АВТОКОРРЕЛЯЦИОННАЯ ФУНКЦИЯ МАРКОВСКИХ ПРОЦЕССОВ

Для любого марковского процесса можно написать весьма изящную формулу для автокорреляционной функции. Введем определение условного среднего:

<*(г)|[*0, ?о]> = \ dx X р(х, t|х0, f0). (3.7.48)

Тогда автокорреляционную матрицу можно записать так:

(X(t)X(t0)T} = J dx dx0 xxlp(x, t; x0, f0) (3.7.49)

= J dx о (X(t) | [*0, *o]>*o>(*o, to). (3.7.50)

Мы видим, что (3.7.48) определяет среднее от X(t) при условии, что X принимает значение х0 в момент t0, а (3.7.50) утверждает, что автокорреляционная матрица получается путем усреднения (для момента /0) этого условного среднего (умноженного на xj). Такой результат следует непосредственно из определений и справедлив для любого стохастического процесса.

В случае марковского процесса имеется, однако, единственная условная вероятность, определяющая весь процесс. Таким образом, для марковского процесса можно утверждать, что <А"(О I ?х0, /0]> — это

единственная нужная величина. Поскольку знание лг0 в момент /0 пол-

ностью определяет дальнейшее развитие процесса, наиболее заметная польза от данного свойства проявляется при расчете стационарной автокорреляционной функции. Для того чтобы это продемонстрировать,
Марковские процессы 99

рассмотрим немарковский стационарный процесс с совместными вероятностями

Р*(*i> ; х2, t2, х„, t„), (3.7.51)

которые зависят, разумеется, только от разностей времен. Образуем теперь соответствующий нестационарный процесс, отбирая только те реализации, которые проходят через точку х — а в момент / — 0. Итак, определяем

Pa(Xi> ti > х2, t2, ... хп, t„) р,(хх, ti, X2i t2, ... Xn) tn | A, 0). (3 7 52)

Далее замечаем, что для этого процесса

<ДГС01Е*о, /о]>. = J dx xps(x, f |х0> t0; а, 0). (3.7.53)

Здесь зависимость от а отмечена индексом а при скобке усреднения. Если исходный стационарный процесс обладает соответствующим свойством эргодичности, то

lim ps(x, t + т|х0, f0 + т; а,0) = р,(х, t - f0|x0, 0), (3.7.54)

так что мы будем иметь стационарное условное среднее от х

(X(t) | [х0, f0]>„ = lim <X(t + т) | [*0, t0 + т]>„ (3.7.55)

т—ео

и стационарную автокорреляционную матрицу, даваемую равенством

(X(t)X(toyyB = J dx0 *S<*(f)|[*o, ^о]>sPs(Xq) (3.7.56)

= lim <X(t + т)X(t0 + t)t>.

= lim J dx0 xJ0(x(t+ t) | [r0, t0 + т]}ора(х0, /0 -f i). (3.7.57)

T-*“

Однако, когда процесс марковский, необходимость в этой громоздкой процедуре с предельными переходами отпадает, поскольку

Условия Маркова => <*(/)( [*0, ф, = <Х(0|[*о, /„]>.

= <х(011хо,ы>: (3'7'58)

Уравнение (3.7.50) представляет собой теорему регрессии в применении к марковскому процессу и служит базисом для более сильной теоремы регрессии, справедливой в случае линейных систем. Под последними подразумеваются системы, для которых средние подчиняются
100 Глава 3

линейным уравнениям движения, т. е.

d(X(t)\[x0, t0]}/dt ~ -A(X(t)|[лг0, /0]>. (3.7.59)

Эти уравнения часто справедливы для систем, представляющих практический интерес, либо как точные уравнения, либо как аппроксима-ционные. Начальные условия для уравнений (3.7.59), очевидно, таковы:

<ВДi [*о, 'о]> = *0 • (3.7.60)

Тогда из (3.7.50, 59) следует уравнение

— (X(t)X(t0f) = -A(X(t)X(t0)т> (3.7.61)

с начальным значением (X(t0)X(t0)T ). Временная корреляционная функция

(X(t)X(t0yy - <*(?)><ВДТ> = <X(t), X(toy> (3.7.62)

подчиняется, как легко видеть, такому же уравнению с начальным значением, равным корреляционной матрице, соответствующей моменту /0. В стационарной системе приходим к результату, что если G(t) — стационарная корреляционная функция и а — единовременная стационарная корреляционная матрица, то
Предыдущая << 1 .. 36 37 38 39 40 41 < 42 > 43 44 45 46 47 48 .. 185 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed