Основы экспериментальных методов ядерной физики - Абрамов А.И.
Скачать (прямая ссылка):
Если заранее известно, что измеряемая величина х описывается распределением Пуассона, для которого дисперсия равна среднему значению, то вместо вычисления Cfw по формуле (1.38) можно среднеквадратическую погрешность среднего вычислить проще:
°<*> = aIVn = Yoo/Vn = Vп <*>/«. (1-40)
где п—число измерений величины X, т. е. среднеквадратическую погрешность можно вычислять, рассматривая всю совокупность из п измерений X как одно измерение с регистрацией «<х> событий. Соответственно относительная среднеквадрэтическая погрешность
*<x> = °<t>Kx>=llV~n<x>' (1-41)
Как уже упоминалось ранее, поскольку распределение Пуассона несимметрично, запись результатов измерений в виде <х> ± ± O(Jt) при малых <х> оказывается неправильной, так как интервал <х>,—О может быть меньше интервала <х), — о<х).
Погрешность непрямых измерений. Рассмотренные выше выражения для погрешностей относятся к непосредственно измеряемым случайным величинам. В сколько-нибудь сложных экспериментах Цсследуемая случайная величина представляет собой сложную комбинацию из многих непосредственно измеряемых случайных величин. Такие измерения называются непрямыми. Форму связи между непосредственно измеряемыми величинами и искомой можно получить как из известных физических законов, так и на основе экспериментальных данных.
25Получим выражение для среднеквадрэтической погрешности величины z, являющейся функцией т независимых случайных величин хи, г (xlt х2, ..., хт). Для этого сначалз вычислим среднеквадра-тическую погрешность для функции одной случайной величины, а затем распространим вычисления на функцию многих случайных величин.
Разложим функцию г (х) в ряд Тейлора относительно точки р и ограничимся несколькими первыми членами этого разложения:
Z(X) = Z (н) + (* - ц)г' (ц) + (* — н)2 Z" (ц)/2 - ... (1.42)
Усредняя по распределению х или, что то же самое, вычисляя математическое ожидание, получаем следующее приближенное выражение:
M Iz (*)] « Z (|л) + 0 -f o2z" (,а)-2.
Пренебрегая членами второго порядка малости и выше, имеем
M Iz (*)] « Z (р). (1.43)
Теперь, используя (1.43), запишем приближенное выражение для дисперсии:
D Iz (*)] = M 1г(х) — M Iz (х)]]2 « M [[(z(*) — Z (р)]2], (1.44)
т. е. дисперсия функции в линейном приближении равна математическому ожиданию квадрата разности между функцией и ее значением B ТОЧКе (X.
Из (1.42), отбрасывая члены второго порядка малости, имеем
z(x)~z (|л) = (х — p)z' (^). Подставляя это выражение в (1.44), получаем D Iz (*)] » М[[(х — ц)г' (и)]2] « Iz' (ji)]2D (х) « [z' (x)]2D (х). (1.45)
Напомним, что выражение (1.45) записано в предположении, что ряд Тейлора оканчивается членом, содержащим г' (ц), т. е. или когда Z (х) — линейная функция, или когда можно пренебречь нелинейными членами разложения. Если z (х) = ах + Ь, то D (х) точно равно O2G2.
В том случае, когда искомая величина z является функцией т случайных независимых величин Xi, используют m-мерное разложение в ряд Тейлора в окрестности точки с координатами jx;. Рассуждения, аналогичные изложенным выше, приводят к выражению для дисперсии в линейном приближении:
т
D [z (хъ X2,..., Xm)] = 2 [dz (Xi)IdXi]2 of. (1.46)
i = i
* Здесь и далее Xi обозначает независимую переменную, которая может принимать отдельные случайные значения Xil; хі2] хіз и т. д.,а не отдельные значения случайной величины х, как было ранее.
26и соответственно
o<z/[z(xlt х2, ... , хт)\ = \/ 2 [dz (хг)/дл;г] at?. (1.46а)
' г = 1
Здесь аг? — дисперсия распределения Xi вокруг (хг*.
Еще раз подчеркнем, что (1.46)—приближенная формула, справедливая при небольших отклонениях Xi относительно (хг. Выражение (1.46) широко используется при анализе погрешностей, и результат измерения величины z принято записывать в следующем виде:
z±g<2>' (1.47)
При этом хотя в большинстве случаев предполагается, но не оговаривается, что распределение <г> близко к нормальному. Хорошая сходимость большинства распределений к нормальному, даже при не очень большом числе независимых переменных, и малые значения относительных среднеквадратических погрешностей в обычных экспериментах оправдывают это предположение.
Более жестким является условие независимости случайных величин Xi. Если Xi коррелированы, то выражение для дисперсии усложняется и даже в линейном приближении в выражении для дисперсии случайной величины Z (X1, X2, ..., хт) появляются члены с перекрестными производными.
Проиллюстрируем эффект корреляции на примере функции z(xu X2, ..., хт), линейно зависящей ОТ Xi, т. е. функции, для которой разложение в ряд Тейлора обрывается на линейном члене. Пусть г (X1, х2, ..., хт) = а1х1^-а2х2 -{-... + атхт. По определению
D (z) = M [Ia1X1 + а2х2 + ... + атхт — M (z)]2]. (1.48) Принимая во внимание, что
/ т \ т т
M(Z) = M ^aiXi =2 aiM(Xi) = 2 a^' (1'49)
\i=l / j = l 1=1
запишем
D(z) = M [Ia1 (х, — (X1) + а2 (х2 — ц2)+... + ат (хт — (Xm)]2] =
т
= 2 aj aH M [(Xj-HJ) (Xh — (Xft)], (1.50)
/, ft
где индексы Jak принимают значения от 1 до т. Диагональные члены матрицы (1.50), для которых /'= k, есть дисперсии соответствующих Xi, aJM [(Xj — hj)2] = a]D (Xj). Недиагональные члены равны нулю, если все случайные величины Xi независимы. Действительно, учитывая, что математическое ожидание произведения не-