На главную   ::   Содержание



Центральная предельная теорема и ее применение для доверительного оценивания

Замечание 1.   В доказательстве используются свойства характеристических функций. Характеристической функцией $ \varphi(t)$ данной случайной величины называется $ \varphi(t)=Ee^{it\xi}$. Характеристическая функция взаимно однозначно соответствует распределению. Для суммы независимых случайных величин характеристическая функция является произведением их х.ф. Кроме того, $ \frac{\varphi^{(n)}(0)}{i^n}=E\xi^n$ -- центральный момент $ n$-го порядка.

Теорема 1. (Центральная предельная теорема)   Пусть $ \xi_1,\dots,\xi_n$ -- независимые одинаково распределенные случайные величины, $ E\xi_1=a, D\xi_1=\sigma^2$. Тогда

$\displaystyle \frac{\sum_{i=1}^n \xi_i-E(\sum_{i=1}^n
\xi_i)}{\sqrt{D(\sum_{i=1}^n \xi_i)}}\Rightarrow N(0,1)\text{
(сходимость по распределению)}.$

Доказательство. Без ограничения общности $ a=0$, иначе производим соответствующую замену. Стандартизируем сумму: $ s_n=\frac{\sum_{i=1}^n \xi_i}{\sigma\sqrt{n}}$. Рассмотрим характеристическую функцию $ s_n$:

$\displaystyle \varphi_{s_n}(t)=Ee^{it\frac{\sum\xi_i}{\sigma\sqrt
n}}=(\varphi(\frac{t}{\sigma\sqrt n}))^n.$

Раскладывая х.ф.с.в. $ \xi_1$ в ряд Тейлора и учитывая нулевое математическое ожидание и свойство $ \varphi''(0)=-E\xi_1^2$, получим:

$\displaystyle \varphi(t)\sim
1-\frac{\sigma^2t^2}{2}+o(t^2),$

тогда

$\displaystyle \varphi(\frac{t}{\sigma\sqrt n})=1+\alpha_n,$    где $\displaystyle \alpha_n=-\frac{t^2}{2n}+o(1/n).$

Вернемся к х.ф. суммы, вспомнив замечательный предел $ \ln (1+\alpha_n)\sim\alpha_n,$ при $ \alpha_n\to 0$. Получим

$\displaystyle \ln\varphi_{s_n}(t)=n\ln(1+\alpha_n)\sim
\alpha_n n=-\frac{t^2}{2}+n o(1/n).$

Отсюда

$\displaystyle \varphi_{s_n}(t)\to
e^{-\frac{t^2}{2}},$

а это--х.ф. $ N(0,1)$. $ \blacksquare$

Применение к доверительному оцениванию.

Замечание 2.   Предположим, что $ \xi\sim N(a,\sigma^2)$. Тогда

$\displaystyle P(\vert\xi-a\vert>z)=1-P(\vert\xi-a\vert<z)=1-P\biggl(\left\vert\...
...igma}\right\vert<\frac{z}{\sigma}\biggr)=1-2\Phi\biggl(\frac{z}{\sigma}\biggr).$

Это выполнено, поскольку линейное преобразование $ (\xi-a)/\sigma$ делает из $ N(a,\sigma^2)$ величину $ N(0,1)$. Тогда такая запись справедлива, $ \Phi(z)=\frac1{\sqrt{2\pi}}\int_0^z e^{-x^2/2}  dx$.

Пусть имеются выборка значений $ x_1,\dots,x_n$ нормальной случайной величины $ \xi$ с неизвестным математическим ожиданием $ a$ и известной дисперсией $ \sigma^2$. Величины $ x_1,\dots,x_n$ можно считать н.о.р.с.в. с распределением таким же, как у $ \xi$. Пусть мы хотим оценить математическое ожидание $ \xi$. Для этого построим его статистическую оценку $ \overline a=\frac{x_1+\dots+x_n}{n}$. Мы хотим найти такой интервал $ [\overline a-z, \overline a+z]$, чтобы математическое ожидание случайной величины $ \xi$ попало в него с вероятностью $ 1-\gamma$, где $ \gamma$ -- некоторое маленькое число, например, $ 0.05$. Заметим, что тогда событие «м.о.с.в. $ \xi$ не попало в интервал» будет происходить с вероятностью $ \gamma$. Формально $ P(E\xi\not\in [\overline a-z,\overline a+z])=\gamma$. Тогда $ P(\vert a-\overline a\vert<z)=1-\gamma$. Заметим, что $ \overline a
\sim N(a,\sigma^2/n)$, по свойствам нормальной случайной величины: сумма нормальных также нормальна, параметры -- м.о. и дисперсия -- также суммируются. Тогда по замечанию выше

$\displaystyle 1-\gamma=P(\vert\overline a-a\vert<z)=2\Phi\biggl(\frac{z\sqrt n}{\sigma}\biggr).$

Отсюда легко вычислить необходимое значение $ z$:

$\displaystyle z=\frac{\sigma}{\sqrt n}\Phi^{-1}\biggl(\frac{1-\gamma}{2}\biggr)
$



На главную   ::   Содержание