Неравенство Колмогорова

30.12.2022


Неравенство Колмогорова — обобщение теоретико-вероятностного варианта неравенства Чебышёва, ограничивающее вероятность того, что частичная сумма конечной совокупности независимых случайных величин не превышает некоторого фиксированного числа. Установлено Андреем Колмогоровым в середине 1920-х годов и применено им для доказательства усиленного закона больших чисел.

Формулировка: для определённых на общем вероятностном пространстве ( Ω ,   F ,   P r ) {displaystyle (Omega , F, Pr)} независимых случайных величин X 1 , … , X n   : Ω → R {displaystyle X_{1},dots ,X_{n} :Omega o R} с математическими ожиданиями M X i = 0 , i ⩽ n {displaystyle MX_{i}=0,ileqslant n} и дисперсиями V a r [ X i ] < + ∞ {displaystyle Var[X_{i}]<+infty } и произвольной величины λ > 0 {displaystyle lambda >0} выполнено:

гдe S k = X 1 + ⋯ + X k {displaystyle S_{k}=X_{1}+dots +X_{k}} .

Если к тому же Pr ( | X i | ⩽ c ) = 1 , i ⩽ n {displaystyle Pr(|X_{i}|leqslant c)=1,ileqslant n} , то

Доказательство

Обозначим

A = { max 1 ⩽ k ⩽ n | S k | ⩾ λ } {displaystyle A={max _{1leqslant kleqslant n}|S_{k}|geqslant lambda }} A k = { | S i | < λ , i = 1 , . . . , k − 1 , | S k | ⩾ λ } , 1 ⩽ k ⩽ n {displaystyle A_{k}={|S_{i}|<lambda ,i=1,...,k-1,|S_{k}|geqslant lambda },1leqslant kleqslant n}

Тогда A = ∑ A k {displaystyle A=sum A_{k}} и

M S n 2 ⩾ M S n 2 I A = ∑ k = 1 n M S n 2 I A k {displaystyle MS_{n}^{2}geqslant MS_{n}^{2}I_{A}=sum _{k=1}^{n}{MS_{n}^{2}I_{A_{k}}}} (Где I {displaystyle I} — индикатор)

Но

M S n 2 I A k = M ( S k + ( X k + 1 + . . . + X n ) ) 2 I A k = {displaystyle MS_{n}^{2}I_{A_{k}}=Mleft(S_{k}+left(X_{k+1}+...+X_{n} ight) ight)^{2}I_{A_{k}}=} = M S k 2 I A k + 2 M S k ( X k + 1 + . . . + X n ) I A k + M ( X k + 1 + . . . + X n ) 2 I A k ⩾ M S k 2 I A k , {displaystyle =MS_{k}^{2}I_{A_{k}}+2MS_{k}left(X_{k+1}+...+X_{n} ight)I_{A_{k}}+Mleft(X_{k+1}+...+X_{n} ight)^{2}I_{A_{k}}geqslant MS_{k}^{2}I_{A_{k}},}

поскольку M S k ( X k + 1 + . . . + X n ) I A k = M S k I A k M ( X k + 1 + . . . + X n ) = 0 {displaystyle MS_{k}left(X_{k+1}+...+X_{n} ight)I_{A_{k}}=MS_{k}I_{A_{k}}Mleft(X_{k+1}+...+X_{n} ight)=0} в силу предположенной независимости и условий M X i = 0 , i ⩽ n {displaystyle MX_{i}=0,ileqslant n} Поэтому

∑ k = 1 n V a r [ X i ] = M S n 2 ⩾ ∑ k = 1 n M S n 2 I A k ⩾ ∑ k = 1 n M S k 2 I A k ⩾ λ 2 ∑ k = 1 n M I A k = λ 2 ∑ k = 1 n Pr ( A k ) = λ 2 P r ( A ) {displaystyle sum _{k=1}^{n}Var[X_{i}]=MS_{n}^{2}geqslant sum _{k=1}^{n}MS_{n}^{2}I_{A_{k}}geqslant sum _{k=1}^{n}MS_{k}^{2}I_{A_{k}}geqslant lambda ^{2}sum _{k=1}^{n}MI_{A_{k}}=lambda ^{2}sum _{k=1}^{n}Pr(A_{k})=lambda ^{2}Pr(A)}

что и доказывает неравенство 1.

Для доказательства неравенства 2 заметим, что

С другой стороны, на множестве A k {displaystyle A_{k}}

| S k − 1 | ⩽ λ , | S k | ⩽ | S k − 1 | + | X k | ⩽ λ + c {displaystyle |S_{k-1}|leqslant lambda ,|S_{k}|leqslant |S_{k-1}|+|X_{k}|leqslant lambda +c}

и, значит,

M S n 2 I A = ∑ k M S k 2 I A k + ∑ k M ( I A k ( S n − S k ) 2 ) ⩽ ( λ + c ) 2 ∑ k P r ( A k ) + ∑ k = 1 n P r ( A k ) ∑ j = k + 1 n M X j 2 ⩽ {displaystyle MS_{n}^{2}I_{A}=sum _{k}MS_{k}^{2}I_{A_{k}}+sum _{k}M(I_{A_{k}}(S_{n}-S_{k})^{2})leqslant (lambda +c)^{2}sum _{k}Pr(A_{k})+sum _{k=1}^{n}Pr(A_{k})sum _{j=k+1}^{n}MX_{j}^{2}leqslant }

Из (3) и (4) находим, что:

P r ( A ) ⩾ M S n 2 + λ 2 ( λ + c ) 2 + M S n 2 − λ 2 = 1 − ( λ + c ) 2 ( λ + c ) 2 + M S n 2 − λ 2 ⩾ 1 − ( λ + c ) 2 M S n 2 = 1 − ( λ + c ) 2 Var ⁡ [ S n ] {displaystyle Pr(A)geqslant {frac {MS_{n}^{2}+lambda ^{2}}{(lambda +c)^{2}+MS_{n}^{2}-lambda ^{2}}}=1-{frac {(lambda +c)^{2}}{(lambda +c)^{2}+MS_{n}^{2}-lambda ^{2}}}geqslant 1-{frac {(lambda +c)^{2}}{MS_{n}^{2}}}=1-{frac {(lambda +c)^{2}}{operatorname {Var} [S_{n}]}}}