Ниже решения всех задач из листка «Домашнее занятие №13» (hw_13.pdf).
Задача 1
Дана плотность на квадрате [ 0 , 1 ] 2 [0,1]^2 [ 0 , 1 ] 2 :
p ( x 1 , x 2 ) = C ∣ x 1 − x 2 ∣ . p(x_1,x_2)=C|x_1-x_2|. p ( x 1 , x 2 ) = C ∣ x 1 − x 2 ∣.
1. Найдём C C C
Нужно, чтобы
∫ 0 1 ∫ 0 1 C ∣ x 1 − x 2 ∣ d x 1 d x 2 = 1. \int_0^1\int_0^1 C|x_1-x_2|\,dx_1dx_2=1. ∫ 0 1 ∫ 0 1 C ∣ x 1 − x 2 ∣ d x 1 d x 2 = 1.
Известно, что для независимых равномерных на [ 0 , 1 ] [0,1] [ 0 , 1 ] величин U , V U,V U , V
E ∣ U − V ∣ = ∫ 0 1 ∫ 0 1 ∣ x 1 − x 2 ∣ d x 1 d x 2 = 1 3 . \mathbb E|U-V|=\int_0^1\int_0^1 |x_1-x_2|\,dx_1dx_2=\frac13. E ∣ U − V ∣ = ∫ 0 1 ∫ 0 1 ∣ x 1 − x 2 ∣ d x 1 d x 2 = 3 1 .
Значит,
C ⋅ 1 3 = 1 , C\cdot \frac13=1, C ⋅ 3 1 = 1 ,
поэтому
C = 3 . \boxed{C=3}. C = 3 .
2. Найдём E ( X 1 ∣ X 2 ) \mathbb E(X_1\mid X_2) E ( X 1 ∣ X 2 )
Зафиксируем X 2 = t X_2=t X 2 = t , где t ∈ [ 0 , 1 ] t\in[0,1] t ∈ [ 0 , 1 ] . Условная плотность X 1 X_1 X 1 при X 2 = t X_2=t X 2 = t пропорциональна
∣ x − t ∣ , x ∈ [ 0 , 1 ] . |x-t|,\qquad x\in[0,1]. ∣ x − t ∣ , x ∈ [ 0 , 1 ] .
Сначала найдём нормировку:
∫ 0 1 ∣ x − t ∣ d x = ∫ 0 t ( t − x ) d x + ∫ t 1 ( x − t ) d x . \int_0^1 |x-t|\,dx
=
\int_0^t (t-x)\,dx+\int_t^1 (x-t)\,dx. ∫ 0 1 ∣ x − t ∣ d x = ∫ 0 t ( t − x ) d x + ∫ t 1 ( x − t ) d x .
Получаем
∫ 0 t ( t − x ) d x = t 2 2 , \int_0^t (t-x)\,dx=\frac{t^2}{2}, ∫ 0 t ( t − x ) d x = 2 t 2 ,
∫ t 1 ( x − t ) d x = ( 1 − t ) 2 2 . \int_t^1 (x-t)\,dx=\frac{(1-t)^2}{2}. ∫ t 1 ( x − t ) d x = 2 ( 1 − t ) 2 .
Значит,
∫ 0 1 ∣ x − t ∣ d x = t 2 + ( 1 − t ) 2 2 . \int_0^1 |x-t|\,dx
=
\frac{t^2+(1-t)^2}{2}. ∫ 0 1 ∣ x − t ∣ d x = 2 t 2 + ( 1 − t ) 2 .
Теперь числитель для условного ожидания:
∫ 0 1 x ∣ x − t ∣ d x = ∫ 0 t x ( t − x ) d x + ∫ t 1 x ( x − t ) d x . \int_0^1 x|x-t|\,dx
=
\int_0^t x(t-x)\,dx+\int_t^1 x(x-t)\,dx. ∫ 0 1 x ∣ x − t ∣ d x = ∫ 0 t x ( t − x ) d x + ∫ t 1 x ( x − t ) d x .
Первая часть:
∫ 0 t x ( t − x ) d x = ∫ 0 t ( t x − x 2 ) d x = t 3 2 − t 3 3 = t 3 6 . \int_0^t x(t-x)\,dx
=
\int_0^t (tx-x^2)\,dx
=
\frac{t^3}{2}-\frac{t^3}{3}
=
\frac{t^3}{6}. ∫ 0 t x ( t − x ) d x = ∫ 0 t ( t x − x 2 ) d x = 2 t 3 − 3 t 3 = 6 t 3 .
Вторая часть:
∫ t 1 x ( x − t ) d x = ∫ t 1 ( x 2 − t x ) d x \int_t^1 x(x-t)\,dx
=
\int_t^1 (x^2-tx)\,dx ∫ t 1 x ( x − t ) d x = ∫ t 1 ( x 2 − t x ) d x
= 1 − t 3 3 − t ( 1 − t 2 ) 2 = 1 3 − t 2 + t 3 6 . =
\frac{1-t^3}{3}-\frac{t(1-t^2)}{2}
=
\frac13-\frac t2+\frac{t^3}{6}. = 3 1 − t 3 − 2 t ( 1 − t 2 ) = 3 1 − 2 t + 6 t 3 .
Поэтому
∫ 0 1 x ∣ x − t ∣ d x = t 3 6 + 1 3 − t 2 + t 3 6 = 1 3 − t 2 + t 3 3 . \int_0^1 x|x-t|\,dx
=
\frac{t^3}{6}+\frac13-\frac t2+\frac{t^3}{6}
=
\frac13-\frac t2+\frac{t^3}{3}. ∫ 0 1 x ∣ x − t ∣ d x = 6 t 3 + 3 1 − 2 t + 6 t 3 = 3 1 − 2 t + 3 t 3 .
Итак,
E ( X 1 ∣ X 2 = t ) = ∫ 0 1 x ∣ x − t ∣ d x ∫ 0 1 ∣ x − t ∣ d x . \mathbb E(X_1\mid X_2=t)
=
\frac{\int_0^1 x|x-t|\,dx}{\int_0^1 |x-t|\,dx}. E ( X 1 ∣ X 2 = t ) = ∫ 0 1 ∣ x − t ∣ d x ∫ 0 1 x ∣ x − t ∣ d x .
Следовательно,
E ( X 1 ∣ X 2 ) = 1 3 − X 2 2 + X 2 3 3 X 2 2 − X 2 + 1 2 . \boxed{
\mathbb E(X_1\mid X_2)
=
\frac{\frac13-\frac{X_2}{2}+\frac{X_2^3}{3}}
{X_2^2-X_2+\frac12}
}. E ( X 1 ∣ X 2 ) = X 2 2 − X 2 + 2 1 3 1 − 2 X 2 + 3 X 2 3 .
Эквивалентно можно записать так:
E ( X 1 ∣ X 2 ) = 2 X 2 3 − 3 X 2 + 2 6 X 2 2 − 6 X 2 + 3 . \boxed{
\mathbb E(X_1\mid X_2)
=
\frac{2X_2^3-3X_2+2}{6X_2^2-6X_2+3}
}. E ( X 1 ∣ X 2 ) = 6 X 2 2 − 6 X 2 + 3 2 X 2 3 − 3 X 2 + 2 .
Задача 2
Нужно найти
E ( X ∣ ∣ X ∣ ) = g ( ∣ X ∣ ) \mathbb E(X\mid |X|)=g(|X|) E ( X ∣ ∣ X ∣ ) = g ( ∣ X ∣ )
при условии, что X X X имеет плотность p p p .
Обозначим
Z = ∣ X ∣ . Z=|X|. Z = ∣ X ∣.
Для y > 0 y>0 y > 0 событие ∣ X ∣ = y |X|=y ∣ X ∣ = y соответствует двум возможностям:
X = y или X = − y . X=y \quad \text{или} \quad X=-y. X = y или X = − y .
Плотности в этих точках пропорциональны соответственно p ( y ) p(y) p ( y ) и p ( − y ) p(-y) p ( − y ) . Поэтому условное распределение X X X при ∣ X ∣ = y |X|=y ∣ X ∣ = y сосредоточено в двух точках:
P ( X = y ∣ ∣ X ∣ = y ) = p ( y ) p ( y ) + p ( − y ) , \mathbb P(X=y\mid |X|=y)=\frac{p(y)}{p(y)+p(-y)}, P ( X = y ∣ ∣ X ∣ = y ) = p ( y ) + p ( − y ) p ( y ) ,
P ( X = − y ∣ ∣ X ∣ = y ) = p ( − y ) p ( y ) + p ( − y ) . \mathbb P(X=-y\mid |X|=y)=\frac{p(-y)}{p(y)+p(-y)}. P ( X = − y ∣ ∣ X ∣ = y ) = p ( y ) + p ( − y ) p ( − y ) .
Тогда
g ( y ) = E ( X ∣ ∣ X ∣ = y ) g(y)
=
\mathbb E(X\mid |X|=y) g ( y ) = E ( X ∣ ∣ X ∣ = y )
= y p ( y ) p ( y ) + p ( − y ) + ( − y ) p ( − y ) p ( y ) + p ( − y ) . =
y\frac{p(y)}{p(y)+p(-y)}
+
(-y)\frac{p(-y)}{p(y)+p(-y)}. = y p ( y ) + p ( − y ) p ( y ) + ( − y ) p ( y ) + p ( − y ) p ( − y ) .
Значит,
g ( y ) = y p ( y ) − p ( − y ) p ( y ) + p ( − y ) , y > 0. \boxed{
g(y)=y\frac{p(y)-p(-y)}{p(y)+p(-y)},\qquad y>0.
} g ( y ) = y p ( y ) + p ( − y ) p ( y ) − p ( − y ) , y > 0.
Если p ( y ) + p ( − y ) = 0 p(y)+p(-y)=0 p ( y ) + p ( − y ) = 0 , значение g ( y ) g(y) g ( y ) можно задать произвольно, например g ( y ) = 0 g(y)=0 g ( y ) = 0 , потому что такие y y y не влияют на условное ожидание.
Также естественно положить
g ( 0 ) = 0. g(0)=0. g ( 0 ) = 0.
Итог:
E ( X ∣ ∣ X ∣ ) = ∣ X ∣ p ( ∣ X ∣ ) − p ( − ∣ X ∣ ) p ( ∣ X ∣ ) + p ( − ∣ X ∣ ) \boxed{
\mathbb E(X\mid |X|)
=
|X|\frac{p(|X|)-p(-|X|)}{p(|X|)+p(-|X|)}
} E ( X ∣ ∣ X ∣ ) = ∣ X ∣ p ( ∣ X ∣ ) + p ( − ∣ X ∣ ) p ( ∣ X ∣ ) − p ( − ∣ X ∣ )
там, где знаменатель положителен.
Задача 3
Пусть X , Y ∈ L 2 X,Y\in L^2 X , Y ∈ L 2 и
E ( Y ∣ M ) = X . \mathbb E(Y\mid \mathcal M)=X. E ( Y ∣ M ) = X .
Нужно доказать: если
E X 2 = E Y 2 , \mathbb E X^2=\mathbb E Y^2, E X 2 = E Y 2 ,
то
X = Y п.н. X=Y \quad \text{п.н.} X = Y п . н .
Так как X = E ( Y ∣ M ) X=\mathbb E(Y\mid \mathcal M) X = E ( Y ∣ M ) , величина X X X является M \mathcal M M -измеримой.
Рассмотрим
E ( Y − X ) 2 . \mathbb E(Y-X)^2. E ( Y − X ) 2 .
Раскрываем квадрат:
E ( Y − X ) 2 = E Y 2 − 2 E ( X Y ) + E X 2 . \mathbb E(Y-X)^2
=
\mathbb E Y^2-2\mathbb E(XY)+\mathbb E X^2. E ( Y − X ) 2 = E Y 2 − 2 E ( X Y ) + E X 2 .
Найдём E ( X Y ) \mathbb E(XY) E ( X Y ) . Так как X X X является M \mathcal M M -измеримой и X ∈ L 2 X\in L^2 X ∈ L 2 , имеем
E ( X Y ) = E { X E ( Y ∣ M ) } . \mathbb E(XY)
=
\mathbb E\{X\mathbb E(Y\mid \mathcal M)\}. E ( X Y ) = E { X E ( Y ∣ M )} .
Но
E ( Y ∣ M ) = X . \mathbb E(Y\mid \mathcal M)=X. E ( Y ∣ M ) = X .
Значит,
E ( X Y ) = E X 2 . \mathbb E(XY)=\mathbb E X^2. E ( X Y ) = E X 2 .
Тогда
E ( Y − X ) 2 = E Y 2 − 2 E X 2 + E X 2 = E Y 2 − E X 2 . \mathbb E(Y-X)^2
=
\mathbb E Y^2-2\mathbb E X^2+\mathbb E X^2
=
\mathbb E Y^2-\mathbb E X^2. E ( Y − X ) 2 = E Y 2 − 2 E X 2 + E X 2 = E Y 2 − E X 2 .
По условию
E X 2 = E Y 2 , \mathbb E X^2=\mathbb E Y^2, E X 2 = E Y 2 ,
поэтому
E ( Y − X ) 2 = 0. \mathbb E(Y-X)^2=0. E ( Y − X ) 2 = 0.
А значит,
Y − X = 0 п.н. Y-X=0 \quad \text{п.н.} Y − X = 0 п . н .
То есть
X = Y почти наверное . \boxed{X=Y \text{ почти наверное}.} X = Y почти наверное .
Задача 4
Нужно доказать, что случайная величина X X X и σ \sigma σ -алгебра M \mathcal M M независимы тогда и только тогда, когда для любой борелевской f f f , такой что E ∣ f ( X ) ∣ < ∞ \mathbb E|f(X)|<\infty E ∣ f ( X ) ∣ < ∞ , выполнено
E ( f ( X ) ∣ M ) = E f ( X ) . \mathbb E(f(X)\mid \mathcal M)=\mathbb E f(X). E ( f ( X ) ∣ M ) = E f ( X ) .
Необходимость
Пусть X X X и M \mathcal M M независимы.
Тогда σ ( X ) \sigma(X) σ ( X ) и M \mathcal M M независимы. Следовательно, для любой борелевской f f f случайная величина f ( X ) f(X) f ( X ) независима от M \mathcal M M .
Нужно проверить определение условного ожидания. Для любого A ∈ M A\in\mathcal M A ∈ M имеем
E [ 1 A f ( X ) ] = P ( A ) E f ( X ) , \mathbb E\bigl[1_A f(X)\bigr]
=
\mathbb P(A)\mathbb E f(X), E [ 1 A f ( X ) ] = P ( A ) E f ( X ) ,
поскольку 1 A 1_A 1 A и f ( X ) f(X) f ( X ) независимы.
С другой стороны,
E [ 1 A E f ( X ) ] = E f ( X ) ⋅ P ( A ) . \mathbb E\bigl[1_A\mathbb E f(X)\bigr]
=
\mathbb E f(X)\cdot \mathbb P(A). E [ 1 A E f ( X ) ] = E f ( X ) ⋅ P ( A ) .
Значит,
E [ 1 A f ( X ) ] = E [ 1 A E f ( X ) ] \mathbb E\bigl[1_A f(X)\bigr]
=
\mathbb E\bigl[1_A\mathbb E f(X)\bigr] E [ 1 A f ( X ) ] = E [ 1 A E f ( X ) ]
для любого A ∈ M A\in\mathcal M A ∈ M . По определению условного ожидания это означает, что
E ( f ( X ) ∣ M ) = E f ( X ) . \boxed{
\mathbb E(f(X)\mid \mathcal M)=\mathbb E f(X).
} E ( f ( X ) ∣ M ) = E f ( X ) .
Достаточность
Теперь пусть для любой подходящей борелевской f f f
E ( f ( X ) ∣ M ) = E f ( X ) . \mathbb E(f(X)\mid \mathcal M)=\mathbb E f(X). E ( f ( X ) ∣ M ) = E f ( X ) .
Возьмём произвольное борелевское множество B ⊂ R B\subset\mathbb R B ⊂ R и положим
f ( x ) = 1 B ( x ) . f(x)=1_B(x). f ( x ) = 1 B ( x ) .
Тогда
f ( X ) = 1 { X ∈ B } . f(X)=1_{\{X\in B\}}. f ( X ) = 1 { X ∈ B } .
По условию
E ( 1 { X ∈ B } ∣ M ) = P ( X ∈ B ) . \mathbb E(1_{\{X\in B\}}\mid \mathcal M)
=
\mathbb P(X\in B). E ( 1 { X ∈ B } ∣ M ) = P ( X ∈ B ) .
Теперь для любого A ∈ M A\in\mathcal M A ∈ M
P ( A ∩ { X ∈ B } ) = E [ 1 A 1 { X ∈ B } ] . \mathbb P(A\cap \{X\in B\})
=
\mathbb E\bigl[1_A1_{\{X\in B\}}\bigr]. P ( A ∩ { X ∈ B }) = E [ 1 A 1 { X ∈ B } ] .
Используем условное ожидание:
E [ 1 A 1 { X ∈ B } ] = E [ 1 A E ( 1 { X ∈ B } ∣ M ) ] . \mathbb E\bigl[1_A1_{\{X\in B\}}\bigr]
=
\mathbb E\left[1_A\mathbb E(1_{\{X\in B\}}\mid \mathcal M)\right]. E [ 1 A 1 { X ∈ B } ] = E [ 1 A E ( 1 { X ∈ B } ∣ M ) ] .
Подставляем условие:
= E [ 1 A P ( X ∈ B ) ] = P ( X ∈ B ) P ( A ) . =
\mathbb E\left[1_A\mathbb P(X\in B)\right]
=
\mathbb P(X\in B)\mathbb P(A). = E [ 1 A P ( X ∈ B ) ] = P ( X ∈ B ) P ( A ) .
То есть
P ( A ∩ { X ∈ B } ) = P ( A ) P ( X ∈ B ) \mathbb P(A\cap \{X\in B\})
=
\mathbb P(A)\mathbb P(X\in B) P ( A ∩ { X ∈ B }) = P ( A ) P ( X ∈ B )
для всех A ∈ M A\in\mathcal M A ∈ M и всех борелевских B B B . Это ровно означает независимость M \mathcal M M и X X X .
Следовательно,
X и M независимы ⟺ E ( f ( X ) ∣ M ) = E f ( X ) . \boxed{
X \text{ и } \mathcal M \text{ независимы}
\iff
\mathbb E(f(X)\mid\mathcal M)=\mathbb E f(X).
} X и M независимы ⟺ E ( f ( X ) ∣ M ) = E f ( X ) .
Задача 5
Пусть X , Y X,Y X , Y независимы и имеют экспоненциальное распределение с параметром 1 1 1 . Нужно найти
E ( f ( X , Y ) ∣ X + Y ) \mathbb E(f(X,Y)\mid X+Y) E ( f ( X , Y ) ∣ X + Y )
для ограниченной измеримой f : R 2 → R f:\mathbb R^2\to\mathbb R f : R 2 → R .
Обозначим
S = X + Y . S=X+Y. S = X + Y .
Совместная плотность X , Y X,Y X , Y :
p X , Y ( x , y ) = e − x e − y 1 { x ≥ 0 , y ≥ 0 } = e − ( x + y ) 1 { x ≥ 0 , y ≥ 0 } . p_{X,Y}(x,y)=e^{-x}e^{-y}1_{\{x\ge 0,y\ge 0\}}
=
e^{-(x+y)}1_{\{x\ge 0,y\ge 0\}}. p X , Y ( x , y ) = e − x e − y 1 { x ≥ 0 , y ≥ 0 } = e − ( x + y ) 1 { x ≥ 0 , y ≥ 0 } .
При фиксированном значении
S = s S=s S = s
точки ( X , Y ) (X,Y) ( X , Y ) лежат на отрезке
x + y = s , x ∈ [ 0 , s ] , y = s − x . x+y=s,\qquad x\in[0,s],\quad y=s-x. x + y = s , x ∈ [ 0 , s ] , y = s − x .
На этом отрезке плотность равна
e − s , e^{-s}, e − s ,
то есть не зависит от x x x . Поэтому условно при X + Y = s X+Y=s X + Y = s величина X X X равномерна на [ 0 , s ] [0,s] [ 0 , s ] , а Y = s − X Y=s-X Y = s − X .
Значит,
E ( f ( X , Y ) ∣ X + Y = s ) = 1 s ∫ 0 s f ( u , s − u ) d u . \mathbb E(f(X,Y)\mid X+Y=s)
=
\frac1s\int_0^s f(u,s-u)\,du. E ( f ( X , Y ) ∣ X + Y = s ) = s 1 ∫ 0 s f ( u , s − u ) d u .
Следовательно,
E ( f ( X , Y ) ∣ X + Y ) = 1 X + Y ∫ 0 X + Y f ( u , X + Y − u ) d u \boxed{
\mathbb E(f(X,Y)\mid X+Y)
=
\frac{1}{X+Y}\int_0^{X+Y} f(u,X+Y-u)\,du
} E ( f ( X , Y ) ∣ X + Y ) = X + Y 1 ∫ 0 X + Y f ( u , X + Y − u ) d u
почти наверное. Значение при X + Y = 0 X+Y=0 X + Y = 0 можно задать произвольно, потому что
P ( X + Y = 0 ) = 0. \mathbb P(X+Y=0)=0. P ( X + Y = 0 ) = 0.
Задача 6
Пусть X X X ограничена, а
F n ⊂ G n ⊂ H n . \mathcal F_n\subset \mathcal G_n\subset \mathcal H_n. F n ⊂ G n ⊂ H n .
Дано:
E ( X ∣ F n ) → P Y , \mathbb E(X\mid \mathcal F_n)\xrightarrow{\mathbb P} Y, E ( X ∣ F n ) P Y ,
E ( X ∣ H n ) → P Y . \mathbb E(X\mid \mathcal H_n)\xrightarrow{\mathbb P} Y. E ( X ∣ H n ) P Y .
Нужно доказать:
E ( X ∣ G n ) → P Y . \mathbb E(X\mid \mathcal G_n)\xrightarrow{\mathbb P} Y. E ( X ∣ G n ) P Y .
Обозначим
A n = E ( X ∣ F n ) , A_n=\mathbb E(X\mid \mathcal F_n), A n = E ( X ∣ F n ) ,
B n = E ( X ∣ G n ) , B_n=\mathbb E(X\mid \mathcal G_n), B n = E ( X ∣ G n ) ,
C n = E ( X ∣ H n ) . C_n=\mathbb E(X\mid \mathcal H_n). C n = E ( X ∣ H n ) .
Так как X X X ограничена, то все A n , B n , C n A_n,B_n,C_n A n , B n , C n также равномерно ограничены:
∣ A n ∣ , ∣ B n ∣ , ∣ C n ∣ ≤ ∥ X ∥ ∞ . |A_n|,|B_n|,|C_n|\le \|X\|_\infty. ∣ A n ∣ , ∣ B n ∣ , ∣ C n ∣ ≤ ∥ X ∥ ∞ .
Из сходимости по вероятности и равномерной ограниченности следует сходимость в L 2 L^2 L 2 . Поэтому
A n → Y в L 2 , A_n\to Y \quad \text{в } L^2, A n → Y в L 2 ,
C n → Y в L 2 . C_n\to Y \quad \text{в } L^2. C n → Y в L 2 .
Теперь используем вложенность σ \sigma σ -алгебр:
F n ⊂ G n ⊂ H n . \mathcal F_n\subset \mathcal G_n\subset \mathcal H_n. F n ⊂ G n ⊂ H n .
По свойству башни условного ожидания:
E ( C n ∣ G n ) = E ( E ( X ∣ H n ) ∣ G n ) = E ( X ∣ G n ) = B n . \mathbb E(C_n\mid \mathcal G_n)
=
\mathbb E(\mathbb E(X\mid\mathcal H_n)\mid \mathcal G_n)
=
\mathbb E(X\mid \mathcal G_n)
=
B_n. E ( C n ∣ G n ) = E ( E ( X ∣ H n ) ∣ G n ) = E ( X ∣ G n ) = B n .
Также A n A_n A n является F n \mathcal F_n F n -измеримой, а значит и G n \mathcal G_n G n -измеримой. Поэтому
E ( C n − A n ∣ G n ) = E ( C n ∣ G n ) − A n = B n − A n . \mathbb E(C_n-A_n\mid \mathcal G_n)
=
\mathbb E(C_n\mid \mathcal G_n)-A_n
=
B_n-A_n. E ( C n − A n ∣ G n ) = E ( C n ∣ G n ) − A n = B n − A n .
Используем сжатие условного ожидания в L 2 L^2 L 2 :
∥ B n − A n ∥ 2 = ∥ E ( C n − A n ∣ G n ) ∥ 2 ≤ ∥ C n − A n ∥ 2 . \|B_n-A_n\|_2
=
\|\mathbb E(C_n-A_n\mid \mathcal G_n)\|_2
\le
\|C_n-A_n\|_2. ∥ B n − A n ∥ 2 = ∥ E ( C n − A n ∣ G n ) ∥ 2 ≤ ∥ C n − A n ∥ 2 .
Теперь оценим:
∥ B n − Y ∥ 2 ≤ ∥ B n − A n ∥ 2 + ∥ A n − Y ∥ 2 . \|B_n-Y\|_2
\le
\|B_n-A_n\|_2+\|A_n-Y\|_2. ∥ B n − Y ∥ 2 ≤ ∥ B n − A n ∥ 2 + ∥ A n − Y ∥ 2 .
Следовательно,
∥ B n − Y ∥ 2 ≤ ∥ C n − A n ∥ 2 + ∥ A n − Y ∥ 2 . \|B_n-Y\|_2
\le
\|C_n-A_n\|_2+\|A_n-Y\|_2. ∥ B n − Y ∥ 2 ≤ ∥ C n − A n ∥ 2 + ∥ A n − Y ∥ 2 .
А
∥ C n − A n ∥ 2 ≤ ∥ C n − Y ∥ 2 + ∥ A n − Y ∥ 2 . \|C_n-A_n\|_2
\le
\|C_n-Y\|_2+\|A_n-Y\|_2. ∥ C n − A n ∥ 2 ≤ ∥ C n − Y ∥ 2 + ∥ A n − Y ∥ 2 .
Итого
∥ B n − Y ∥ 2 ≤ ∥ C n − Y ∥ 2 + 2 ∥ A n − Y ∥ 2 . \|B_n-Y\|_2
\le
\|C_n-Y\|_2+2\|A_n-Y\|_2. ∥ B n − Y ∥ 2 ≤ ∥ C n − Y ∥ 2 + 2∥ A n − Y ∥ 2 .
Правая часть стремится к нулю, значит
B n → Y в L 2 . B_n\to Y \quad \text{в } L^2. B n → Y в L 2 .
А сходимость в L 2 L^2 L 2 влечёт сходимость по вероятности. Поэтому
E ( X ∣ G n ) → P Y . \boxed{
\mathbb E(X\mid \mathcal G_n)\xrightarrow{\mathbb P} Y.
} E ( X ∣ G n ) P Y .
Задача 7
Пусть случайные величины
X X X
и
E ( X ∣ M ) \mathbb E(X\mid \mathcal M) E ( X ∣ M )
независимы. Нужно доказать:
E ( X ∣ M ) = E X . \mathbb E(X\mid \mathcal M)=\mathbb E X. E ( X ∣ M ) = E X .
Обозначим
Z = E ( X ∣ M ) . Z=\mathbb E(X\mid \mathcal M). Z = E ( X ∣ M ) .
Тогда Z Z Z является M \mathcal M M -измеримой, и по определению условного ожидания для любой ограниченной борелевской функции φ \varphi φ
E [ X φ ( Z ) ] = E [ Z φ ( Z ) ] . \mathbb E[X\varphi(Z)]
=
\mathbb E[Z\varphi(Z)]. E [ Xφ ( Z )] = E [ Zφ ( Z )] .
Почему? Потому что φ ( Z ) \varphi(Z) φ ( Z ) является M \mathcal M M -измеримой и ограниченной, значит её можно использовать как множитель при условном ожидании:
E [ X φ ( Z ) ] = E [ E ( X ∣ M ) φ ( Z ) ] = E [ Z φ ( Z ) ] . \mathbb E[X\varphi(Z)]
=
\mathbb E[\mathbb E(X\mid\mathcal M)\varphi(Z)]
=
\mathbb E[Z\varphi(Z)]. E [ Xφ ( Z )] = E [ E ( X ∣ M ) φ ( Z )] = E [ Zφ ( Z )] .
С другой стороны, X X X и Z Z Z независимы, значит X X X и φ ( Z ) \varphi(Z) φ ( Z ) тоже независимы. Поэтому
E [ X φ ( Z ) ] = E X ⋅ E φ ( Z ) . \mathbb E[X\varphi(Z)]
=
\mathbb E X\cdot \mathbb E\varphi(Z). E [ Xφ ( Z )] = E X ⋅ E φ ( Z ) .
Обозначим
m = E X . m=\mathbb E X. m = E X .
Тогда
E [ Z φ ( Z ) ] = m E φ ( Z ) . \mathbb E[Z\varphi(Z)]
=
m\mathbb E\varphi(Z). E [ Zφ ( Z )] = m E φ ( Z ) .
То есть
E [ ( Z − m ) φ ( Z ) ] = 0 \mathbb E[(Z-m)\varphi(Z)]=0 E [( Z − m ) φ ( Z )] = 0
для любой ограниченной борелевской φ \varphi φ .
Теперь возьмём
φ ( z ) = 1 { z > m } . \varphi(z)=1_{\{z>m\}}. φ ( z ) = 1 { z > m } .
Тогда
E [ ( Z − m ) 1 { Z > m } ] = 0. \mathbb E[(Z-m)1_{\{Z>m\}}]=0. E [( Z − m ) 1 { Z > m } ] = 0.
Но подынтегральная величина неотрицательна, значит
( Z − m ) 1 { Z > m } = 0 п.н. (Z-m)1_{\{Z>m\}}=0 \quad \text{п.н.} ( Z − m ) 1 { Z > m } = 0 п . н .
Следовательно,
P ( Z > m ) = 0. \mathbb P(Z>m)=0. P ( Z > m ) = 0.
Аналогично берём
φ ( z ) = 1 { z < m } . \varphi(z)=1_{\{z<m\}}. φ ( z ) = 1 { z < m } .
Получаем
E [ ( Z − m ) 1 { Z < m } ] = 0. \mathbb E[(Z-m)1_{\{Z<m\}}]=0. E [( Z − m ) 1 { Z < m } ] = 0.
Теперь подынтегральная величина неположительна, поэтому она тоже должна быть равна нулю почти наверное. Значит,
P ( Z < m ) = 0. \mathbb P(Z<m)=0. P ( Z < m ) = 0.
Итак,
P ( Z > m ) = 0 , P ( Z < m ) = 0. \mathbb P(Z>m)=0,\qquad \mathbb P(Z<m)=0. P ( Z > m ) = 0 , P ( Z < m ) = 0.
Следовательно,
Z = m п.н. Z=m \quad \text{п.н.} Z = m п . н .
То есть
E ( X ∣ M ) = E X . \boxed{
\mathbb E(X\mid \mathcal M)=\mathbb E X.
} E ( X ∣ M ) = E X .