数学期望

Jun 27th, 2020
  • 在其它设备中阅读本文章

前置知识

随机变量, 分布函数, 定积分, 当然下面基本有讲.

随机变量

这个... 可以去看数学课本或者另一篇题解.

但是要讲一下连续型随机变量的定义. 称一个 随机变量 $X$ 是连续型随机变量 当且仅当存在 非负连续 函数 $f(x)$ 满足

$$ \forall x,F(x)=\int_{-\infty}^xf(t)dt $$

有关定积分 (即 $\int$) 在后面有讲.

分布函数

设对于一个随机变量 $X$, 称

$$ F(x_0\in\mathbb R)=P(X<x_0) $$

为它的分布函数, 即 $F(x_0)$ 表示随机变量 $X$ 的取值小于 $x_0$ 的概率. 这样显然有

非降性

$$ \forall x_1<x_2,x_1,x_2\in\mathbb R\Rightarrow F(x_1)\le F(x_2) $$

显然.

有界性

$$ 0\le F(x_0)\le1 $$

更具体地,

$$ F(-\infty)=0,\quad F(+\infty)=1 $$

感性理解, 在数轴上, 当 $x_0$ 无限向左移动时, 随机点 $X$ 落在 $x_0$ 左边趋近不可能, 当 $x_0$ 无限向右移动时, 随机点 $X$ 落在 $x_0$ 左边趋近必然.

右连续性

$$ F(x_0)=F(x_0+0) $$

这个东西看起来就很抽象, 所以需要感性的理解. 对于一个函数 $f_a(x)=\begin{cases}1,&x\le1\\2,&x>1\end{cases}$, 在 $x\to1^+$($x$ 无限接近 $1$ 但是大于 $1$)时有 $\lim_\limits{x\to1^+}f_a(x)=2\not=f_a(1)=1$(因为还没有取到 $1$, 即此时仍有 $x>1$). 这样就称函数 $f_a(x)$ 在 $1$ 处不是右连续的. 但对于函数 $f_b(x)=\begin{cases}1,&x<1\\2,&x\ge1\end{cases}$, 因为 $\lim_\limits{x\to1^+}f_b(x)=f_b(1)=2$, 所以称函数 $f_b(x)$ 在 $1$ 处是右连续的.

推广一下,函数 $f(x)$ 在 $x_0$ 处是右连续的, 当且仅当

$$ \lim_\limits{x\to x_0^+}f(x)=f(x_0) $$

类似地定义左连续和连续,函数 $f(x)$ 在 $x_0$ 处是左连续的, 当且仅当

$$ \lim_\limits{x\to x_0^-}f(x)=f(x_0) $$

函数 $f(x)$ 在 $x_0$ 处是连续的, 当且仅当

$$ \lim_\limits{x\to x_0^-}f(x)=\lim_\limits{x\to x_0^+}f(x)=f(x_0) $$

即当一个函数在一个点既左连续又右连续, 这个函数在这个点连续.

对于一个连续型随机变量,$F(x)$ 显然是连续的 (感性理解), 自然也是右连续的. 而对于离散型随机变量, 举个分布函数的例子来理解一下. 对于 $X$ 满足 $\mathrm P(X=1)=\mathrm P(X=2)=0.5$, 写出分布函数 $F(x)=\begin{cases}0.5,&1\le x<2\\1,&x\ge2\end{cases}$, 则看出 $\lim_\limits{x\to1}F(x)=F(x)$, 当然对于 $2$ 也类似, 所以这个也是右连续的. 以及, 看出对于 $F(x)=0.5$ 时 $x\in[1,2)$ 是一个左闭右开的区间, 也就是区间的最左端是取得到的. 所以它也是右连续的.

定积分

定义

设函数 $f(x)$ 在 $[a,b]$ 上连续, 将 $[a,b]$ 划分成 $n$ 个子区间 $[x_0,x_1],(x_1,x_2],\dots,(x_{n-1},x_n]$, 则区间长依次为 $\Delta x_1,\Delta x_2,\dots,\Delta x_n$, 其中 $\Delta x_i=x_i-x_{i-1}$. 取 $\xi_i\in(x_{i-1},x_i)$, 求

$$ \sum_{i=1}^nf(\xi_i)\Delta x_i $$

若 $\max\{\Delta x_1,\Delta x_2,\dots,\Delta x_n\}\to0$ 时该式的极限存在, 则称该极限为 $f(x)$ 在 $[a,b]$ 上的定积分, 记作

$$ \int_a^bf(x)dx $$

之所以是叫定积分, 是因为积出来的结果是一个常数 (即刚才那个式子的极限). 其中 $d$ 代表 $\Delta$, 与此同时, 称 $f(x)$ 在 $[a,b]$ 上可积.

基本运算

$$ \int_a^b\lambda f(x)dx=\lambda\int_a^bf(x)dx $$

即常数可以提到积分符号外.

$$ \int_a^b(f(x)+g(x))dx=\int_a^bf(x)dx+\int_a^bg(x)dx $$

即对两个函数的和积分, 等于对两个函数分别积分再求和.

期望的定义

数学期望也称均值, 听起来就和求加权平均数有很大关系.

离散型

$$ \mathrm E(X)=\sum p_iX_i $$

即对于离散型随机变量, 期望是随机变量取值乘上对应概率的和.

连续型

$$ \mathrm E(X)=\int_{-\infty}^{+\infty}x_0f(x_0)dx_0 $$

这是定义, 我也不很懂怎么证这个, 有问题还是请自己搜一下. 其中 $f(x_0)$ 是 $X$ 的概率密度函数, 表示 $X$ 的取值在 $x_0$ 附近的概率.

虽然不是很懂, 但是可以大致理解一下这个式子.$f(x_0)$ 表示概率, 也就是说这个式子本质上还是一种 $ 概率 \times 取值 $ 的形式, 和离散型随机变量很像.

期望的性质

$\mathrm E(\alpha)=\alpha$

$$ \mathrm E(\alpha)=\alpha $$

常数的期望是它本身, 因为取值就只有它本身一种可能.

$\mathrm E(XY)=\mathrm E(X)\mathrm E(Y)$

如果 $X$ 和 $Y$ 不相关

$$ \mathrm E(XY)=\mathrm E(X)\mathrm E(Y) $$

期望的线性性

$$ \mathrm E(\alpha X+\beta Y)=\alpha\mathrm E(X)+\beta\mathrm E(Y) $$

期望的本质是积分, 所以期望的线性性即是积分的线性性.

证明

对于离散型随机变量

$$ \mathrm E(\alpha X+\beta Y){=\sum p_i(\alpha X_i+\beta Y_i)\\ =\alpha\sum p_iX_i+\beta\sum p_iY_i\\ =\alpha\mathrm E(X)+\beta\mathrm E(Y) } $$

对于连续型随机变量

将上面提到的积分运算定律带进来,$f(x)$ 和 $g(x)$ 分别是 $X$ 和 $Y$ 的概率密度函数, 有

$$ \mathrm E(\alpha X+\beta Y){=\int_{-\infty}^{+\infty}(\alpha x_0f(x_0)+\beta x_0g(x_0))dx_0\\ =\int_{-\infty}^{+\infty}\alpha x_0f(x_0)dx_0+\int_{-\infty}^{+\infty}\beta x_0g(x_0)dx_0\\ =\alpha\int_{-\infty}^{+\infty}x_0f(x_0)dx_0+\beta\int_{-\infty}^{+\infty}x_0g(x_0)dx_0\\ =\alpha\mathrm E(X)+\beta\mathrm E(Y) } $$

其实离散型和连续性证法很像, 只要换一下 $\sum$ 和 $\int$ 就好了.

owo

mo-ha