数学期望
前置知识
随机变量, 分布函数, 定积分, 当然下面基本有讲.
随机变量
这个... 可以去看数学课本或者另一篇题解.
但是要讲一下连续型随机变量的定义. 称一个 随机变量 $X$ 是连续型随机变量 当且仅当存在 非负连续 函数 $f(x)$ 满足
$$ \forall x,F(x)=\int_{-\infty}^xf(t)dt $$
有关定积分 (即 $\int$) 在后面有讲.
分布函数
设对于一个随机变量 $X$, 称
$$ F(x_0\in\mathbb R)=P(X<x_0) $$
为它的分布函数, 即 $F(x_0)$ 表示随机变量 $X$ 的取值小于 $x_0$ 的概率. 这样显然有
非降性
$$ \forall x_1<x_2,x_1,x_2\in\mathbb R\Rightarrow F(x_1)\le F(x_2) $$
显然.
有界性
$$ 0\le F(x_0)\le1 $$
更具体地,
$$ F(-\infty)=0,\quad F(+\infty)=1 $$
感性理解, 在数轴上, 当 $x_0$ 无限向左移动时, 随机点 $X$ 落在 $x_0$ 左边趋近不可能, 当 $x_0$ 无限向右移动时, 随机点 $X$ 落在 $x_0$ 左边趋近必然.
右连续性
$$ F(x_0)=F(x_0+0) $$
这个东西看起来就很抽象, 所以需要感性的理解. 对于一个函数 $f_a(x)=\begin{cases}1,&x\le1\\2,&x>1\end{cases}$, 在 $x\to1^+$($x$ 无限接近 $1$ 但是大于 $1$)时有 $\lim_\limits{x\to1^+}f_a(x)=2\not=f_a(1)=1$(因为还没有取到 $1$, 即此时仍有 $x>1$). 这样就称函数 $f_a(x)$ 在 $1$ 处不是右连续的. 但对于函数 $f_b(x)=\begin{cases}1,&x<1\\2,&x\ge1\end{cases}$, 因为 $\lim_\limits{x\to1^+}f_b(x)=f_b(1)=2$, 所以称函数 $f_b(x)$ 在 $1$ 处是右连续的.
推广一下,函数 $f(x)$ 在 $x_0$ 处是右连续的, 当且仅当
$$ \lim_\limits{x\to x_0^+}f(x)=f(x_0) $$
类似地定义左连续和连续,函数 $f(x)$ 在 $x_0$ 处是左连续的, 当且仅当
$$ \lim_\limits{x\to x_0^-}f(x)=f(x_0) $$
函数 $f(x)$ 在 $x_0$ 处是连续的, 当且仅当
$$ \lim_\limits{x\to x_0^-}f(x)=\lim_\limits{x\to x_0^+}f(x)=f(x_0) $$
即当一个函数在一个点既左连续又右连续, 这个函数在这个点连续.
对于一个连续型随机变量,$F(x)$ 显然是连续的 (感性理解), 自然也是右连续的. 而对于离散型随机变量, 举个分布函数的例子来理解一下. 对于 $X$ 满足 $\mathrm P(X=1)=\mathrm P(X=2)=0.5$, 写出分布函数 $F(x)=\begin{cases}0.5,&1\le x<2\\1,&x\ge2\end{cases}$, 则看出 $\lim_\limits{x\to1}F(x)=F(x)$, 当然对于 $2$ 也类似, 所以这个也是右连续的. 以及, 看出对于 $F(x)=0.5$ 时 $x\in[1,2)$ 是一个左闭右开的区间, 也就是区间的最左端是取得到的. 所以它也是右连续的.
定积分
定义
设函数 $f(x)$ 在 $[a,b]$ 上连续, 将 $[a,b]$ 划分成 $n$ 个子区间 $[x_0,x_1],(x_1,x_2],\dots,(x_{n-1},x_n]$, 则区间长依次为 $\Delta x_1,\Delta x_2,\dots,\Delta x_n$, 其中 $\Delta x_i=x_i-x_{i-1}$. 取 $\xi_i\in(x_{i-1},x_i)$, 求
$$ \sum_{i=1}^nf(\xi_i)\Delta x_i $$
若 $\max\{\Delta x_1,\Delta x_2,\dots,\Delta x_n\}\to0$ 时该式的极限存在, 则称该极限为 $f(x)$ 在 $[a,b]$ 上的定积分, 记作
$$ \int_a^bf(x)dx $$
之所以是叫定积分, 是因为积出来的结果是一个常数 (即刚才那个式子的极限). 其中 $d$ 代表 $\Delta$, 与此同时, 称 $f(x)$ 在 $[a,b]$ 上可积.
基本运算
$$ \int_a^b\lambda f(x)dx=\lambda\int_a^bf(x)dx $$
即常数可以提到积分符号外.
$$ \int_a^b(f(x)+g(x))dx=\int_a^bf(x)dx+\int_a^bg(x)dx $$
即对两个函数的和积分, 等于对两个函数分别积分再求和.
期望的定义
数学期望也称均值, 听起来就和求加权平均数有很大关系.
离散型
$$ \mathrm E(X)=\sum p_iX_i $$
即对于离散型随机变量, 期望是随机变量取值乘上对应概率的和.
连续型
$$ \mathrm E(X)=\int_{-\infty}^{+\infty}x_0f(x_0)dx_0 $$
这是定义, 我也不很懂怎么证这个, 有问题还是请自己搜一下. 其中 $f(x_0)$ 是 $X$ 的概率密度函数, 表示 $X$ 的取值在 $x_0$ 附近的概率.
虽然不是很懂, 但是可以大致理解一下这个式子.$f(x_0)$ 表示概率, 也就是说这个式子本质上还是一种 $ 概率 \times 取值 $ 的形式, 和离散型随机变量很像.
期望的性质
$\mathrm E(\alpha)=\alpha$
$$ \mathrm E(\alpha)=\alpha $$
常数的期望是它本身, 因为取值就只有它本身一种可能.
$\mathrm E(XY)=\mathrm E(X)\mathrm E(Y)$
如果 $X$ 和 $Y$ 不相关
$$ \mathrm E(XY)=\mathrm E(X)\mathrm E(Y) $$
期望的线性性
$$ \mathrm E(\alpha X+\beta Y)=\alpha\mathrm E(X)+\beta\mathrm E(Y) $$
期望的本质是积分, 所以期望的线性性即是积分的线性性.
证明
对于离散型随机变量
$$ \mathrm E(\alpha X+\beta Y){=\sum p_i(\alpha X_i+\beta Y_i)\\ =\alpha\sum p_iX_i+\beta\sum p_iY_i\\ =\alpha\mathrm E(X)+\beta\mathrm E(Y) } $$
对于连续型随机变量
将上面提到的积分运算定律带进来,$f(x)$ 和 $g(x)$ 分别是 $X$ 和 $Y$ 的概率密度函数, 有
$$ \mathrm E(\alpha X+\beta Y){=\int_{-\infty}^{+\infty}(\alpha x_0f(x_0)+\beta x_0g(x_0))dx_0\\ =\int_{-\infty}^{+\infty}\alpha x_0f(x_0)dx_0+\int_{-\infty}^{+\infty}\beta x_0g(x_0)dx_0\\ =\alpha\int_{-\infty}^{+\infty}x_0f(x_0)dx_0+\beta\int_{-\infty}^{+\infty}x_0g(x_0)dx_0\\ =\alpha\mathrm E(X)+\beta\mathrm E(Y) } $$
其实离散型和连续性证法很像, 只要换一下 $\sum$ 和 $\int$ 就好了.