Vamei博客学习笔记(5)
发布日期:2021-05-07 14:31:27 浏览次数:15 分类:精选文章

本文共 2568 字,大约阅读时间需要 8 分钟。

本文取自:

  • 描述量(descriptor)

    描述随机变量最完备的方法是写出该随机变量的概率分布

    概率分步包含了该随机变量的所有信息,全而大,我们填写报名表上面有几栏:姓名、出生年月、性别、民族…这些信息就可以表示一个人,并不需要写上血型、指甲长短、瞳距…尽管这些信息也是描述这个人的一部分,同样的代表随机变量的主要特征的一些量称为随机变量的描述量(descriptor)。比如期望用于表示分布的中心位置,方差用于表示分布的分散程度等等。

  • 期望(expectation)

    概率值权重,加权平均所有可能的取值,来获得了该随机变量的期望(expectation):

    E ( x ) = ∑ i x i p ( x i ) E(x)=\sum_ix_ip(x_i) E(x)=ixip(xi)
    如果某个取值概率较大,那么它就在最终结果中占据较大的分量。

    期望常用字母 μ μ μ表示(分布的参数 μ μ μ就是正态分布的期望!这也是 μ μ μ常用于表示期望的原因。),我们将期望写成 E ( X ) E(X) E(X),这表示的是一个数值,而不是一个随机变量的函数

    期望是在事件还没确定时,根据概率,对平均结果估计

期望是一个线性运算。随机变量线性组合的期望,等于期望的线性组合。

  • 方差(variance)

    期望表示的是分布的中心位置,那么方差就是分布的离散程度。

    方 差 : V a r ( X ) = E [ ( X − μ ) 2 ] 标 准 差 : σ = V a r ( X ) 方差:Var(X)=E[(X-\mu)^2]\\标准差:\sigma = \sqrt{Var(X)} :Var(X)=E[(Xμ)2]σ=Var(X)
    正态分布的标准差正等于正态分布中的参数 σ σ σ。这正是我们使用字母 σ σ σ来表示标准差的原因!

  • Chebyshev不等式

    对于任意随机变量 X X X,如果它的期望为 μ μ μ,方差为 σ 2 σ^2 σ2,那么对于任意 t > 0 t>0 t>0

    P ( ∣ X − μ ∣ > t ) ≤ σ 2 t 2 P(|X-\mu|>t) \leq \frac{\sigma ^2}{t^2} P(Xμ>t)t2σ2

  • 斜度(skewness)

    S k e w ( X ) = E [ ( X − μ ) 3 ] Skew(X)=E[(X-\mu)^3] Skew(X)=E[(Xμ)3]

  • 矩(moment)

    1. 中心矩(central moment)

      方差和斜度在计算形式上类似,都是 ( X − μ ) (X-\mu) (Xμ)乘方的期望,都可以称为中心矩(central moment)。称为​ k k k阶中心矩。表示为​ μ k \mu_k μk,其中​ k = 2 , 3 , . . . k=2,3,... k=23...

    2. 原点矩(moment about the origin)

      X X X乘方的期望,称为原点矩

      E [ X k ] E[X^k] E[Xk]称为k阶原点矩,表示为 μ k ‘ \mu^`_k μk

      期望是一阶原点矩。

  • 矩生成函数(moment generating function)

    1. 幂级数(power series)

      幂级数是不同阶数的乘方的加权总和:

      ∑ i = 1 + ∞ a i x i \sum^{+\infty}_{i=1}a_ix^i i=1+aixi
      解析函数都可以写成幂级数的形式,比如三角函数sin(x)sin⁡(x)可以写成:
      s i n ( x ) = x − x 3 3 ! + x 5 5 ! − x 7 7 ! + . . . sin(x)=x-\frac{x^3}{3!}+\frac{x^5}{5!}-\frac{x^7}{7!}+... sin(x)=x3!x3+5!x57!x7+...
      解析函数分解为幂级数的过程,就是泰勒分解(Taylor)。

    2. 矩生成函数

      矩生成函数的这一定义基于期望,因此可以使用期望的一些性质

  • 协方差(covariance)

    方差和均值是单个随机变量的描述量,对于两个随机变量之间关系的描述量有协方差、相关系数

    协方差的定义基于期望。

    C o v ( X , Y ) = E [ ( X − μ X ) ( Y − μ Y ) ] Cov(X,Y)=E[(X-\mu_X)(Y-\mu_Y)] Cov(X,Y)=E[(XμX)(YμY)]
    正的协方差表达了正相关性,负的协方差表达了负相关性。对于同样的两个随机变量来说,计算出的协方差越大,相关性越强。

  • 相关系数(correlation coefficient)

    相关系数是**“归一化”**的协方差。相关系数是用协方差除以两个随机变量的标准差。相关系数的大小在-1和1之间变化.它的定义如下:

    ρ = C o v ( X , Y ) V a r ( X ) V a r ( Y ) \rho = \frac{Cov(X,Y)}{\sqrt{Var(X)Var(Y)}} ρ=Var(X)Var(Y) Cov(X,Y)

  • 整体看概率论

    在整个概率论中,核心的问题是随机变量的分布。

    许多结论都是依赖于分布的具体类型。

    概率分布是否存在什么共性呢?

    自然有时候比我们想像的慷慨,它给出了一个概率论中相当核心的一组定律:中心极限定律(central limit theorem)

  • 中心极限定律(central limit theorem)

    我们寻找n个IID(independent and identically distributed)随机变量的均值 X ‾ \overline{X} X。当n趋进无穷时,这个均值(一个新的随机变量)趋近一个正态分布。

    均值趋近正态分布

  • 概率论体系

    1. 公理体系

      到20世纪才建立起来。集合论和测度论。

    2. 典型分布

      概率论的典型分布大多来源于古典研究,也就是出现在公理体系之前。

    3. 描述量

      股价比较“震荡”和股价比较“平静”的时期,这就是方差的概念

    4. 普适定律

      Chebyshev不等式和中心极限定律,不依赖于具体分布的类型,对所有分布都成立。

上一篇:Vamei博客学习笔记(6)
下一篇:Vamei博客学习笔记(4)

发表评论

最新留言

不错!
[***.144.177.141]2025年03月22日 20时50分39秒