什么是事件独立性

若事件AB 满足 P(AB) = P(A)P(B) 则称事件 A 独立于事件 B

这是证明两事件独立的唯一公式

由此定义可知,若A独立于B,则必有B独立于A,从而AB之间的独立性是相互的。以后就称AB相互独立,或简称AB独立。

由此定义,若P(B) = 0,则必有A独立于B

现将两个事件相互独立的概念推广到n(n ≥ 2)个事件的情形:

A1, A2, ⋯, Ann(n ≥ 2)个事件,若对其中任意一组事件Ai1, Ai2, ⋯, Aik(2 ≤ k ≤ n),都有 P(Ai1, Ai2, ⋯, Aik) = P(Ai1)P(Ai2)⋯P(Aik) 再则由此定义即可推出如下定理:

关于事件独立性的一些定理

  • P(B) > 0,则AB独立的充要条件是P(A|B) = P(A)。同理,若P(A) > 0,则AB独立的充要条件是 P(B|A) = P(B)

  • 若四对事件{A, B}$\{A,\overline{B}\}$$\{\overline{A},B\}$$\{\overline{A},\overline{B}\}$中有一对事件相互独立(例如AB独立),则其余三对事件亦相互独立。

    • 证明:

      设A与B相互独立,下证$\overline{A}$B相互独立。由于

      $$ \begin{align*} P(\overline{A}B) &= P(B - AB) = P(B) - P(AB)\\ &= P(B) - P(B)P(A)\\ &= P(B)(1 - P(A)) = P(B)P(\overline{A}) \end{align*} $$ 从而可知$\overline{A}$B独立。其余结论即可推知。

  • 三个事件ABC相互独立是指下列等式同时成立: $$ \begin{cases} P(AB) = P(A)P(B)\\ P(AC) = P(A)P(C)\\ P(BC) = P(B)P(C)\\ P(ABC) = P(A)P(B)P(C) \end{cases} $$ 可见,三事件两两相互独立,不一定相互独立;反之,若三事件相互独立,则一定两两独立。从而当一组事件的个数超过了两个时,这组事件的相互独立与两两独立不是一个概念

关于事件独立性的一些理解

公式方面

若事件AB 满足 P(AB) = P(A)P(B) 则称事件 A 独立于事件 B

这是证明两事件独立的唯一公式,这一公式是两事件独立性的公理化定义,证明两事件独立时,必须且只能验证 P(AB)P(A)P(B) 是否相等

任何关于独立性的证明或判断,必须回归到该公式的验证

也就是说,事件 A 和 B 同时发生的概率,等于各自发生概率的乘积,即 “A 的发生与否不影响 B 的概率,反之亦然”

P(AB) = P(A)P(B) 是两事件独立的充要条件,若仅知 P(B|A) = P(B),需结合条件概率公式$P(B|A) = \frac{P(AB)}{P(A)}$推导至 P(AB) = P(A)P(B),本质仍依赖原公式;

事件互斥与两事件独立的关系

事件 “互斥”(AB = ⌀,即 P(AB) = 0)与 “独立” 是不同概念:互斥时若 P(A) > 0P(B) > 0,则 P(AB) = 0 ≠ P(A)P(B),即互斥事件通常不独立(除非至少一个事件概率为 0)。

性质 独立事件(P(AB) = P(A)P(B) 互斥事件(AB = ⌀,P(AB) = 0
概率关系 允许 P(A) > 0P(B) > 0,此时 P(AB) > 0 P(A) > 0P(B) > 0,则 P(AB) = 0
事件关联 事件发生概率无影响,可同时发生 事件不能同时发生,概率上相互排斥
例子 抛两枚硬币,“第一枚正面” 与 “第二枚正面” 抛一枚硬币,“正面” 与 “反面”

而其中,一般情况下,互斥与独立互斥,很多人认为两个事件互不相容就必然相互独立,而这恰恰相反

(Ω, ℱ, P) 是一个概率空间,A, B ∈ ℱ 是两个事件

互斥事件必不独立$$ \begin{aligned} &P(A) > 0,\ P(B) > 0\ \text{且}\ A,B\ \text{互斥} \\ \Rightarrow &P(A \cap B) = 0 \neq P(A)P(B) > 0 \\ \Rightarrow &A,B\ \text{不独立} \end{aligned} $$

独立事件必不互斥$$ \begin{aligned} &P(A) > 0,\ P(B) > 0\ \text{且}\ A,B\ \text{独立} \\ \Rightarrow &P(A \cap B) = P(A)P(B) > 0 \\ \Rightarrow &A \cap B \neq \varnothing \\ \Rightarrow &A,B\ \text{不互斥} \end{aligned} $$ 特殊情况:当至少一个事件概率为 0 时P(A) = 0P(B) = 0

  • 若 A 与 B 互斥(P(AB) = 0),此时 P(AB) = 0 = P(A)P(B)(因 P(A) = 0P(B) = 0),故 互斥事件可能独立
  • 例:设 A 为 “随机选一个数等于 0.5”(连续型随机变量中单点概率为 0),B 为 “随机选一个数大于 0.6”,则 A 与 B 互斥且 P(A) = 0,满足 P(AB) = 0 = P(A)P(B),即独立。
情况 条件 互斥性 独立性 关系
一般 P(A), P(B) > 0 P(A ∩ B) = 0 P(A ∩ B) = P(A)P(B) 互斥 不独立
独立 不互斥
特殊 P(A) = 0P(B) = 0 P(A ∩ B) = 0 P(A ∩ B) = P(A)P(B) 可能既互斥又独立

不相关和独立性的区别和联系

对于任意两个“不相关”的随机变量 XY(uncorrelated random variables),两个变量的相关系数为0,也就意味着:

  • ρ(X, Y) = 0,而$_{XY} = $,所以当两个变量的相关系数为0时,两个变量的协方差也为0。

而 若随机变量 X 和 Y 的协方差为 0(即 Cov(X, Y) = E[(X − E[X])(Y − E[Y])] = 0 ),或等价地,相关系数 ρXY = 0 ,则称$ X$ 和 Y 不相关。

本质上,不相关描述的是随机变量间不存在线性关系,但不排除非线性关系的可能。可能XY没有线性关系,但是他们有别的形式的函数关系,因此,相关系数仅仅是两个随机变量之间线性相关程度的度量。

而独立性就是 随机变量 XY联合概率分布等于边缘概率分布的乘积(即对离散型 P(X = x, Y = y) = P(X = x)P(Y = y) ;对连续型 f(x, y) = fX(x)fY(y) ),则称 XY 相互独立。独立性要求更严格,意味着随机变量间不存在任何关系(包括线性、非线性关系 ),一个变量的取值完全不影响另一个变量的概率分布。

  • 独立性是 “强约束”:要求联合分布严格拆分,变量间无任何关联(线性、非线性均需独立 )。
  • 不相关是 “弱约束”:仅排除线性关系,允许存在非线性关联(如 Y = X2XY 不相关但非线性相关 )。
  • 不相关聚焦线性关系:若 XY 不相关,仅说明 “Y 不能由 X 线性表示(如 Y ≠ aX + b )”,但可能有二次、三次等非线性依赖。
  • 独立性覆盖所有关系:若 XY 独立,则 Y 的取值概率与$ X$ 完全无关,无论线性还是非线性函数关系都不存在。

所以,独立必不相关,不相关不一定独立

  1. 独立 ⇒ 不相关(单向推导)

    XY 独立,根据期望的性质 E[XY] = E[X]E[Y] ,代入协方差公式:Cov(X, Y) = E[XY] − E[X]E[Y] = 0 因此,独立的随机变量一定不相关

  2. 不相关 () 独立(反例说明)

    不相关仅排除线性关系,仍可能存在非线性关联。例如:

    • X ∼ U(−1, 1)(均匀分布 )Y = X2 。计算得 E[X] = 0Cov(X, Y) = E[X ⋅ X2] − E[X]E[X2] = E[X3] − 0 = 0(因奇函数在对称区间积分 0 ),故 X 与$ Y$ 不相关;但 YX 的非线性函数(Y = X2),显然不独立(已知 X 可确定 Y 的分布 )。

因此,仅在二维正态分布中,不相关与独立等价;对其他分布,独立是比不相关更强的条件。