什么是事件独立性
若事件A,B 满足 P(AB) = P(A)P(B) 则称事件 A 独立于事件 B
这是证明两事件独立的唯一公式
由此定义可知,若A独立于B,则必有B独立于A,从而A,B之间的独立性是相互的。以后就称A,B相互独立,或简称A,B独立。
由此定义,若P(B) = 0,则必有A独立于B。
现将两个事件相互独立的概念推广到n(n ≥ 2)个事件的情形:
设A1, A2, ⋯, An为n(n ≥ 2)个事件,若对其中任意一组事件Ai1, Ai2, ⋯, Aik(2 ≤ k ≤ n),都有 P(Ai1, Ai2, ⋯, Aik) = P(Ai1)P(Ai2)⋯P(Aik) 再则由此定义即可推出如下定理:
关于事件独立性的一些定理
设P(B) > 0,则A与B独立的充要条件是P(A|B) = P(A)。同理,若P(A) > 0,则A与B独立的充要条件是 P(B|A) = P(B)
若四对事件{A, B},$\{A,\overline{B}\}$,$\{\overline{A},B\}$,$\{\overline{A},\overline{B}\}$中有一对事件相互独立(例如A与B独立),则其余三对事件亦相互独立。
证明:
设A与B相互独立,下证$\overline{A}$,B相互独立。由于
$$ \begin{align*} P(\overline{A}B) &= P(B - AB) = P(B) - P(AB)\\ &= P(B) - P(B)P(A)\\ &= P(B)(1 - P(A)) = P(B)P(\overline{A}) \end{align*} $$ 从而可知$\overline{A}$与B独立。其余结论即可推知。
三个事件A,B,C相互独立是指下列等式同时成立: $$ \begin{cases} P(AB) = P(A)P(B)\\ P(AC) = P(A)P(C)\\ P(BC) = P(B)P(C)\\ P(ABC) = P(A)P(B)P(C) \end{cases} $$ 可见,三事件两两相互独立,不一定相互独立;反之,若三事件相互独立,则一定两两独立。从而当一组事件的个数超过了两个时,这组事件的相互独立与两两独立不是一个概念
关于事件独立性的一些理解
公式方面
若事件A,B 满足 P(AB) = P(A)P(B) 则称事件 A 独立于事件 B
这是证明两事件独立的唯一公式,这一公式是两事件独立性的公理化定义,证明两事件独立时,必须且只能验证 P(AB) 与 P(A)P(B) 是否相等
任何关于独立性的证明或判断,必须回归到该公式的验证
也就是说,事件 A 和 B 同时发生的概率,等于各自发生概率的乘积,即 “A 的发生与否不影响 B 的概率,反之亦然”
而P(AB) = P(A)P(B) 是两事件独立的充要条件,若仅知 P(B|A) = P(B),需结合条件概率公式$P(B|A) = \frac{P(AB)}{P(A)}$推导至 P(AB) = P(A)P(B),本质仍依赖原公式;
事件互斥与两事件独立的关系
事件 “互斥”(AB = ⌀,即 P(AB) = 0)与 “独立” 是不同概念:互斥时若 P(A) > 0 且 P(B) > 0,则 P(AB) = 0 ≠ P(A)P(B),即互斥事件通常不独立(除非至少一个事件概率为 0)。
性质 | 独立事件(P(AB) = P(A)P(B)) | 互斥事件(AB = ⌀,P(AB) = 0) |
---|---|---|
概率关系 | 允许 P(A) > 0 且 P(B) > 0,此时 P(AB) > 0 | 若 P(A) > 0 且 P(B) > 0,则 P(AB) = 0 |
事件关联 | 事件发生概率无影响,可同时发生 | 事件不能同时发生,概率上相互排斥 |
例子 | 抛两枚硬币,“第一枚正面” 与 “第二枚正面” | 抛一枚硬币,“正面” 与 “反面” |
而其中,一般情况下,互斥与独立互斥,很多人认为两个事件互不相容就必然相互独立,而这恰恰相反
设 (Ω, ℱ, P) 是一个概率空间,A, B ∈ ℱ 是两个事件
互斥事件必不独立: $$ \begin{aligned} &P(A) > 0,\ P(B) > 0\ \text{且}\ A,B\ \text{互斥} \\ \Rightarrow &P(A \cap B) = 0 \neq P(A)P(B) > 0 \\ \Rightarrow &A,B\ \text{不独立} \end{aligned} $$
独立事件必不互斥: $$ \begin{aligned} &P(A) > 0,\ P(B) > 0\ \text{且}\ A,B\ \text{独立} \\ \Rightarrow &P(A \cap B) = P(A)P(B) > 0 \\ \Rightarrow &A \cap B \neq \varnothing \\ \Rightarrow &A,B\ \text{不互斥} \end{aligned} $$ 特殊情况:当至少一个事件概率为 0 时 (P(A) = 0 或 P(B) = 0)
- 若 A 与 B 互斥(P(AB) = 0),此时 P(AB) = 0 = P(A)P(B)(因 P(A) = 0 或 P(B) = 0),故 互斥事件可能独立。
- 例:设 A 为 “随机选一个数等于 0.5”(连续型随机变量中单点概率为 0),B 为 “随机选一个数大于 0.6”,则 A 与 B 互斥且 P(A) = 0,满足 P(AB) = 0 = P(A)P(B),即独立。
情况 | 条件 | 互斥性 | 独立性 | 关系 |
---|---|---|---|---|
一般 | P(A), P(B) > 0 | P(A ∩ B) = 0 | P(A ∩ B) = P(A)P(B) | 互斥 ⇒ 不独立 独立 ⇒ 不互斥 |
特殊 | P(A) = 0 或 P(B) = 0 | P(A ∩ B) = 0 | P(A ∩ B) = P(A)P(B) | 可能既互斥又独立 |
不相关和独立性的区别和联系
对于任意两个“不相关”的随机变量 X 和 Y(uncorrelated random variables),两个变量的相关系数为0,也就意味着:
- ρ(X, Y) = 0,而$_{XY} = $,所以当两个变量的相关系数为0时,两个变量的协方差也为0。
而 若随机变量 X 和 Y 的协方差为 0(即 Cov(X, Y) = E[(X − E[X])(Y − E[Y])] = 0 ),或等价地,相关系数 ρXY = 0 ,则称$ X$ 和 Y 不相关。
本质上,不相关描述的是随机变量间不存在线性关系,但不排除非线性关系的可能。可能X和Y没有线性关系,但是他们有别的形式的函数关系,因此,相关系数仅仅是两个随机变量之间线性相关程度的度量。
而独立性就是 随机变量 X 和 Y 的联合概率分布等于边缘概率分布的乘积(即对离散型 P(X = x, Y = y) = P(X = x)P(Y = y) ;对连续型 f(x, y) = fX(x)fY(y) ),则称 X 和 Y 相互独立。独立性要求更严格,意味着随机变量间不存在任何关系(包括线性、非线性关系 ),一个变量的取值完全不影响另一个变量的概率分布。
- 独立性是 “强约束”:要求联合分布严格拆分,变量间无任何关联(线性、非线性均需独立 )。
- 不相关是 “弱约束”:仅排除线性关系,允许存在非线性关联(如 Y = X2 ,X 与 Y 不相关但非线性相关 )。
- 不相关聚焦线性关系:若 X、Y 不相关,仅说明 “Y 不能由 X 线性表示(如 Y ≠ aX + b )”,但可能有二次、三次等非线性依赖。
- 独立性覆盖所有关系:若 X、Y 独立,则 Y 的取值概率与$ X$ 完全无关,无论线性还是非线性函数关系都不存在。
所以,独立必不相关,不相关不一定独立
独立 ⇒ 不相关(单向推导)
若 X 和 Y 独立,根据期望的性质 E[XY] = E[X]E[Y] ,代入协方差公式:Cov(X, Y) = E[XY] − E[X]E[Y] = 0 因此,独立的随机变量一定不相关。
不相关 () 独立(反例说明)
不相关仅排除线性关系,仍可能存在非线性关联。例如:
- 设 X ∼ U(−1, 1)(均匀分布 )Y = X2 。计算得 E[X] = 0,Cov(X, Y) = E[X ⋅ X2] − E[X]E[X2] = E[X3] − 0 = 0(因奇函数在对称区间积分 0 ),故 X 与$ Y$ 不相关;但 Y 是 X 的非线性函数(Y = X2),显然不独立(已知 X 可确定 Y 的分布 )。
因此,仅在二维正态分布中,不相关与独立等价;对其他分布,独立是比不相关更强的条件。