判断两个随机变量是否独立,可以根据以下几种方法:
分布函数法
对于连续型随机变量,如果它们的联合概率密度函数满足 \( f(x,y) = f_X(x) \cdot f_Y(y) \),则这两个随机变量是独立的。
对于离散型随机变量,如果它们的联合概率质量函数满足 \( P(X=x, Y=y) = P(X=x) \cdot P(Y=y) \),则这两个随机变量是独立的。
数学期望法
如果两个随机变量的数学期望满足 \( E(XY) = E(X) \cdot E(Y) \),则这两个随机变量是独立的。
分布律或密度函数判断
对于离散型随机变量,可以通过检查联合分布律是否等于边缘分布律的乘积来判断独立性,即 \( p_{ij} = p_i \cdot p_j \) 对于所有 \( i, j \)。
对于连续型随机变量,可以通过检查联合概率密度函数是否等于边缘概率密度函数的乘积来判断独立性,即 \( f(x,y) = f_X(x) \cdot f_Y(y) \),需要注意的是,这个等式在平面面积为0的点不成立。
二维正态随机变量
对于二维正态随机变量 \( (X,Y) \),它们相互独立的充要条件是相关系数 \( \rho = 0 \)。
建议
在实际应用中,选择哪种方法取决于随机变量的类型(离散或连续)以及可用的信息。对于离散型随机变量,分布律法通常更直接;对于连续型随机变量,分布函数法和数学期望法更为常见。如果涉及二维正态分布,相关系数法可以快速得出结论。无论使用哪种方法,都应确保满足独立性的定义条件。