标准差是统计学中用来衡量一组数值的离散程度的一个指标。它表示的是数据点相对于其平均值的波动大小。标准差用希腊字母σ(sigma)表示,是方差的算术平方根。
标准差的计算公式如下:
\[ \sigma = \sqrt{\frac{\sum_{i=1}^{n} (x_i - \mu)^2}{n}} \]
其中:
\( \sigma \) 是标准差;
\( x_i \) 是每个数据点;
\( \mu \) 是数据的平均值;
\( n \) 是数据点的数量;
\( \sum \) 表示求和。
标准差越大,表示数据点之间的差异越大,分布越分散;标准差越小,表示数据点之间的差异越小,分布越集中。标准差是衡量数据波动性的重要指标,在金融、物理、社会科学等多个领域都有广泛的应用