样本标准差的计算公式是:
\[ s = \sqrt{\frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})^2} \]
其中:
\( s \) 是样本标准差。
\( n \) 是样本中数据的个数。
\( x_i \) 是样本中的第 \( i \) 个数据点。
\( \bar{x} \) 是样本的平均值,计算公式为 \( \bar{x} = \frac{1}{n} \sum_{i=1}^{n} x_i \)。
\( \sum \) 表示对所有数据点进行求和。
具体步骤如下:
1. 计算样本的平均值 \( \bar{x} \)。
2. 计算每个数据点与平均值的差值 \( x_i - \bar{x} \)。
3. 将差值平方 \( (x_i - \bar{x})^2 \)。
4. 对所有的差值平方求和 \( \sum_{i=1}^{n} (x_i - \bar{x})^2 \)。
5. 除以 \( n-1 \)。
6. 对结果取平方根 \( \sqrt{\ldots} \)。
这个公式用于衡量样本数据的离散程度,即数据点相对于样本平均值的波动大小。样本标准差通常用于统计推断,特别是当总体标准差未知时。