统计学中的假设检验、统计功效与抽样方法
立即解锁
发布时间: 2025-09-08 01:17:51 阅读量: 12 订阅数: 20 AIGC 


统计方法在机器学习中的应用
### 统计学中的假设检验、统计功效与抽样方法
在统计学和机器学习领域,假设检验、统计功效分析以及抽样方法是至关重要的概念。它们帮助我们从样本数据中推断总体特征,评估实验的有效性,并确保我们能够准确地利用数据做出决策。
#### 1. 统计假设检验
统计假设检验是基于对结果的假设,即原假设(null hypothesis)。不同的检验有不同的原假设,例如:
- **皮尔逊相关检验**:原假设是两个变量之间不存在关系。
- **学生 t 检验**:原假设是两个总体的均值没有差异。
检验通常使用 p 值来解释结果。p 值是在原假设为真的情况下,观察到当前结果或更极端结果的概率。在解释显著性检验的 p 值时,需要指定一个显著性水平(significance level),通常用希腊小写字母 α 表示,常见值为 5%(即 0.05)。判断规则如下:
- **p 值 ≤ α**:结果具有统计学显著性,拒绝原假设,认为分布不同(备择假设 H1)。
- **p 值 > α**:结果不具有统计学显著性,无法拒绝原假设,认为分布相同(原假设 H0)。
然而,p 值只是一个概率,实际结果可能不同,检验可能会出错,存在两种类型的错误:
- **第一类错误(Type I Error)**:当实际上没有显著效应时拒绝原假设(假阳性),p 值过小。
- **第二类错误(Type II Error)**:当存在显著效应时未拒绝原假设(假阴性),p 值过大。
显著性水平可以看作是在原假设为真时拒绝原假设的概率,即犯第一类错误的概率。
#### 2. 什么是统计功效
统计功效(statistical power)是指假设检验正确拒绝原假设的概率,也就是得到真阳性结果的概率。它仅在原假设为假时才有意义。统计功效与第二类错误的概率成反比,公式如下:
- **Power = 1 - Type II Error**
- **Pr(True Positive) = 1 - Pr(False Negative)**
高统计功效意味着犯第二类错误的风险较低,而低统计功效则意味着犯第二类错误的风险较高。通常,实验设计时会追求至少 80% 的统计功效,即有 20% 的概率遇到第二类错误,这与显著性水平为 5% 时遇到第一类错误的概率不同。
#### 3. 功效分析
统计功效是一个由四个相关部分组成的谜题中的一部分,这四个部分分别是:
- **效应大小(Effect Size)**:总体中结果的量化程度,通过特定的统计量计算,如变量间的皮尔逊相关系数或组间差异的 Cohen's d。
- **样本大小(Sample Size)**:样本中的观察数量。
- **显著性(Significance)**:统计检验中使用的显著性水平,如 α,通常设为 5% 或 0.05。
- **统计功效(Statistical Power)**:如果备择假设为真,接受备择假设的概率。
这四个变量相互关联,例如,较大的样本量可以使效应更容易被检测到,提高显著性水平可以增加统计功效。功效分析是在已知其中三个参数的值的情况下,估计第四个参数的值。它在实验设计和分析中是一个强大的工具,可以回答诸如“我的研究有多大的统计功效?”和“我需要多大的样本量?”等问题。
#### 4. 学生 t 检验的功效分析
以学生 t 检验为例,它用于比较两个高斯变量样本的均值。原假设是两个样本总体的均值相同。检验会计算一个 p 值,用于判断样本是否相同。常见的显著性水平为 5%(0.05)。比较两组均值差异的效应大小通常用 Cohen's d 来衡量,当 Cohen's d 至少为 0.80 时被认为是大效应。
假设我们希望统计功效至少为 80%(0.80),可以使用 Statsmodels 库中的 `TTestIndPower` 类进行功效分析来估计所需的样本大小。具体步骤如下:
```python
# estimate sample size via power analysis
from statsmodels.stats.
```
0
0
复制全文
相关推荐









