当前课程知识点:概率论与数理统计 > 第八章 假设检验 > 第1节 假设检验的基本概念 > 8.1.2 假设检验的形式和两类错误
大家好
我们继续学习假设检验的形式即两类错误
基于研究目的的不同
假设检验可分为双侧检验与单侧检验
以总体均值的检验进行说明
双侧检验
考察总体的参数与已知的常数有没有差异
这个问题是要判断μ
与μ0是有差别
还是没有差别
因此
原假设就取成没有差别
H₀: μ=μ0
与之对立的备择假设
H₁: μ≠μ0
由第一讲中例题的结果我们可以知道
这是一个双侧检验
它的拒绝域有两个临界值
我们一般取为对称的区域
从图形上大家可以看出
拒绝域位于
临界值的两侧
因此称之为双侧检验
而单侧检验主要解决
带有方向性的检验问题
分两种情况
一种 比如灯泡的寿命
我们希望数值越大越好
另一种 产品的次品率
我们希望
值越小越好
还是以总体的均值为例给出第一个
如果我们怀疑总体的均值下降了
那么我们就把研究者所要论证的论述
作为备择假设
也就是 μ小于μ0 作为备择假设
而把这种论述的否定作为原假设
因此
H₁:μ小于μ0
怀疑总体的均值下降了
H₀: μ>=μ0
下面我们就要确定一下它的拒绝域
大家看原假设H₀中
全部的μ都比H₁中的要大
当H₁为真时 观测值
Xbar往往偏小
从而H₀拒绝域的形式为
Xbar小于某个常数
因此
H₀的拒绝域在左侧
这是一个左侧检验
它的拒绝域在临界值的左端
如图所示
类似的
我们可以得到右侧检验
如果我们怀疑总体的均值增加了
即 μ>μ0
我们把它作为备择假设
H₀ : μ小于=μ0
H₁: μ>μ0
这时大家可以猜测一下
H₀的拒绝域
在哪边呢
与左侧类似
H₀中所有的μ都比μ0小
当H₁为真时
Xbar的观测值往往是偏大的
因此
H₀拒绝域的形式为
Xbar大于某个常数
所以H₀的拒绝域在右侧
这是一个右侧检验
它的拒绝域在临界值的右端
左侧检验和右侧检验
我们统一称为单侧检验
下面我们对假设检验问题做一点说明
对总体均值的检验
为了统一起见
常常把原假设统一写为
H₀: μ=μ0
而把与之对立的备择假设分为三种
第一种
H₁:μ≠μ0
这是一个双侧检验
H₀: μ=μ0
H₁: μ小于μ0
这是一个左侧检验
H₀: μ=μ0
H₁:μ>μ0
这是一个右侧检验
尤其是对后面两种单侧检验
我们采用H₀: μ=μ0
H₁:μ小于μ0
或者采用 H₀: μ>=μ0
H₁:μ小于μ0
这两种不同的形式
它们对应的检验法则
和检验效果是一致的
那么类似的道理
右侧检验 H₀: μ=μ0
H₁:μ>μ0
它与H₀: μ小于=μ0
H₁:μ>μ0
这两者的检验法则
和检验效果也是一致的
好 单侧检验和双侧检验
我们就介绍到这里
接下来我们继续学习
假设检验中的两类错误
假设检验是根据样本的信息
并依据小概率原理做出接受
或者拒绝原假设H₀的判断
由于样本具有随机性
以及所选择的显著性水平
α的不同
因而假设检验所做出的决策
有可能是错误的
一般的 假设检验可能犯的错误有如下两类
第一种
当原假设H₀为真时
由于样本的随机性
检验统计量的观测值却落入了拒绝域
导致我们做出拒绝H₀的错误决策
那么这一类错误我们称之为第一类错误
也称为弃真的错误
我们要求犯这类错误的概率越小越好
犯这类错误的概率
不超过显著性水平α
下面我们借助于数学式子来描述
犯第一类错误的概率
它是原假设H₀为真的条件下
拒绝H₀的概率
不超过α
这是一个条件概率
它是原假设H₀为真的条件下
拒绝原假设H₀的概率
小于等于α
接下来 我们再看第二类错误
当原假设H₀不真时
由于样本的随机性
检验统计量的观测值却落入了接受域
导致我们接受了原假设H₀
从而做出一种错误的判断
这时我们犯的错误
称之为第二类错误
也称为取伪的错误
直白的来讲
就是把假的当成了真的
犯这类错误的概率我们记为β
大家可以思考一下
犯第一类错误的概率跟
犯第二类错误的概率
两者之间有什么关系
此时我们依然用数学式子来表达一下
犯第二类错误的概率
它是原假设H₀
不真的条件下
接受H₀的概率
就是犯第二类错误的概率β
那么我们来看一个表格
进一步理解两类错误
对于原假设H₀的真实情况
有两种
一种是H₀
本身是真的
一种是H₀
本身不是真命题
只不过我们是不知道的 未知的
那么我们所做的决策也有两种
一种是拒绝原假设H₀
另外一种 接受原假设H₀
好 来看
在原假设H₀为真的条件下
拒绝了原假设H₀
这时我们犯错误了
犯的是第一类错误
接着 在H₀为真的条件下
接受了原假设H₀
这时 我们决策正确
接下来看第二行 原假设H₀不真
我们也拒绝了原假设H₀
这时决策正确
最后一个 原假设H₀不真
但是 我们接受了原假设H₀
这时犯错误了
犯第二类错误
我们希望犯两类错误的概率
都较小
但是事实上 这两类错误是相互制约的
当样本容量固定时
如果要减少犯一类错误的概率
那么犯另外一类错误的概率往往是增大的
如果使得犯两类错误的概率都减少
只能增加样本容量
而实际成本往往是不允许的
因此 我们就采用奈曼皮尔逊原则
这个原则是说 我们要控制犯第一类
错误的概率不超过某个常数α
0小于α小于1
在满足该条件的要求下
使得犯第二类错误的概率尽量的小
α一般取得非常非常小
0.01 ,0.05或者0.1
α称之为显著性水平
我们就把这种 只控制犯第一类错误的概率
而不考虑犯第二类错误概率的假设检验问题
称之为显著性检验
下面我们做几点说明
有关原假设与备择假设的选取
第一
原假设与备择假设的地位不是对等的
第二
原假设要受到维护
不能够轻易的被否定
我们采用的原则是犯第一类错误的概率
是我们控制的 尽量的小
如果显著性水平α越小
那么犯这类错误的概率就越小
第三
如果在两类错误中
没有一类错误的后果
严重更需要避免的时候
通常把研究者要证明的论述作为备择假设
而把参数正常情况下的取值作为原假设
也就是通常取原假设为维持现状
无效益、无改进等
在实际问题当中
情况很复杂
如何选择原假设和备择假设
只能在实践中积累经验
根据实际情况来判断
下面我们总结一下所学内容
本节介绍了双侧检验与单侧检验
它们的拒绝域如何确定
假设检验中的两类错误
我们依据奈曼皮尔逊原则
控制犯第一类错误的概率
在此条件下 使得犯第二类
错误的概率尽量的小
好 今天的内容到此结束
谢谢大家
-第1节 随机事件
--1.1 作业
-第2节 概率的定义和性质
--1.2 作业
-第3节 古典概型与几何概型
--1.3 作业
-第4节 条件概率
--1.4 作业
-第5节 随机事件的独立性
--1.5 作业
-本章测试
--第一章测试
-第1节 随机变量与分布函数
--2.1 作业
-第2节 离散型随机变量
--2.2 作业
-第3节 连续型随机变量
--2.3 作业
-第4节 随机变量函数的分布
--2.4 作业
-本章测试
--第二章测试
-第1节 二维随机向量及其分布函数
--3.1 作业
-第2节 二维离散型随机向量
--3.2 作业
-第3节 二维连续型随机向量
--3.3 作业
-第4节 条件分布与随机变量的独立性
--3.4 作业
-第5节 随机向量函数的分布
--3.5 作业
-本章测试
--第三章测试
-第1节 数学期望
--4.1 作业
-第2节 方差
--4.2 作业
-第3节 协方差和相关系数
--4.3 作业
-第4节 矩和协方差矩阵
-本章测试
--第四章测试
-第1节 大数定律
--5.1 作业
-第2节 中心极限定理
--5.2.2 De Moivre-Laplace 中心极限定理
--5.2 作业
-本章测试
--第五章测试
-第1节 数理统计的基本问题
-第2节 总体、样本和统计量
--6.2 作业
-第3节 抽样分布
--6.3 抽样分布
--6.3 作业
-第4节 抽样分布定理
--6.4 作业
-本章测试
--第六章测试
-第1节 参数点估计
--7.1 作业
-第2节 区间估计
--7.2 作业
-第3节 非正态总计参数的区间估计
--7.3 作业
-本章测试
--第七章测试
-第1节 假设检验的基本概念
--8.1 作业
-第2节 正态总体参数的假设检验
--8.2 作业
-第3节 非正态总体参数的假设检验
-本章测试
--第八章测试
-期末考试