当前课程知识点:教育定量研究方法(高级) > Weeks 13&14: HLM > HLM > 7.19 HLM workshop 1
我们就按照咱们讲的顺序
从最简单的方差分析开始
我们来看怎么样一步一步的建模进行分析
那么方差分析的公式 PPT里有
大家看到了
这个数据
他就是一个非常常见的教育的数据
就是学生嵌套在学校
学生有他的一些个人特征
学校有一些
school level
的这样的一些特征
然后我们分析的对象是数学成绩
mass achievements
所以大家
打开 do file
大概都在二 我们先
来看一下用什么命令
那么stata里面其实是有多个命令可以做
分层的这样的一个回归的
其中一个比较老的命令
是xtmixed
是一样的 我们
时间关系我们不会一个一个看
列在这里大家有兴趣的话可以
你们课下再去探索
我们看一下第14行
14行用的是 mixed
因变量是math
achievement
后面的格式是双竖线
school呢
是分组变量
告诉stata谁是第二层的分组变量
那就是school
这是school I d
还这个格式要求加冒号后面是空的
因为这是一个空模型
逗号之后是option
我们希望他报告方差协方差
这个就是一个空模型
那么命令是mixed
所以大家第一个你可以先
跑一下第14号命令
同时
你们可以用help文件 help
mixed来看一下
mixed整体的格式的解读
好吧
大家自己先做一下
所以如果大家打开 mix
的 help文件
你就可以看到它详细的
说明
这个格式就是刚才我们讲的
在给大家的文件夹里面
还有
一个pdf文档
就是stata的 menu
Menu里面
有更详细的说明
大家
可以
可以看一下
你可以提前按说应该提前看
那么
课后也可以继续看
大家来看这个结果
这就是一个简单的方差分析的结果
第一个表格给的是
fix effect
也就是是说对这些参数的点估计
fix effect
那么空模型里面就只有一个
洁具
那么叠句的估计是 constant
变量
那么第二个表格是 random
effect
random effect的
特质是对残差的估计
那么我们
再看一下这个方程里面
yij
他是就由
一个截距项γ00
加上一个组间的差异和
一个组内的差异构成
所以在
stata里面
我们刚才已经 specify
school是分组变量
他就会跑出一个
这个
constant的
variance就是
constant variance
就是组间差异
也就是μ
μ0j的
方差
还有 residual
Residual是第一层的特质
第一层的残差
然后就是ε的残差
他的 various就算出来了
同时报告了假设检验的结果
卡方检验
那么都是显著的
就是这两个
这两个残差项它的
variation是
显著的区别于0的
也就是说我们空模型是
是成立的
你这就是
最简单的这样的一个方程
那么当然了大家可以来接着在任何
一个方程之后来跑 IC
我们来计算它的
Information
criteria
当然这个值是越小越好
因为模型越好
我们的评估
不断的加入变量之后
IC是不是会不断的变小
大家可以跑一下这一个
它会报告两个IC
一个是aIc一个是bIc
那么我们把这个数字放在这里
后面开始在模型里加变量以后
我们就希望说这个模型在不断的优化
这两个值会不断的变小
好
具体的解释就放在这里
大家感兴趣的话再可以再仔细
的去做一个延伸的阅读
那么实际上除了 x t x之外
还有一个命令我们之前讨论
过 xtreg
它本来是针对于
panel data来
开发的这样的一个命令
那么他其实也可以得出
跟我们上面说的 mix一样的结果
Xt regression呢
首先要设定也是要设定谁是
panel的分组变量
当然还是school 所以说
大家来看一下第29行到31行
29行是access
就告诉stata谁是分组变量
30行跑了一个空模型
因变量还是math
achievement
但是就告诉stata
分组变量也是cluster是谁
是school
但是一行是specify了估算
的方法是吉拉斯兰估计法
那么这三行命令
大家自己跑一下
跑完之后来对照分析
30跟31行的区别
以及30 31行跟我们刚才用
mixed命令的区别
大家来自己分析一下
跑完了吗 跑完了同学说一下
我知道大家进步
同学们跑完了就说一下
没跑完也可以说一下
好好对比一会儿 对一会儿
对比一下这三个表格
三个表格
有何异同
然后待会咱
咱点名请一位同学说一下
还有8位同学在雨课堂没有签到
抓紧签到
待会我们又专门点没签到的
又说到**
**来回答一下
来为你对比了这三张表格之后
你觉得有什么异同
我觉得其实估计的结果都差不多
但是我发现
最后一张表和我们跑的第一
张表的数据是完全一样的
然后第二章可能有稍微的差异
然后我刚刚help了一下
现在我有一个问题是第三章
mle
是什么意思
很好
MLE极大自然估计法
maximum
likelihood
estimation
MLE
那么也就是说大家可以看到
谢谢**
大家可以看到
xtreg
命令
我们跑的时候
如果
不做 specify的话
它其实默认用的是什么
用的是广义最小二乘法估计
因此这个结果
跟第一张表的结果是有一点点出入
他的点估计是一样的
但是它可以发现它的残差
它的标准误
以及对残差的方差的估计
当然这个是标准差
前面那个是方差
所以说你要平方之后才能对比
他有一点点出入
但是当我们
当我们
当我们 specify用
m l e之后
也就是用极大似然估计法之后
我们就会发现
这个结果就完全一样了
MME
这个估计方法跟上面不一样
上面是广义最小二乘法
这个是极大似然估计法
那么这个结果就跟咱们 mix
的命令是一样的
因为mix用的也是
极大似然估计法
所以这就是为什么它们俩是完全一样的
包括标准误的计算
所以我们就清楚了
每一种 option后面
包括default
option default
estimation的后面
他到底差别在哪里
搞清楚这个就可以了
它就是一样的
我们再接着往下看
那么指数对命令做一个区分
一个
辨析
下面我们控模型跑完了
我们现在开始加变量
来大家看一下
我们加变量
他是一个
是一个分层模型
但是我们是可以把它合成一个方程的
我们来看一下
如果我们
在第二层
加入
解释变量
这个就是学校的平均ses
当然了这个时候第一层还是控模型
而且第一层它是没有自变量的
第二层加入的解释变量解释的是
第一层的随机截距
那么
当然你先自己
想一下
这样的一个方程写出来是什么样子的
把它写成一个就是同一个方程
把它合并成一个方程 把两层
这是第一步要做的
第二个
你来看一下
我们的第34行
这个方程
他跟你用手写出来这个方程
它有什么样的这种对应关系
现在大家可以自己来去想一下
因为我们在它里面来跑的时候
我们其实是跑一行命令我们
没有去跑两个方程
那么
怎么样一行命令把这两个方程估算出来呢
其实就是把
公式里面的这两层的方程
把它合并成一个方程
咱们其实也经常做这样的一个
换算的工作
所以请大家先把第一层的命令
和第二层的命令
分别写出来
然后就第一层方程和第
二层方程分别写出来
然后把它合并
合并之后来去对照来看一下
跟34行的命令它的对应关系说清楚了吧
-1.2 Why do we use regression 1
-1.3 Why do we use regression 2
-1.4 Conditional expectation function 1
-1.5 Conditional expectation function 2
-1.6 Classical assumption of OLS
-1.8 How to use matrix calculation to solve OLS
-1.11 FAQs of regression:practice
-1.12 FAQs of regression:discussion
-1.13 Maximum Likelihood Estimatio
-Basic Econometrics
-2.1 Classical assumptions of OLS
-2.2 Omitted variable bias and endogeneity
-Weeks 3&4 readings and workshop
-Instrumental Variable
-3.6 Threats to the validity of RCT
-3.17 Random-effecrt and Fiexed-effect model
-3.18 Statistic power analysis
-Weeks 5&6 readings and workshop
-Randomized Experiments - Class Size, Career Academies
-4.6 DID with multiple periods 1
-4.7 DID with multiple periods 2
-4.9 Synthetic control methods
-Week7&8 readings and workshop
-Natural experiment and DID
-5.10 Validity and assumption test 1
-5.11 Validity and assumption test 2
-Regression discontinuity
-6.1 Review of causal inference model
-Propensity Score Matching
-HLM