当前课程知识点:教育定量研究方法(高级) > Weeks 13&14: HLM > HLM > 6.22 PSM workshop 6
好
有同学问为什么我们要用ipw
就Ipw这个逻辑是什么
大家看这张图
这个IPW
它是这样子来做的
也就是说对于 treatment
group的人
它的权重是它的概率的倒数
那么对于control的人
它的权重是一减去概率的倒数
这什么意思呢
大家想整体上来讲
对于我们的一个观测数据
是不是treatment group
的这些样本
我们在跑完 treatment
model之后
我们再来去拟合它的选择出现的概率
那么它们的概率
一般来讲整体上要高于
control group
它们选择treatment的概率对不对
也就是说
这现实跟我们拟合的应该是比较类似的
那么
因此大家想
在treatment group
也就是蓝色的这些样本里面
它的概率越低
它是不是越容易从对照组找到它的
相似的人
因为对照组的人整体的估算
的概率肯定是偏低的
那么
实验组
它们这些人整体的概率是偏高的
那么最高的这些概率
就这些人
这群人我们是很难从
控制组找对照组找到它的相似的人群的
而这些它的概率在整个蓝点里面
这些人群它的概率是偏低的
我们算的 probability
它是更容易从绿色的这些
点里面找到相似人的
所以我要给它更高的权重
所以对于 treatment
group来讲
我们给它的权重是p分之1
也就是说你的概率越小
我给你权重越大
因为你跟另外一群人更相似
这样子你概率越大
我给你权重越低
因为你跟另外一群人越不相似
同样
对于 control group
大家想
它们整体的概率是比treatment group低的
所以对于像这种人
比如说像这个点是吧
或者说这一块的人
那么整体上它们这个概率是
最低的
那么它们在另外一组在蓝点里面
是很难找到相似的人的
所以我就要给它登记的权重
而这些就是概率偏高的这些绿点
它们是更容易从蓝点的样本
里找到相似的人的
所以我要给它
更高的权重
所以对于 control
group来讲
我给它算的权重是一减p分之1
就是这个道理
跟psm的逻辑很像
虽然算法不是很一样
但它算的是很简单的 这是
这是第一点
第二点
同学们可能发现你算的这些结果
不论是用单一的方法也好
还是用
两种方法嵌套也好
算出来的是非常类似的
这是一件好事 这就说明
这个数据在因为我们刚才算的单一的
不论是ra还是Ipw
本身就是比较相似的
你这时候再嵌套
它算出来还是比较相似的
这个一致是件好事情
我们就不用太去
担心我们这个方程有问题
如果不一致的话 当时是个事儿
你就要去看它到底哪个地方出问题了
它都不一致
这个是先做了一个简单的回应
同学们还有什么问题吗
关于我们
这个就是关于命令的
它的逻辑和它的这些
workshop的练习
大家还有问题吗
没问题 我们就过了
好 没问题
就把你的麦克关掉
这个背景音就会出来
生活的气息就扑面而来了
好
我再简单提一个事儿
再简单提另外一个方程
这个方程我们课上也没计划讲
但是希望大家知道
那么刚才我们讨论的都是基于
一个非常重要的假设
就是条件独立假设
只有条件独立假设满足的情况下
我们不论是psm也好
还是 r a也好
还是 I p w也好
它们才适用
那么这是一个很强的假设
但是强假设满足之后
我们可以看到我们的方程
是比较flexible的
我们并没有在方程形态上
做方程的结构上
做很强的规定
我们希望尽量的放松对方程形态
方程结构的这种假设
那么是这种情况
但实际上现实中
往往是我们可观测的变量是非常有限的
当我们可观测的变量很有限
使得控制了这些变量
就是以这些变量为条件
那么我们这个outcome
仍然不是独立的
也就是说 CI assumption不能满足
这种情况也是非常常见的
那么这种情况
就不能用teffects也不能用psm了
这时候要用什么
这个时候其实用的是hackman
correction
就是来自于hackman
correction这样的一个思想
这是一组模型
那么它怎么解决
它就给方程设定了更强的
一个假设
相当于既然我没有足够的信息
我就把方程的形态进行更强的假设
这种更强的
假设本身它就是一种信息
但是这个信息是强加的了
因为它是假设对吧
它没有办法去验证
那么这个就是解决方案
就是我增强对方程的结构的假设
通过这个结构解决自选择的问题
我们简单说一下
这样你以后在读文献的时候遇到的时候
你就比较了解
你就容易再去读更多的文献
那么它的观察机制是这样子的
这个方程 y
等于β
x
加上δt加上ε
t是我们的treatment
δ是它的系数
当然δ就是我们最关心的
treatment effect
T
它当然就是取01这种最简单的情况
等于1就是接受了处理
等于0的是没有接受处理的问题
它等于1的条件是什么
观测机制
有另外一个方程我们也可以
叫它是treatment方程
可以或者叫它一个效用函数都可以
只有当这个方程
它大于0的时候
这个人才会选择接受treatment
比如说
它上大学的效用是正的
它才会去选择上大学
如果它上大学又痛苦对吧
然后大学毕业之后
它的生活也没有改善
那么上大学对它来说就是一个负的效应
它就会选择0 otherwise
0
那么
这个就是一个观测机制
咱们之前在
极大似然估计法的时候也简单说过
那么我们就给它假设非常
强的一个协方差矩阵
因为这个里面就出现了两个
两个随机干扰项
一个是 μ一个是
μ
那么它们就符合这样的一个
方差协方差矩阵
这个是假设
那么给定这些假设
我们当然就可以去算了
我们可以去估算
那么
这个是极大似然函数
我们也是
加了很强的假设
认为残差是服从什么
服从正态分布的
那么为什么它浮动是态分布
这是假设
大家可以看到当我们的
变量信息不够的时候
我们就加了很多假设
因为这些假设它里面也是带信息的
只不过这些信息我们是直接使用了
没有办法去检验
那么这样的话
我们仍然是第一步来去估算 t
等于1的概率这样的一个方程
同时我们会算 hazard
hazard是
最后大家可以看到
是我们通过这样的一个方程估算以后
得到的
我们来算的是这个东西给定teffects和w
w是第一阶段的方程里面
的自变量x是第二个方程
第二阶段方程是outcome
model里面的这些
自变量 t是我们的treatment
就给你这些条件
我来算y的条件期望
这个方程形态
就变成这样子了
这个里面大家前面这两块大家可以看到
是我们之前方程有的的这个事
βx还有δt这是我们之前有的
ρ乘以δ
再加上h
这一块儿ρ和δ
ρ和σ都是前面方差
协方差矩阵里面的东西
h就是上面这个算的
算出来的这些东西
那么这些
就会
出现在这样的一个方程里
它是一个更结构化的假设
也就是说我们通过前面这一步
把ρ
δ
ρσ
和
h都算出来了
算出来之后在原来的方程里
就加入了这个东西一个新的变量
加上这个之后
这时候t的估算值
δ就是一个无偏估计了
是因为我们
用后面这一块
把所有的偏误给控制住了
大概就这样
你看这是一个非常强的结构化的建模
我们就不做不细细说了
因为
没有准备让大家去掌握
但是让你知道这个东西有这个东西在
然后你遇到之后你知道可以去哪找它
我们来看一下
state里面
因为时间关系
大家看最后一部分
linear regression
with endogenous
treatment effect
那么这一个地方就是刚才讲过的
这一部分大家可以看用的命令就变了
就变成et regrets
Et regress里面前面还是
这样的一个outcome model
后面逗号后面是一个treatment
model
那么它就是一个很强的
方程结构
那么来去帮我们去估算 trend
effect
大家有时间自己做练习
因为这个数据都给你们了
数据给你们了
然后这个是do file里面的命令都给了
你们用help
还有可以去查命令
相信大家现在 state
的自学能力是很强了
那么这一块
是刚才讲的
那么更老的命令就是海克曼
格曼是一个非常经典的命令
它的思想就是刚才说思想
只不过hackmen命令
它只能控制住偏误
它并没有去把 treatment
effect给估算出来
然后它只是把子选择的偏误给估算出来了
好 这个是这一部分
那么我们刚才还跳过了什么呢
我们跳过了
multi value
treatment
也就是说
刚才咱们看的都是01的
那么当然我们是可以做
超过两种选择的
比如说我们有
三种不同的treatment
对吧
或者是我们还有一个control
这样的形态
那么这个也是
完全可以做的
因为我们的选择模型一个是可以支持
多种分多种这个情况
multi category
是没有问题的
那么ra是更没有问题
因为它就是不同的一个
曲线之间的做差比较
-1.2 Why do we use regression 1
-1.3 Why do we use regression 2
-1.4 Conditional expectation function 1
-1.5 Conditional expectation function 2
-1.6 Classical assumption of OLS
-1.8 How to use matrix calculation to solve OLS
-1.11 FAQs of regression:practice
-1.12 FAQs of regression:discussion
-1.13 Maximum Likelihood Estimatio
-Basic Econometrics
-2.1 Classical assumptions of OLS
-2.2 Omitted variable bias and endogeneity
-Weeks 3&4 readings and workshop
-Instrumental Variable
-3.6 Threats to the validity of RCT
-3.17 Random-effecrt and Fiexed-effect model
-3.18 Statistic power analysis
-Weeks 5&6 readings and workshop
-Randomized Experiments - Class Size, Career Academies
-4.6 DID with multiple periods 1
-4.7 DID with multiple periods 2
-4.9 Synthetic control methods
-Week7&8 readings and workshop
-Natural experiment and DID
-5.10 Validity and assumption test 1
-5.11 Validity and assumption test 2
-Regression discontinuity
-6.1 Review of causal inference model
-Propensity Score Matching
-HLM