当前课程知识点:教育定量研究方法(高级) > Weeks 13&14: HLM > HLM > 5.3 Model Setup
好
我们来看怎么样来去做模型
的 set up
所以再回顾一下
RD的模型
它其实是有两个非常重要的
变量
第一个是一个连续的forcing
variable
比如说像刚才说的年级的
学生规模
或者是刚才说的高考成绩
它是一个连续的 forcing
variable
那么我们的政策规则
利用 forcing
variable
在这个上面截取了一个断点
那么
并且根据它是在断点左边还是
右边来决定了每一个人它是
分到了 treatment
还是 nontreated
group
这个就是RD的
两个非常重要的
变量特点
那么 Rd的假设
刚才我们讲了它利用了什么
那么 RD的一个最重要假设是什么
当然首先x必须是连续的
forcing variable
必须是连续的
而且我们的 potential
outcome Yi
这个Yi关于xi的条件期望
它在
这个断点x0的附近
它也要是连续的
这个是非常重要的一个假设
而且连续
可能还不够
还得是光滑可导的
我们就不多讲
那么
这个是最重要的一个假设
而且
其实其它的一些隐含的就是我们没有观测
到的一些 covariance
这些协变量
那么它
应该跟x的关系也是连续的关系
其它都是连续唯一的跳跃
是政策规定使得一部分人被分到了treatment
一部分人
被分到了 control 我们叫
所以说其它必须都是连续的
就是RD的最重要的假设 nature is
continuous
好
这个就是刚才我们说的假设下面这张图
你看
x横轴
横轴它是一个连续的分布
我们可以通过画这个
概率密度函数来去看
这里面没有画 后面我们可以讨论
那么
这两条曲线刚才我们解释了
这两条曲线就是y关于x的函数
是不是
它也是连续的
我们有什么样的高考成绩
未来会有什么样的工资
这是
连续的函数
尤其在断点附近 它是连续的
看这个叫连续,光滑可导连续
那么这个也是
那么唯一的跳跃
概率的跳跃
那么这个跳跃导致了我们从一个
函数跳到另外一个函数了
那么这个跳跃
不是函数本身的跳跃
是规则带来的跳跃
我们就是利用跳跃来去估算
treatment
effect
这个就是假设
同学们对 RD的假设
如果有问题的话可以现在提出来
好 如果没有的话
我们来看怎么样来去
把这个模型写出来
首先刚才
我们定义了 forcing
variable xi它就是刚才
我们说过的
年级总人数
或者是类似于高考成绩这样的变量
Treatment status
就是这个人它是否接受干预
是完全由xi来决定的
而且它是关于xi的一个
不连续的函数
也就是Di
Di是individual i
是否接受treatment
接受treatment那么Di就等于1
没有接受treatment Di等于0
Di是由谁决定的
是由xi
如果xi大于等于x0
x0是我们的断点政策规定的断点
比如说分数线或者刚才
说的迈蒙尼德法则
就是40的倍数
那么xi大于等于x0
Di就等于1
xi小于x0
Di就等于0
那么
刚才都解释过了
所以只要我们知道xi的取值
我们就知道Di的取值对不对
Di是完全由xi决定的
而且是一个不连续的函数
是个分段函数
大家可以看到这个地方就是不等号
一个是
大于等于,一个是小于
它没有任何重叠在这个范围上
所以这个地方再强调一遍
就是在xi这样的一个
forcing variable
上
我们永远无法看到 xi
等于x0的时候
Di 取两个值 这是看不到的
好
我们来定义potential
outcome Yi
Yi是我的potential
outcome
它当然也会取两个值
如果接受了treatment
它就等于Y1i
如果它没有接受treatment
就等于Y0i
那么
大家注意这个地方Y1i跟Y0i
它是x的一个函数
它并不只是一个点
不是只是一个值一个常数
好 我们讲完这一页
下课
所以说我Yi是关于x的函数
当然我们非常常见的一种形式了
我们把一个不连续的分段函数
我们可以把它写成
假装它是一个连续函数
这样的一个形式等于Y0i
加上什么
加上Y1i减去Y0i然后乘以Di
这样大家可以
把Di等于1和0分别代进去
会发现正好就是前面的分段函数
我们这节课会经常用到这个分段函数
所以这次再强调一遍
后面我就不再细说了
因为后面当我们把Yi
的方程形式展开的时候
看上去会很复杂
但是你要脑子里很清楚
它其实就是这个东西
我们加一项减一项
保持等号不变
把这个搞清楚就可以了
因此大家可以看到显然
Y1i减去Y0i
差值就是接受treatment
跟不接受treatment
它的 outcome的
差值就是我们想估算的
treatment effect
当然它因为戴着角标i它是对
individual i来说的
对于第二个人
它自己的treatment大概是什么
这个不是个平均处理效应
这个是individual的
处理效应
好
我们先讲到咱们休息5分钟
好
咱们今天的讨论是不是长得
非常像RCT里面的模型
我们其实就是按照 RCT
的模型来去构造咱们的
RD的实验条件
那么
好
我们现在开始把 Yi展开讨论
刚才Yi只是一个字母符号
那么Yi它是一个函数形式
我们来看
展开成不同的函数形式
分别是什么样子的
最简单的一种情况
就是说
outcome它是一个线性函数
是 y关于x的
条件期望是一个线性函数
我们先写Y0
Y0i应该大家想象
那就是在断点左边的方程形式
对不对
因为它取Y0
它是Di等于0的情况的函数形式
Y0i关于xi的条件希望
写成α加上βxi
这个是最简单的一个线性函数
那么这个时候我们再给一个特别简单的
条件
假设就是说Y1i
Y1i就是在断点右边的
这个函数形式
它跟Y0i非常像
它跟Y0i的唯一的区别
就是多了一个常数ρ
也就是说 jump
我们把它刻画出来
其它都一样
其它参数完全一样
这个就是一种最简化的一个模型
所以我们把Y1i和Y0i带入上一页
咱们刚才写的这样的一个
函数形式里面
我们就可以得到这样的一个方程形式
Yi
等于
α加βxi加上ρD加上η
这样的一个残差项
那么这个就是我们断点回归里面
最经典的这样的一个形式
那么显然在这里ρ就是我们要估算的
treatment effect
对不对 它是D的系数
它肉就是Y1i跟Y0i的差值
对不对 上一页我们有了
就这里不再列了
那么
我们直接用这个式子来去在一个
局部来做回线性回归就可以了
那么在这个地方大家要注意
这个方程虽然我们前面的模型的setup
长得跟RCT的模型非常像
但是最后一步出来回归方程
跟RCT是
不一样的
最大的不一样是什么
最大不一样就是我们这个地方
首先多了一个xi
看上去它只是一个控制变量
我们要的是Di的系数
ρ
但是xi它在这里非常重要
Di
不仅仅跟xi相关
而且Di是完全由xi决定的
在断点回归的这个方程跟RCT
的方程的一个最大的区别
而且还有刚才我们讲的跳跃的问题
我们
其实这里面它也是有极限的概念的
那么这个模型最简单的情况
下就写成这个样子
-1.2 Why do we use regression 1
-1.3 Why do we use regression 2
-1.4 Conditional expectation function 1
-1.5 Conditional expectation function 2
-1.6 Classical assumption of OLS
-1.8 How to use matrix calculation to solve OLS
-1.11 FAQs of regression:practice
-1.12 FAQs of regression:discussion
-1.13 Maximum Likelihood Estimatio
-Basic Econometrics
-2.1 Classical assumptions of OLS
-2.2 Omitted variable bias and endogeneity
-Weeks 3&4 readings and workshop
-Instrumental Variable
-3.6 Threats to the validity of RCT
-3.17 Random-effecrt and Fiexed-effect model
-3.18 Statistic power analysis
-Weeks 5&6 readings and workshop
-Randomized Experiments - Class Size, Career Academies
-4.6 DID with multiple periods 1
-4.7 DID with multiple periods 2
-4.9 Synthetic control methods
-Week7&8 readings and workshop
-Natural experiment and DID
-5.10 Validity and assumption test 1
-5.11 Validity and assumption test 2
-Regression discontinuity
-6.1 Review of causal inference model
-Propensity Score Matching
-HLM