当前课程知识点:教育定量研究方法(高级) > Weeks 13&14: HLM > HLM > 5.7 Fuzzy RD 1
下面我们讲fuzzy RD
显然我感觉大家的理解能力在前面三
讲的基础上已经有了很大的提升
基本上这堂课学完大概80%的知识
都应该能够比较好的掌握
我们来看fuzzy RD
刚才讲的是sharp RD
也就是说什么,所有人
都严格的按照规则
来去做
因为RD就是用咱们刚才说的用规则
制定的这样的一个
实验条件来去做分析的来做研究的
当所有人都遵守规则的时候
大家可以看到
断点
断点前后
人参加 treatment跟
没有参加treatment
它的概率就是0和1
这个就是非常sharp
这是一个我们叫清晰的断点
但是
在实践中
往往很多人是不按规则办事的
对不对 我们很常见
规则定在那里了
虽然很多人遵守
但总有人没有遵守
这个时候它就不是一个sharp RD了
它就可能是下面这两张图画的
红色的虚线是规则
跟上面sharp RD里是一样的
黑色的实线是实际情况
就是实际的概率
我们可以看到
这个概率就不再仅仅简单的是0和1了
它可以
在本来应该等于0的情况下大于0
在本来应该等于1的情况下
小于1,它可以是线性的
也可以左边是非线性的一个
右边是一个线型的
就是这个概率函数它是一个
可以有不同的形态
它总之它就变成0和1之间的一个值了
不再是0和1这两个非常
固定的值
这种情况我们把它叫fuzzy RD
这个时候方程形态
其实是发生了变化的
那么这个是一一般的形式
那么fuzzy RD讨论的是变成了一个什么问题
它就是不再讨论
assignment status
treatment
assignment到底是0和1的问题
而说是
assignment的概率它是被分到
treatment组的概率是
多少
它讨论的是这个问题
也就是说这个时候
Di是它实际接受
treatment与否这样的一个
二元变量
么Di关于xi的条件希望
就变成了一个概率
它其实是
给定xi
Di=1的
条件概率是多少
就变成这样的一个形态了
那么概率的函数我们用g来表示
那么它也是一个分段函数
对吧
它跟 xi的取值有关
xi大于等于1
x0的时候
它是g1
xi小于x0的时候
它是g0 它可以是两个不同的
可以是不同的函数形态
比如说像这种情况
两边的就是x0的左右两侧
概率函数
它的参数不必然相等
斜率不必然相等
所以说我们就把刚才原来是Di
等于1跟Di等于0的问题
我们把它
就用这个函数形式重新表达
它就变成了一个条件概率函数
这个有没有问题同学们
好好 没有问题
这是模型的set up
在模型set up部分我们就
做了这样的一个调整
根据fuzzy RD的情况
那么对fuzzy RD来讲
它显然会给我们带来什么
带来估算的偏误
我们来看 PPT的左边
是我们已经非常熟悉的sharp RD里的情况
上面是它的概率只有0和1
下面的是outcome的方程形态
那么这个时候ρ就是
在断点这个位置
两边方程的取值的跳跃的情况
我们要的treatment effect
但是在
fuzzy RD的情况
也就是咱们的PPT的右半侧
大家可以看到
首先这个概率它就不再是0和1了
它是01之间的两条曲线了
那么更重要的
是大家可以看到
在y的
y的条件期望函数它就发生了变化
在断点左边
它是实线的曲线
它不再是虚线的曲线了
断点右边也是这段实线的曲线
也不再是上面虚线的曲线了
这个时候如果我们跑一个sharp RD的话
我们得到的
jump跳跃
就是这么一小段
那么显然这一段
它是一个有偏的估计
对不对
它是因为上面
人们不再遵守这个规则才接受treatment的概率
不再是沿着红线在走
而导致下面 potential
outcome的函数形式
的跳跃也是一个有偏的
这个就是fuzzy RD
如果我们不去处理
还是按照之前的模型来去跑回归的话
得到的结果就是有偏的估计
Ok
怎么解决这个问题
怎么解决同学们
让大家想到了我们在RCT里面
见过的 cross
over的问题是不是非常
类似
只不过在 RCT里面
分组规则是实验者设计的
对不对
实验者随机分配的
在 RD里面分组规则
是由我们叫rules
是由规定,规矩
来去设定的 是不是
但是总有些人
它可以绕过
规则 它来
按照自己的
偏好
和不可观测的这些变量
进行选择
接受treatment还是
不接受treatment
就非常类似于我们的cross
over
是不是
这个时候我们就会除了D之外
我们会引入新的变量叫T
T是规则
界定的
分组情况
D是实际的分组的结果
是不是
就变成这样的一种情况
非常类似
这样的话大家想一下
对于 fuzzy RD
我们可以考虑用什么样的
解决办法
来去把 bias
给纠正过来
是不是已经非常明显了 同学们
没想到没有人愿意回答吗
我们就用工具变量对不对
**在
聊天区里说了一句
对大家还是要勤
说话勤打字
这样的话也活跃一下你们的思维
虽然
经过预习答案是比较显然的
那么我们这里就开始考虑用工具变量
法来解决fuzzy RD里面的问题
也就是用t刚才说了
T就是我们的工具变量
就是由
规则制定
所定义好的分组的规则
好
这个是刚才咱们已经设定好的
D的
条件概率函数
它也是个分段函数
那么这时候我们引入T
T是
还是01变量对不对
T是一个也是分段函数
但T就是01的
因为它是分组规则
分组规则就类似于我们sharp RD里面的D了
那么我们就可以把
D的条件期望重新写成
T的函数
那么这样的话我们后面就开始来去建立
两阶段最小二乘法的回归方程了
前面我们把这些变量定义好了
这个方程的模型的设定
我们解释清楚了这里面有什么问题
那么大家后面就注意听
显然
对于一个two stage
least square
estimation来
讲
它需要估算参数的 对不对
那么因此我们这里只能用什么
只能用参数估计
我们不能用
没有办法用非参估计在这里
因为我们本来
工具变量法它就是要估算参数的
那么我们还是从最简单的形式开始
首先我们假定
断点两侧
g0跟g1呢
它也是服从同样的
p阶多项式
这是
我们让这个问题变得很简单
这样模型就会设定的比较简单
大家要记住这个g
它是D关于xi的条件期望函数
那么同时我们还假定
g1跟g0之间在x0这个位置
它们的差值是一个常数项
π
这样的话我们先给出g0的函数形式
它就可以是
xi的一个p阶段上市
那么
这样的话
Di
我们就可以写成
靠近前面这个公式
第二个红红方框里面这个公式
Di它的回归方程形式就变成了什么
就变成了g0i
再加上
g1-g0就是π
乘以t
对不对
然后加上残差项
这样的话就是我们把Di的
回归方程就写出来了
好 这一步有没有问题
好 没有问题
那么
大家想这一步是什么
这一步是不是就是两阶段
最小二乘法的第一步
对不对
因为Di是我们说的什么
内生解释变量
它是一个自选择的结果了 是不是
然后我们又重新用工具对它进行了
建模的解释
就是第一步
所以
我们来套一下 RD的方程
这个是RD的一般回归方程了
对不对
我们把刚才写好的Di
first stage
把它带进去
那么
这个时候
我们就可以求出
D hat
再把 D hat再重新带入到
二阶段方程
当然我们
reduced form
好
那么这样的话
我们就完成这样的一个估算
大家注意这个地方我们有两套
p阶多项式
首先
关于RD的一般方程里面
yi
关于xi的条件期望fxi
它是一个p阶多项式
同时我们又假定Di关于xi的条件
希望也是一个p阶多项式
这两个不是一回事
但是它们都
我们都可以清晰的把它写出来
所以大家可以看到这个我们非常
熟悉的两阶段最小二乘法了
我们用第一阶段
工具变量
包括的
p阶多项式
以及Ti
来去估算了拟合值
D hat
把D hat带入第二阶段
当然我们要怎么样 要纠正残差
不细
回顾了
那么这样的话我们就解决
了Di的内生性问题
使得二阶段的估算
ρ
就是一个无偏估计
对吧
有没有问题
好
没有问题就这个很重要
没问题 好谢谢
好
那么当然了
我们知道既然 t I是一个
二元变量
那么显然我们是可以用瓦
尔的估计来去估算的
那么这些PPT又用瓦尔德估计的形式
把最简单的
这个估算写了一下 当然这个地方
我们也是加入了极限的概念
在一个非常小的带宽内
来去讨论这个问题
-1.2 Why do we use regression 1
-1.3 Why do we use regression 2
-1.4 Conditional expectation function 1
-1.5 Conditional expectation function 2
-1.6 Classical assumption of OLS
-1.8 How to use matrix calculation to solve OLS
-1.11 FAQs of regression:practice
-1.12 FAQs of regression:discussion
-1.13 Maximum Likelihood Estimatio
-Basic Econometrics
-2.1 Classical assumptions of OLS
-2.2 Omitted variable bias and endogeneity
-Weeks 3&4 readings and workshop
-Instrumental Variable
-3.6 Threats to the validity of RCT
-3.17 Random-effecrt and Fiexed-effect model
-3.18 Statistic power analysis
-Weeks 5&6 readings and workshop
-Randomized Experiments - Class Size, Career Academies
-4.6 DID with multiple periods 1
-4.7 DID with multiple periods 2
-4.9 Synthetic control methods
-Week7&8 readings and workshop
-Natural experiment and DID
-5.10 Validity and assumption test 1
-5.11 Validity and assumption test 2
-Regression discontinuity
-6.1 Review of causal inference model
-Propensity Score Matching
-HLM