当前课程知识点:教育定量研究方法(高级) >  Weeks 13&14: HLM >  HLM >  6.22 PSM workshop 6

返回《教育定量研究方法(高级)》慕课在线视频课程列表

6.22 PSM workshop 6在线视频

返回《教育定量研究方法(高级)》慕课在线视频列表

6.22 PSM workshop 6课程教案、知识点、字幕

有同学问为什么我们要用ipw

就Ipw这个逻辑是什么

大家看这张图

这个IPW

它是这样子来做的

也就是说对于 treatment

group的人

它的权重是它的概率的倒数

那么对于control的人

它的权重是一减去概率的倒数

这什么意思呢

大家想整体上来讲

对于我们的一个观测数据

是不是treatment group

的这些样本

我们在跑完 treatment

model之后

我们再来去拟合它的选择出现的概率

那么它们的概率

一般来讲整体上要高于

control group

它们选择treatment的概率对不对

也就是说

这现实跟我们拟合的应该是比较类似的

那么

因此大家想

在treatment group

也就是蓝色的这些样本里面

它的概率越低

它是不是越容易从对照组找到它的

相似的人

因为对照组的人整体的估算

的概率肯定是偏低的

那么

实验组

它们这些人整体的概率是偏高的

那么最高的这些概率

就这些人

这群人我们是很难从

控制组找对照组找到它的相似的人群的

而这些它的概率在整个蓝点里面

这些人群它的概率是偏低的

我们算的 probability

它是更容易从绿色的这些

点里面找到相似人的

所以我要给它更高的权重

所以对于 treatment

group来讲

我们给它的权重是p分之1

也就是说你的概率越小

我给你权重越大

因为你跟另外一群人更相似

这样子你概率越大

我给你权重越低

因为你跟另外一群人越不相似

同样

对于 control group

大家想

它们整体的概率是比treatment group低的

所以对于像这种人

比如说像这个点是吧

或者说这一块的人

那么整体上它们这个概率是

最低的

那么它们在另外一组在蓝点里面

是很难找到相似的人的

所以我就要给它登记的权重

而这些就是概率偏高的这些绿点

它们是更容易从蓝点的样本

里找到相似的人的

所以我要给它

更高的权重

所以对于 control

group来讲

我给它算的权重是一减p分之1

就是这个道理

跟psm的逻辑很像

虽然算法不是很一样

但它算的是很简单的 这是

这是第一点

第二点

同学们可能发现你算的这些结果

不论是用单一的方法也好

还是用

两种方法嵌套也好

算出来的是非常类似的

这是一件好事 这就说明

这个数据在因为我们刚才算的单一的

不论是ra还是Ipw

本身就是比较相似的

你这时候再嵌套

它算出来还是比较相似的

这个一致是件好事情

我们就不用太去

担心我们这个方程有问题

如果不一致的话 当时是个事儿

你就要去看它到底哪个地方出问题了

它都不一致

这个是先做了一个简单的回应

同学们还有什么问题吗

关于我们

这个就是关于命令的

它的逻辑和它的这些

workshop的练习

大家还有问题吗

没问题 我们就过了

好 没问题

就把你的麦克关掉

这个背景音就会出来

生活的气息就扑面而来了

我再简单提一个事儿

再简单提另外一个方程

这个方程我们课上也没计划讲

但是希望大家知道

那么刚才我们讨论的都是基于

一个非常重要的假设

就是条件独立假设

只有条件独立假设满足的情况下

我们不论是psm也好

还是 r a也好

还是 I p w也好

它们才适用

那么这是一个很强的假设

但是强假设满足之后

我们可以看到我们的方程

是比较flexible的

我们并没有在方程形态上

做方程的结构上

做很强的规定

我们希望尽量的放松对方程形态

方程结构的这种假设

那么是这种情况

但实际上现实中

往往是我们可观测的变量是非常有限的

当我们可观测的变量很有限

使得控制了这些变量

就是以这些变量为条件

那么我们这个outcome

仍然不是独立的

也就是说 CI assumption不能满足

这种情况也是非常常见的

那么这种情况

就不能用teffects也不能用psm了

这时候要用什么

这个时候其实用的是hackman

correction

就是来自于hackman

correction这样的一个思想

这是一组模型

那么它怎么解决

它就给方程设定了更强的

一个假设

相当于既然我没有足够的信息

我就把方程的形态进行更强的假设

这种更强的

假设本身它就是一种信息

但是这个信息是强加的了

因为它是假设对吧

它没有办法去验证

那么这个就是解决方案

就是我增强对方程的结构的假设

通过这个结构解决自选择的问题

我们简单说一下

这样你以后在读文献的时候遇到的时候

你就比较了解

你就容易再去读更多的文献

那么它的观察机制是这样子的

这个方程 y

等于β

x

加上δt加上ε

t是我们的treatment

δ是它的系数

当然δ就是我们最关心的

treatment effect

T

它当然就是取01这种最简单的情况

等于1就是接受了处理

等于0的是没有接受处理的问题

它等于1的条件是什么

观测机制

有另外一个方程我们也可以

叫它是treatment方程

可以或者叫它一个效用函数都可以

只有当这个方程

它大于0的时候

这个人才会选择接受treatment

比如说

它上大学的效用是正的

它才会去选择上大学

如果它上大学又痛苦对吧

然后大学毕业之后

它的生活也没有改善

那么上大学对它来说就是一个负的效应

它就会选择0 otherwise

0

那么

这个就是一个观测机制

咱们之前在

极大似然估计法的时候也简单说过

那么我们就给它假设非常

强的一个协方差矩阵

因为这个里面就出现了两个

两个随机干扰项

一个是 μ一个是

μ

那么它们就符合这样的一个

方差协方差矩阵

这个是假设

那么给定这些假设

我们当然就可以去算了

我们可以去估算

那么

这个是极大似然函数

我们也是

加了很强的假设

认为残差是服从什么

服从正态分布的

那么为什么它浮动是态分布

这是假设

大家可以看到当我们的

变量信息不够的时候

我们就加了很多假设

因为这些假设它里面也是带信息的

只不过这些信息我们是直接使用了

没有办法去检验

那么这样的话

我们仍然是第一步来去估算 t

等于1的概率这样的一个方程

同时我们会算 hazard

hazard是

最后大家可以看到

是我们通过这样的一个方程估算以后

得到的

我们来算的是这个东西给定teffects和w

w是第一阶段的方程里面

的自变量x是第二个方程

第二阶段方程是outcome

model里面的这些

自变量 t是我们的treatment

就给你这些条件

我来算y的条件期望

这个方程形态

就变成这样子了

这个里面大家前面这两块大家可以看到

是我们之前方程有的的这个事

βx还有δt这是我们之前有的

ρ乘以δ

再加上h

这一块儿ρ和δ

ρ和σ都是前面方差

协方差矩阵里面的东西

h就是上面这个算的

算出来的这些东西

那么这些

就会

出现在这样的一个方程里

它是一个更结构化的假设

也就是说我们通过前面这一步

把ρ

δ

ρσ

h都算出来了

算出来之后在原来的方程里

就加入了这个东西一个新的变量

加上这个之后

这时候t的估算值

δ就是一个无偏估计了

是因为我们

用后面这一块

把所有的偏误给控制住了

大概就这样

你看这是一个非常强的结构化的建模

我们就不做不细细说了

因为

没有准备让大家去掌握

但是让你知道这个东西有这个东西在

然后你遇到之后你知道可以去哪找它

我们来看一下

state里面

因为时间关系

大家看最后一部分

linear regression

with endogenous

treatment effect

那么这一个地方就是刚才讲过的

这一部分大家可以看用的命令就变了

就变成et regrets

Et regress里面前面还是

这样的一个outcome model

后面逗号后面是一个treatment

model

那么它就是一个很强的

方程结构

那么来去帮我们去估算 trend

effect

大家有时间自己做练习

因为这个数据都给你们了

数据给你们了

然后这个是do file里面的命令都给了

你们用help

还有可以去查命令

相信大家现在 state

的自学能力是很强了

那么这一块

是刚才讲的

那么更老的命令就是海克曼

格曼是一个非常经典的命令

它的思想就是刚才说思想

只不过hackmen命令

它只能控制住偏误

它并没有去把 treatment

effect给估算出来

然后它只是把子选择的偏误给估算出来了

好 这个是这一部分

那么我们刚才还跳过了什么呢

我们跳过了

multi value

treatment

也就是说

刚才咱们看的都是01的

那么当然我们是可以做

超过两种选择的

比如说我们有

三种不同的treatment

对吧

或者是我们还有一个control

这样的形态

那么这个也是

完全可以做的

因为我们的选择模型一个是可以支持

多种分多种这个情况

multi category

是没有问题的

那么ra是更没有问题

因为它就是不同的一个

曲线之间的做差比较

教育定量研究方法(高级)课程列表:

Weeks 1 & 2 Basic Econometrics

-1.1 Regression Outlline

-1.2 Why do we use regression 1

-1.3 Why do we use regression 2

-1.4 Conditional expectation function 1

-1.5 Conditional expectation function 2

-1.6 Classical assumption of OLS

-1.7 Idea of OLS

-1.8 How to use matrix calculation to solve OLS

-1.9 Goodness of fit

-1.10 F test &T test

-1.11 FAQs of regression:practice

-1.12 FAQs of regression:discussion

-1.13 Maximum Likelihood Estimatio

-Basic Econometrics

Weeks 3 & 4: Instrumental Variable

-2.1 Classical assumptions of OLS

-2.2 Omitted variable bias and endogeneity

-2.3 Self-selection bias

-2.4 Idea of IV 1

-2.5 Idea of IV 2

-2.6 Two assumptions of IV

-2.7 Method-of-moments IVE

-2.8 Example of IV estimation

-2.9 2SLS and SEM

-2.10 Residual of 2SLS

-2.11 Standard error of IVE

-2.12 ATE and LATE

-2.13 Extension 1

-2.14 Extension 2

-2.15 Q&A 1

-2.16 Q&A 2

-2.17 Q&A 3

-2.18 Q&A 4

-2.19 IV workshop 1

-2.20 IV workshop 2

-2.21 IV workshop 3

-Weeks 3&4 readings and workshop

-Instrumental Variable

-IV 讨论题目

Weeks 5 & 6: Randomized Experiments - Class Size, Career Academies

-3.1 Introduction

-3.2 Idea of RCT 1

-3.3 Idea of RCT 2

-3.4 Conducting RCT

-3.5 Estimation

-3.6 Threats to the validity of RCT

-3.7 IVE for corss-overs 1

-3.8 IVE for corss-overs 2

-3.9 Clustered group 1

-3.10 Clustered group 2

-3.11 Clustered group 3

-3.12 Q&A 1

-3.13 Q&A 2

-3.14 Q&A 3

-3.15 Q&A 4

-3.16 Fixed-effect model

-3.17 Random-effecrt and Fiexed-effect model

-3.18 Statistic power analysis

-3.19 RCT workshop 1

-3.20 RCT workshop 2

-3.21 RCT workshop 3

-3.22 RCT workshop 4

-Weeks 5&6 readings and workshop

-Randomized Experiments - Class Size, Career Academies

-RCT 讨论题目

Weeks 7 & 8: Natural experiment and DID

-4.1 Introduction

-4.2 DID estimation 1

-4.3 DID estimation 2

-4.5 Assumptions of DID 2

-4.6 DID with multiple periods 1

-4.4 Assumptions of DID 1

-4.7 DID with multiple periods 2

-4.8 DDD

-4.9 Synthetic control methods

-4.10 Q&A 1

-4.11 Q&A 2

-4.12 Q&A 3

-4.13 Q&A 4

-4.14 Q&A 5

-4.15 DID workshop 1

-4.16 DID workshop 2

-4,17 DID workshop 3

-4.18 RD workshop 3

-Week7&8 readings and workshop

-Natural experiment and DID

-DID 讨论题目

Weeks 9 & 10: Regression discontinuity

-5.1 Introduction 1

-5.2 Introduction 2

-5.3 Model Setup

-5.4 RD Estimation 1

-5.5 RD Estimation 2

-5.6 RD Estimation 3

-5.7 Fuzzy RD 1

-5.8 Fuzzy RD 2

-5.9 Fuzzy RD 3

-5.10 Validity and assumption test 1

-5.11 Validity and assumption test 2

-5.12 RD workshop 1

-5.13 RD workshop 2

-5.14 RD workshop 3

-Regression discontinuity

-RD 讨论题目

Weeks 11&12: Propensity Score Matching

-6.1 Review of causal inference model

-6.2 Selection bias

-6.3 Standard OLS

-6.4 Stratification

-6.5 Confrol for covariates

-6.6 PSM 1

-6.7 PSM 2

-6.8 PSM 3

-6.9 Bad control 1

-6.10 Bad control 2

-6.11Q&A 1

-6.12 Q&A 2

-6.13 Q&A 3

-6.14 Q&A 4

-6.15 Q&A 5

-6.16 Q&A 5

-6.17 PSM workshop 1

-6.18 PSM workshop 2

-6.19 PSM workshop 3

-6.20 PSM workshop 4

-6.21 PSM workshop 5

-6.22 PSM workshop 6

-6.23 PSM workshop 7

-6.24 PSM workshop Q&A 1

-6.25 PSM workshop Q&A 2

-Propensity Score Matching

-PSM 讨论题目

Weeks 13&14: HLM

-7.1 Introduction

-7.2 Model setup 1

-7.3 Model setup 2

-7.4 Estimation 1

-7.5 Estimation 2

-7.6 Three level HLM

-7.7 Centering 1

-7.8 Centering 2

-7.9 Growth model 1

-7.10 Growth model 2

-7.11 Meta-analysis 1

-7.12 Meta-analysis 2

-7.13 Q&A 1

-7.14 Q&A 2

-7.15 Q&A 3

-7.16 Q&A 4

-7.17 Q&A 5

-7.18 Q&A 6

-7.19 HLM workshop 1

-7.20 HLM workshop 2

-7.21 HLM workshop 3

-7.22 HLM workshop 4

-7.23 HLM workshop 5

-HLM 讨论题目

-HLM

6.22 PSM workshop 6笔记与讨论

也许你还感兴趣的课程:

© 柠檬大学-慕课导航 课程版权归原始院校所有,
本网站仅通过互联网进行慕课课程索引,不提供在线课程学习和视频,请同学们点击报名到课程提供网站进行学习。