当前课程知识点:教育定量研究方法(高级) >  Weeks 13&14: HLM >  HLM >  7.14 Q&A 2

返回《教育定量研究方法(高级)》慕课在线视频课程列表

7.14 Q&A 2在线视频

返回《教育定量研究方法(高级)》慕课在线视频列表

7.14 Q&A 2课程教案、知识点、字幕

然后我们现在来估计另一个待定的参数

β零j

我们同样

同样先看到

我们的

两个阶段的方程

我们刚才已经计算出了

个体差异

eij它的均值的方差是σ平方减去

以及组间差异的方差

τ00

然后我们现在定义了一个新的参数

叫reliability

用λ表示

他的计算方式是组间的方差

除以组间方差加组内方差

换一种说法是

待估计的参数方差

除以总方差

待估计的参数方差是怎么回事呢

level2的方程

β0j=γ00+

μ0j

理论上γ00是一个常数

所以它的方差是0 也就是

我们带估计的参数的方差

β0j的方差就等于τ00

它是这个逻辑

那么 reliability为什么叫

reliability

待估计参数的方差占到总方差的

比例

那么这个值越大的话

其实老师的第二点注释里面写的很清楚了

当reliability

越接近一的时候

这就说明

level2中的

intercepts

截距

不同的组之间就是组间差异

组间方差其实是非常大

就是liability的含义

然后我们得到reliability

能够干什么的

对吧 我们右下角这个方程

其实这是对β0j的一个加权平均

只是

更简洁

所以没有写成那种

σ权重的形式

那么我们可以把β0j的估计分成

两个部分

一个是yj也就是group me

每个组的均值

另一部分是γ00

就是

整体样本的intersect

那么他们俩的权重分别是多少呢

Group mean

的权重就是λ

然后γ00的权重是1-λ

所以precision和

reliability这个

同学问他们两者有什么区别

Precision就是γ00

估算的时候加权平均的权重

而reliability就是β

0j估计的时候加权平均的权重

那么我们的标题叫shrink

shrinkage

estimator

shrinkage就是

收缩

他其实

理解成

不同

不同的

我要怎么说

在估计的时候不同的参考值之间

他们在权重上的一个博弈

如果你更多的依靠

真实的参数

这个参数的权重更大

你就是更少的依靠另一个参数

这个估计其实就是在说

这些在参数估计的时候

这些已知信息他们的权重之间的博弈

我大概讲清楚了吗

讲的很清楚

周璐我再补充一点

大家看一下左边的这两个方程

当我们开始估算β0这个的时候

其实根据level one的方程

跟level two的方程

我们都可以对β0g做出一个无偏估计

对吧 如果根据level one的话

我们对β零无偏估计是它的组内的均值

就是 yj对吧

那么如果是根据 level

two的话

我们对β零这个无偏估计

就是γ00对不对

所以其实这个地方我们会发现两有两个

统计量都可以作为βoj的无偏估计

这个时候我取谁不取谁

这个才

引发了

对于收缩估计的探讨

后来**讲的东西

我就是要看

那么哪一边更reliable

我就更趋向于哪一边

这是一个

非常咱们说

直观的直觉上的这么一个解释

他在统计上它也具有非常好的性能

前人都已经证明了这样的一个收缩

估计

他的

平方和是最小的

所以最优估计

再补充一下

谢谢老师 然后

大爷

介绍一下吉大自然

估计法老师上课讲的比较快

可能觉得大家比较熟悉

当时还是有同学提问了

所以可能

其实已经过去太久忘记了一些

我们简单的重新回顾一下其他

虽然估计法的一个思路

我在这里设计了一个我觉得有一点点牵强

但是大家能说明意思的例子

假设我有一个装满红球和黑球的袋子

假如我希望取出红球的概率最大

我应该放几个红球几个黑球

那么这里我的代估计参数就是红球的数量

x和黑球的数量y

那么我的自然函数

取出红球的概率

我希望它能够取到极大值

那么这个自然函数l是一个

关于x和y的方程

所以我要得到是关于它们的函数

我要得到这个函数的几大值

非常直观的思路是

我分别对不同的

参数求偏导

这样我就可以得出极值

然后我们关心的其实不是极大值

我们关心的是

取极值的时候各个参数的取值

这样我们就可以得到一个

我们的带估计参数的估计值

这是极大自然估计法的一个

大概的思路

然后我们再具体看如何应用到我们的

统计学的参数估计中间来

自然函数lθ是一个关于

注意这个地方是大写的

这n个变量以及

带估计参数 θ黑体表示

它是一个vector

它可能里面

含了好几个

带过去的参数

是关于这些的函数

然后当我们取到一个样本的时候

实际上

我们的

就是大x1大x2到大x

n已经有了确定的取值

也就是我们样本的

取值

所以我们现在关心的是

需要在

待定参数c它取到什么

值的时候才能够使得

自然函数极大

然后具体到

h l m估计,老师

的PPT也写得很清楚

这个y是我们的outcome

然后 l y

欧米伽条件下loy

我们的

自然函数

然后

u是包括了所有的

level二层面的随机效应

然后我们一把式包括了所有的带固参数

它大概是一个这样的形式

所以我们家现在估计法的思路

还是对似然函数求偏导

然后你得到

他求极大

他得到极大支持

我们的Ω的

估计值

这是极大似然估计法的一个

我要讲的大概是

下面请**同学讲下一题

各位同学大家好

第三大问题主要是关于

组建方差与总方差之比的一系列问题

这位同学提的问题主要就是

想要探讨一下

关于hlm它的适用条件

适用形式和适用范围的问题

那么首先我们来看第一问

他说为什么当

组间方差与总方差之比较小的时候

会导致比较

较大可能性的导致第一类错误

这个地方我们可以首先看一下这类式子

Icc也就是ρ

它是指组间方差与总方差之比

那么我们可以发现当值

比较小说明了什么呢

说明我们的

组间之间的方差它比较小

总的方差

比较大

那么这就反映出组内的

各群体的差异比较大

但是组与组之间的差别比较少

也就是说在这种情况下面

我们可以认为组与组之间的差别并不大的

也就是我们可以把

整个群体部分组来进行分析

如果在这种背景下面

你一定要用hlm来进行

分析的话

那么你所探究的影响因素

和相应的

你想要预设的模型

更容易出现错误

特别是当你得到相应显著性结果的时候

就更加容易拒绝假设也就犯了弃真的错误

也就是我们的第一类错误

这是第一问

那么第二问

这位同学又问了

组间方差除以组内方差有

多大的时候才视为差异

那么有时候组内差异很小

但第二层次的组间差异很大

于是导致Icc偏大

这个时候如何识别大的部分在哪个层次

那么在这种情况下面

首先

通过

分析我们可以发现

如果说是组内差异很小

但是组间差异很大的话

在这种情况下面

我们实际上可以将

组与组当成一个个体的单页

例如清华大学 北京大学

它的组内差异

我们可以视作它的组内差异

组内差异很小

是不是

不应该去北京大学和清华大学

武汉大学和清华大学

我们可以把它当成组间差异很大

然后是做它的组内差异很小

那么这个时候我们就没有必要去

探究

每一个学校内部

每个学生他之间的差别了

我们可以把清华大学

武汉大学和若干的大学

当做分析的单元和对象使用

然后来进行传统的线性回归

探究它的

你研究问题的研究假设

那么同样这个同学还问

Icc到底要多大才视为显著呢

那么

我在已有的文献当中

也没有给出一个固定的答案

但是也有学者提出了

大Icc

大于5%

也就是说你的组间差异

比上总体的方差超过5%的时候

这种情况

可以被认为是

内部个体

有差异

并且组与组之间

也存在着

较大的变形这种情况

适用于多重线性模型

如果说你的Icc小于5%

甚至趋近于0的话

你就可以直接

像我刚才说的第一种方法去做

将它视为一个整体的单元

来进行回归分析

以上就是回答

不知道这位同学还有没有问题

这个组间方差如果是为0的话

方差都来自于个体内部

一就是组的内部

这种情况下应该是

所有的人

他们之间没有组内相似性

没有组内相关性对吧

这个时候应该是

我就不用多层级模型

就用普通的普通的回归就可以了

我就不用考虑方差结构

但是当组内的 I c c特别大的时候

比如说趋近于一

体内部是没有任何差异的

差异来自于全部来自于组间

组内就没有什么差异

这个时候就乘着刚才说的

那么我们就没有必要分析组织内部了

就按照这个单元

把单元作为一个个体来去分析

再confirm一下

因为这个组内组间很容易绕晕了

你文字写的没文字写的没错

I c c越大的话是组

组间差异越大

组内差异越小

教育定量研究方法(高级)课程列表:

Weeks 1 & 2 Basic Econometrics

-1.1 Regression Outlline

-1.2 Why do we use regression 1

-1.3 Why do we use regression 2

-1.4 Conditional expectation function 1

-1.5 Conditional expectation function 2

-1.6 Classical assumption of OLS

-1.7 Idea of OLS

-1.8 How to use matrix calculation to solve OLS

-1.9 Goodness of fit

-1.10 F test &T test

-1.11 FAQs of regression:practice

-1.12 FAQs of regression:discussion

-1.13 Maximum Likelihood Estimatio

-Basic Econometrics

Weeks 3 & 4: Instrumental Variable

-2.1 Classical assumptions of OLS

-2.2 Omitted variable bias and endogeneity

-2.3 Self-selection bias

-2.4 Idea of IV 1

-2.5 Idea of IV 2

-2.6 Two assumptions of IV

-2.7 Method-of-moments IVE

-2.8 Example of IV estimation

-2.9 2SLS and SEM

-2.10 Residual of 2SLS

-2.11 Standard error of IVE

-2.12 ATE and LATE

-2.13 Extension 1

-2.14 Extension 2

-2.15 Q&A 1

-2.16 Q&A 2

-2.17 Q&A 3

-2.18 Q&A 4

-2.19 IV workshop 1

-2.20 IV workshop 2

-2.21 IV workshop 3

-Weeks 3&4 readings and workshop

-Instrumental Variable

-IV 讨论题目

Weeks 5 & 6: Randomized Experiments - Class Size, Career Academies

-3.1 Introduction

-3.2 Idea of RCT 1

-3.3 Idea of RCT 2

-3.4 Conducting RCT

-3.5 Estimation

-3.6 Threats to the validity of RCT

-3.7 IVE for corss-overs 1

-3.8 IVE for corss-overs 2

-3.9 Clustered group 1

-3.10 Clustered group 2

-3.11 Clustered group 3

-3.12 Q&A 1

-3.13 Q&A 2

-3.14 Q&A 3

-3.15 Q&A 4

-3.16 Fixed-effect model

-3.17 Random-effecrt and Fiexed-effect model

-3.18 Statistic power analysis

-3.19 RCT workshop 1

-3.20 RCT workshop 2

-3.21 RCT workshop 3

-3.22 RCT workshop 4

-Weeks 5&6 readings and workshop

-Randomized Experiments - Class Size, Career Academies

-RCT 讨论题目

Weeks 7 & 8: Natural experiment and DID

-4.1 Introduction

-4.2 DID estimation 1

-4.3 DID estimation 2

-4.5 Assumptions of DID 2

-4.6 DID with multiple periods 1

-4.4 Assumptions of DID 1

-4.7 DID with multiple periods 2

-4.8 DDD

-4.9 Synthetic control methods

-4.10 Q&A 1

-4.11 Q&A 2

-4.12 Q&A 3

-4.13 Q&A 4

-4.14 Q&A 5

-4.15 DID workshop 1

-4.16 DID workshop 2

-4,17 DID workshop 3

-4.18 RD workshop 3

-Week7&8 readings and workshop

-Natural experiment and DID

-DID 讨论题目

Weeks 9 & 10: Regression discontinuity

-5.1 Introduction 1

-5.2 Introduction 2

-5.3 Model Setup

-5.4 RD Estimation 1

-5.5 RD Estimation 2

-5.6 RD Estimation 3

-5.7 Fuzzy RD 1

-5.8 Fuzzy RD 2

-5.9 Fuzzy RD 3

-5.10 Validity and assumption test 1

-5.11 Validity and assumption test 2

-5.12 RD workshop 1

-5.13 RD workshop 2

-5.14 RD workshop 3

-Regression discontinuity

-RD 讨论题目

Weeks 11&12: Propensity Score Matching

-6.1 Review of causal inference model

-6.2 Selection bias

-6.3 Standard OLS

-6.4 Stratification

-6.5 Confrol for covariates

-6.6 PSM 1

-6.7 PSM 2

-6.8 PSM 3

-6.9 Bad control 1

-6.10 Bad control 2

-6.11Q&A 1

-6.12 Q&A 2

-6.13 Q&A 3

-6.14 Q&A 4

-6.15 Q&A 5

-6.16 Q&A 5

-6.17 PSM workshop 1

-6.18 PSM workshop 2

-6.19 PSM workshop 3

-6.20 PSM workshop 4

-6.21 PSM workshop 5

-6.22 PSM workshop 6

-6.23 PSM workshop 7

-6.24 PSM workshop Q&A 1

-6.25 PSM workshop Q&A 2

-Propensity Score Matching

-PSM 讨论题目

Weeks 13&14: HLM

-7.1 Introduction

-7.2 Model setup 1

-7.3 Model setup 2

-7.4 Estimation 1

-7.5 Estimation 2

-7.6 Three level HLM

-7.7 Centering 1

-7.8 Centering 2

-7.9 Growth model 1

-7.10 Growth model 2

-7.11 Meta-analysis 1

-7.12 Meta-analysis 2

-7.13 Q&A 1

-7.14 Q&A 2

-7.15 Q&A 3

-7.16 Q&A 4

-7.17 Q&A 5

-7.18 Q&A 6

-7.19 HLM workshop 1

-7.20 HLM workshop 2

-7.21 HLM workshop 3

-7.22 HLM workshop 4

-7.23 HLM workshop 5

-HLM 讨论题目

-HLM

7.14 Q&A 2笔记与讨论

也许你还感兴趣的课程:

© 柠檬大学-慕课导航 课程版权归原始院校所有,
本网站仅通过互联网进行慕课课程索引,不提供在线课程学习和视频,请同学们点击报名到课程提供网站进行学习。