面板数据的变量怎么去中心化
⑴ 如何在面板数据模型中引入虚拟变量
比如你的变量叫做REG1,针对2010年。你同时还有一个变量叫YEAR,里面是每一个变量对应的年数。那么用以下命令,你能生成一个新的变量,只有当对应的YEAR变量为你想要的2010年时,数值取值为1,其他的都取值为0 : gen REG1 = (YEAR==2010)。
⑵ 面板数据变量有一阶单整有平稳的怎么回归
不是的,其他变量都平稳的话,只需要把那个一阶差分平稳的变量差分后建模即可,但是意义会有所差别。如果所有变量都同阶差分平稳的话,可以直接建模,进行协整检验。
⑶ 请问面板数据里我需要把时间设成固定效应下的虚拟变量要怎么弄加分
比如你的变量叫做REG1,针对2010年。你同时还有一个变量叫YEAR,里面是每一个变量对应的年数。那么用以下命令,你能生成一个新的变量,只有当对应的YEAR变量为你想要的2010年时,数值取值为1,其他的都取值为0 : gen REG1 = (YEAR==2010)。
还有一种方法更加方便,就是用TABULATE命令。如果你的变量YEAR非常的规则,比如1990-2010年。共有21个年份。没有其他的比如小数、无理数之类的乱七八糟的数。那么
tabulate YEAR, gen(REG)
会直接生成21个变量,REG1,REG2,....REG21。REG1就是当YEAR =1990时取值为1,其他时候取值为0.类似的REG2就是当YEAR =1991时取值为1,其他时候取值为0.。。。。
⑷ stata面板数据回归中行业的虚拟变量怎么设置
结果的前两行表示模型的类别,LZ采用的为randomeffect随机模型,截面变量:province,样本数目310.群组数目31,也就是每组10个观测值.
3-5行表示模型的拟合优度,分别为within,between,overall,组内,组间,总体三个层次.
6-7行表示针对参数联合检验的wald chi2检验和Pvalue,p=0.000表示参数整体上灰常显著.
8-10行表示解释变量的估计权重,截距,标准差,Z统计量,P值及95%置信区间.这块儿跟截面回归的产出结果是一样的,关于你的解释变量base的权重解释是,在其他多有条件都不变的情况下,base每增加一单位,city会增加0.0179单位,P值0.000,灰常显著.
最后三行分别是随机效应模型中个体效应和随机干扰项的方差估计值,分别为sigma_u,sigma_e.以上两者之间的关系rho.
需要注意的是你的模型拟合度不高,R方只有26%,当然这要看具体是哪方面的研究以及同方向其他学者的拟合结果,如果大家都在20多,那就OK.
⑸ 如何在面板数据中检验变量的内生性
解释变量内生性检验
首先检验解释变量内生性(解释变量内生性的Hausman 检验:使用工具变量法的前提是存在内生解释变量。Hausman 检验的原假设为:所有解释变量均为外生变量,如果拒绝,则认为存在内生解释变量,要用IV;反之,如果接受,则认为不存在内生解释变量,应该使用OLS。
reg ldi lofdi
estimates store ols
xtivreg ldi (lofdi=l.lofdi ldep lexr)
estimates store iv
hausman iv ols
(在面板数据中使用工具变量,Stata提供了如下命令来执行2SLS:xtivreg depvar [varlist1] (varlist_2=varlist_iv) (选择项可以为fe,re等,表示固定效应、随机效应等。详见help xtivreg)
如果存在内生解释变量,则应该选用工具变量,工具变量个数不少于方程中内生解释变量的个数。“恰好识别”时用2SLS。2SLS的实质是把内生解释变量分成两部分,即由工具变量所造成的外生的变动部分,以及与扰动项相关的其他部分;然后,把被解释变量对中的这个外生部分进行回归,从而满足OLS前定变量的要求而得到一致估计量。tptqtp
二、异方差与自相关检验
在球型扰动项的假定下,2SLS是最有效的。但如果扰动项存在异方差或自相关,
面板异方差检验:
xtgls enc invs exp imp esc mrl,igls panel(het)
estimates store hetero
xtgls enc invs exp imp esc mrl,igls
estimates store homo
local df = e(N_g) - 1
lrtest hetero homo, df(`df')
面板自相关:xtserial enc invs exp imp esc mrl
则存在一种更有效的方法,即GMM。从某种意义上,GMM之于2SLS正如GLS之于OLS。好识别的情况下,GMM还原为普通的工具变量法;过度识别时传统的矩估计法行不通,只有这时才有必要使用GMM,过度识别检验(Overidentification Test或J Test):estat overid
三、工具变量效果验证
工具变量:工具变量要求与内生解释变量相关,但又不能与被解释变量的扰动项相关。由于这两个要求常常是矛盾的,故在实践上寻找合适的工具变量常常很困难,需要相当的想象力与创作性。常用滞后变量。
需要做的检验:
检验工具变量的有效性:
(1) 检验工具变量与解释变量的相关性
如果工具变量z与内生解释变量完全不相关,则无法使用工具变量法;如果与仅仅微弱地相关,。这种工具变量被称为“弱工具变量”(weak instruments)后果就象样本容量过小。检验弱工具变量的一个经验规则是,如果在第一阶段回归中,F统计量大于10,则可不必担心弱工具变量问题。Stata命令:estat first(显示第一个阶段回归中的统计量)
(2) 检验工具变量的外生性(接受原假设好)
在恰好识别的情况下,无法检验工具变量是否与扰动项相关。在过度识别(工具变量个数>内生变量个数)的情况下,则可进行过度识别检验(Overidentification Test),检验原假设所有工具变量都是外生的。如果拒绝该原假设,则认为至少某个变量不是外生的,即与扰动项相关。0H
Sargan统计量,Stata命令:estat overid
四、GMM过程
在Stata输入以下命令,就可以进行对面板数据的GMM估计。
. ssc install ivreg2 (安装程序ivreg2 )
. ssc install ranktest (安装另外一个在运行ivreg2 时需要用到的辅助程序ranktest)
. use "traffic.dta"(打开面板数据)
. xtset panelvar timevar (设置面板变量及时间变量)
. ivreg2 y x1 (x2=z1 z2),gmm2s (进行面板GMM估计,其中2s指的是2-step GMM)
⑹ 怎么进行去中心化处理
根据侯杰泰的话:所谓中心化, 是指变量减去它的均值(即数学期望值)。对于样本数据,将一个变量的每个观测值减去该变量的样本平均值,变换后的变量就是中心化的。
对于你的问题,应是每个测量值减去均值。
⑺ eviews 怎么对数据进行去中心化
减去均数就可以去中心化
⑻ 数据,交互变量一定要去中心化吗
不一定,中心化处理只不过是为了方便解释而已,并不影响各项回归系数。(南心网 调节效应中心化处理)