搜题
网友您好,请在下方输入框内输入要搜索的题目:
搜题
题目内容 (请给出正确答案)
提问人:网友anonymity 发布时间:2022-01-06
[主观题]

在存在AR(1)自相关的情形下,什么估计方法能够产生BLUE估计量?简述这个方法的具体步骤。

在存在AR(1)自相关的情形下,什么估计方法能够产生BLUE估计量?简述这个方法的具体步骤。

简答题官方参考答案 (由简答题聘请的专业题库老师提供的解答)
查看官方参考答案
更多“在存在AR(1)自相关的情形下,什么估计方法能够产生BLUE估计量?简述这个方法的具体步骤。”相关的问题
第1题
在存在序列自相关的情形下,常用的OLS估计量总是高估了估计量的标准差。
点击查看答案
第2题
对于一元线性回归模型,当随机误差项存在一阶自相关情形时,下面估计自相关系数ρ的方法中,哪些是不正确的? ()

A、用OLS估计得到的模型残差对其一阶滞后进行回归,一阶滞后的参数估计量作为ρ的估计量。

B、通过DW统计量来计算,即r=1-DW/2。

C、直接计算模型残差与其一阶滞后的简单相关系数。

D、用被解释变量与其一阶滞后回归,一阶滞后的参数估计量作为ρ的估计量。

点击查看答案
第3题
当存在序列自相关时,OLS估计量是有偏并且无效的。
点击查看答案
第4题
估计p:科克伦-奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:及AR(1)模式于是科克伦
估计p:科克伦-奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:

及AR(1)模式

于是科克伦和奥克特推荐如下步腺来估计ρ。

(1)用通常的OLS方法估计方程①并得到残差ut。顺便指出,你可以在模型中包含不止一个X变量。

(2)利用第1步得到的残差做如下回归:

这是方程②在实证中的对应表达式。

(3)利用方程③中得到的,估计广义差分方程(129.6)。

(4)由于事先不知道方程③中得到的是不是ρ的最佳估计值,所以把第3步中得到的值代入原回归①,并得到新的残差解

(5)现在估计如下回归

它类似于方程③,并给出p的第二轮估计值。由于我们不知道p的第二轮估计值是不是真实p的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦-奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当p的两个相邻估计值相差很小(比如不是0.01或0.005)时,便可停止迭代。在工资-生产率一例中,在停止之前约需要3次迭代。

a.利用科克伦-奥克特迭代程序,估计工资生产率回归(12.5.2)的p.在得到ρ的“最终”估计值之前需要多少次迭代?

b.利用a中得到的p的最终估计值,在去掉第一次观测和保留第一次观测的情况下,估计工资生产率回归。结果有何差异?

c.你认为在变换数据以解决自相关问题时保留第一次观测重要吗?

点击查看答案
第5题
以下关于序列相关检验方法的说法正确的有:

A、德宾-沃森d统计量的取值在-1和+1之间。

B、德宾-沃森d检验假定误差项具有同方差性。

C、德宾-沃森d检验只能检验一阶序列相关。

D、序列相关违背的是关于随机干扰项和解释变量的假定

点击查看答案
第6题
参考表12-2中的铜业数据。(1)a.根据这些数据,估计以下回归模型:,并解释所得结果。b.求出上述回归
参考表12-2中的铜业数据。

(1)a.根据这些数据,估计以下回归模型:,并解释所得结果。

b.求出上述回归的残差和标准化残差并作图。你能对这些残差中是否有自回归做些什么猜测?

c.估计德宾-沃森d统计量并对数据中可能出现的自相关性质作出评论。

d.做游程检验,看你的答案是否不同于刚才在c中所得到的结果。

e.你怎样辨别AR(p)过程是否比AR(1)过程更好地描述自相关?

(2)如果该题的结果表明存在序列相关:

a.用科克伦-奥克特两步程序,估计可行GLS或广义差分回归,并比较你所得的结果。

b.如果估计自a的科克伦-奥克特法的ρ值和从d统计量估计得的结果相差较大,你将选择哪一个估计ρ的方法,为什么?

点击查看答案
第7题
判断下列各题的对错,并简单说明理由:
点击查看答案
第8题
假设Y为内生变量,X为外生变量,以下各组方程中哪些方程可以用Durbin-Watson方法检验一阶自相关:

(1)Yt1Xtt

(2)Yt1Xt1Xt-1t

(3)Yt1Yt-1t

(4)Yt1Yt-11Xt-1t

(5)Yt01Xt1Xt-1t

点击查看答案
第9题
经济理论指出,家庭消费支出Y不仅取决于可支配收入X1,...

经济理论指出,家庭消费支出Y不仅取决于可支配收入X1,还决定于个人财富X2,即可设定如下回归模型:

Yi01X1i2X2ii

试根据表4-13的资料进行回归分析,并说明估计的模型是否可靠,给出你的分析。

表4-13单位:元

Y

X1

X2

Y

X1

X2

700

800

8100

1150

1800

18760

650

1000

10090

1200

2000

20520

900

1200

12730

1400

2200

22010

950

1400

14250

l550

2400

24350

1100

l600

16930

1500

2600

26860

点击查看答案
第10题
对一元线性回归模型

Yt01Xtt

点击查看答案
重要提示: 请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案
购买前请仔细阅读《购买须知》
请选择支付方式
微信支付
支付宝支付
点击支付即表示你同意并接受《服务协议》《购买须知》
立即支付
搜题卡使用说明

1. 搜题次数扣减规则:

功能 扣减规则
基础费
(查看答案)
加收费
(AI功能)
文字搜题、查看答案 1/每题 0/每次
语音搜题、查看答案 1/每题 2/每次
单题拍照识别、查看答案 1/每题 2/每次
整页拍照识别、查看答案 1/每题 5/每次

备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。

2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。

3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。

请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

- 微信扫码关注简答题 -
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
- 微信扫码关注简答题 -
请用微信扫码测试
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

简答题
下载APP
关注公众号
TOP