应用回归分析试题(二)
应用回归分析试题(二)
一、选择题
1. 在对两个变量x ,y 进行线性回归分析时,有下列步骤:
y i i =2, 1,①对所求出的回归直线方程作出解释;②收集数据(x i 、),…,
n ;③求线性回归方程;④求未知参数; ⑤根据所搜集的数据绘制散点图。
如果根据可行性要求能够作出变量x , y 具有线性相关结论,则在下列操作中正确的是( D )
A .①②⑤③④ B .③②④⑤①
C .②④③①⑤ D .②⑤④③①
2. 下列说法中正确的是(B )
A .任何两个变量都具有相关关系
B .人的知识与其年龄具有相关关系
C .散点图中的各点是分散的没有规律
D .根据散点图求得的回归直线方程都是有意义的
3. 下面的各图中,散点图与相关系数r 不符合的是(B )
4. 一位母亲记录了儿子3~9岁的身高,由此建立的身高与年龄的回
ˆ=7.19x +73.93,归直线方程为y 据此可以预测这个孩子10岁时的身高,
则正确的叙述是( D )
A .身高一定是145.83cm B .身高超过146.00cm
C .身高低于145.00cm D .身高在145.83cm 左右
5. 在画两个变量的散点图时,下面哪个叙述是正确的( B )
(A)预报变量在x 轴上,解释变量在y 轴上
(B)解释变量在x 轴上,预报变量在y 轴上
(C)可以选择两个变量中任意一个变量在x 轴上
(D)可以选择两个变量中任意一个变量
二、填空题
m 1. y 关于m 个自变量的所有可能回归方程有个。
2. H 是帽子矩阵,则。
3.
4. 回归模型的一般形式是 y =β0+β1x 1+β2x 2+ +βp x p +ε。 5. Cov (e ) =σ2(I -H ) (e 为多元回归的残差阵)。
三、叙述题
1. 引起异常值消除的方法(至少5个) ?
答案:异常值消除方法:
(1)重新核实数据;
(2)重新测量数据;
(3)删除或重新观测异常值数据;
(4)增加必要的自变量;
(5)增加观测数据,适当扩大自变量取值范围;
(6)采用加权线性回归;
(7)改用非线性回归模型;
2. 自相关性带来的问题?
答案:(1)参数的估计值不再具有最小方差线性无偏性;
(2)均方差(MSE )可能严重低估误差项的方差;
(3)容易导致对t 值评价过高,常用的F 检验和t 检验失败;
(4)当存在序列相关时,β仍然是β的无偏估计量,但在任一特定的样本中;β可能严重扭曲β的真实情况,即最小二乘估计量对抽样波动变得非常敏感;
(5)如果不加处理的运用普通最小二乘估计模型参数,用此模型进行预测和结构分析会带来较大的方差甚至错误的解释。
3. 回归分析与相关分析的区别与联系是什么?
答案:联系:回归分析和相关分析都是研究变量间关系的统计学课题。 区别:a. 在回归分析中,变量y 称为因变量,处在被解释变量的特殊位。在相关分析中,变量x 和变量y 处于平等地位,即研究变量y 与变量x 的密切程度与研究变量x 与变量y 的密切程度是一回事。 b. 相关分析中涉及的变量y 与变量x 全是随机变量。而在回归分析中,因为变量是随机的,自变量可以是随机变量,也可以是非随机的确定量。
c. 相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。而回归分析不仅可以提示变量x 对变量y 的影响大小,还可以由回归方程进行预测和控制。 ^^
4. 叙述一元回归模型的建模过程?
答案:第一步:提出因变量与自变量;
第二步:收集数据;
第三步:画散点图;
第四步:设定理论模型;
第五步:用软件计算,输出计算结果;
第六步:回归诊断,分析输出结果。
四、证明题
1. 证明β0是β0的无偏估计。
证明:E(β0)=E(Y -β1X )
=E(1Y i -X ∑n i =1-n ^^-^-n ∑i =1n X i -X Y i ) L xx --
=E(∑(-X
i =1
n 1n -X i -X Y i ) ) L xx X i -X ) (β0+β1X i +εi )] L xx
-
-- =E[∑(-X i =11n - =E[β0+
=β0+
=β0
n X i -X 1(-X ) εi ] ∑n L i =1xx --n X i -X 1(-X ) E(εi ) ∑n L i =1xx
2. 当y ~N (X β, σI n ) 时,证明β~N (β, σ2(X ' X ) -1) 。 2^
证明:E(β)=E((X T X ) -1X T y )
=(X T X ) -1X T E(y)
=(X T X ) -1X T E(Xβ+ε)
=(X T X ) -1X T X β
=β
D(β)=cov(β, β)
=cov((X T X ) -1X T y ,(X T X ) -1X T y )
=(X T X ) -1X T cov(y,y)((X T X ) -1X T ) T
=(X T X ) -1X T σ2X(X T X ) -1
=σ2(X T X ) -1X T X (X T X ) -1
=σ2(X T X ) -1
3. 证明,在多元线性回归中,最小二乘估计β与残差向量e 不相关,即Cov (β, e ) =0
T -1T 证明:Cov (β, e ) =Cov [(X X ) X y , (I -H ) y ] ^^^^^^^
=(X T X ) -1X T Cov (y , y )(I -H ) T
=σ2(X T X ) -1X T (I -H )
=σ2[(X T X ) -1X T -(X T X ) -1X T X (X T X ) -1X T ]
=σ[(X X ) X -(X X ) X ]
=02T -1T T -1T
参考题:
1. 某同学由x 与y 之间的一组数据求得两个变量间的线性回归方程为y =bx +a ,已知:数据x 的平均值为2,数据y 的平均值为3,则
( A )
A .回归直线必过点(2,3) B .回归直线一定不过点(2,3)
C .点(2,3)在回归直线上方 D .点(2,3)在回归直线下方
2. 在一次试验中,测得(x , y ) 的四组值分别是A (1, 2), B (2, 3), C (3, 4), D (4, 5) 则Y 与X 之间的回归直线方程为( A )
A .y =x +1 B .y =x +2 C .y =2x +1 D.y =x -1
r =L xy
L xx L yy 的意义是:(1)|r |≤1,(2)|r |越接近于1, 3. 相关系数
相关程度越大,(3)|r |越接近于0,相关程度越小,
4. DW 的取值范围为:
5. 叙述自变量选择的准则
答案:准则1:自由度调整复决定系数R a 2达到最大;
准则2:赤池信息量AIC 达到最小;
准则3:C p 统计量达到最小。