逐步迴歸法引入新變數不通過t檢驗但提高了可決係數,該不該保留

2021-04-18 02:29:24 字數 3436 閱讀 3105

1樓:匿名使用者

不行,引入新變數r2肯定是增大的

2樓:匿名使用者

基本上引入新變數就一定會引起測定係數的提高,所以最好不要把測定係數提高當做一個篩選依據。

還是應該看變數的顯著性檢驗結果。

如果t檢驗不顯著,那最好還是不保留了吧。

用spss做迴歸分析的時候,直接用原始資料做出來自變數與因變數的係數不能通過t檢驗,變數間相關係數較大。

3樓:

不太懂你的意思,你描述的步驟沒有問題。但按你說的,開始時候不納入控制變數應該也是有作用的啊,怎麼會迴歸係數不顯著呢

計量經濟學中多重共線性的檢驗方法有哪些

4樓:莫道無情

1、簡單相關係數矩陣法(

輔助手段)

此法簡單易行;但要注意兩變數的簡單相關係數包含了其他變數的影響,並非它們真實的線性相關程度的反映,一般在0.8以上可初步判定它倆之間有線性相關。

2、變數顯著性與方程顯著性綜合判斷

(修正)可決係數大,f值顯著大於臨界值,而值不顯著;那麼可認為存在多重共線性。

3、輔助迴歸

將每個解釋變數對其餘變數回歸,若某個迴歸方程顯著成立,則該解釋變數和其餘變數有多重共線性。

(4)方差擴大(膨脹)因子法

(5)直觀判斷法

增加或者減少一個解釋變數,或者改變一個觀測值時,迴歸引數發生較大變化。重要解釋變數沒有通過t檢驗。有些解釋變數的迴歸係數符號與定性分析的相反。

5樓:匿名使用者

一、一般線性迴歸:

proc reg data=abc;

model y=x1-x4

run;

二、多重共線性的檢驗

1、簡單相關係數檢驗法

proc corr data=abc;

var x1-x4;

run;

2、方差擴大因子法

proc reg data=abc;

model y=x1-x4/vif;

run;

3、直觀分析法(略)

4、逐步迴歸檢測法

這在sas中有多重篩選解釋變數的方法:forward、backword、stepwise、maxr、minr、rsquare,主要採用stepwise

proc reg data=abc;

model y=x1-x4/selection=stepwise sle=0.05 sls=0.10;

run; quit;

5、特徵值和病態指數

proc reg data=abc;

model y=x1-x4/collin;

run;

三、多重共線性的補救措施

1、提出變數法(根據前面的檢測剔除掉vif值大的變數……略)

2、增大樣本容量(略)

3、變換模型形式

常使用變數的差分方式,一階差分形式如下:

data abc;

set abc;

x1lag1=lag(x1);

x2lag1=lag(x2);

x3lag1=lag(x3);

x4lag1=lag(x4);

ylag1=lag(y);

if ****s(x1lag1,x2lag1,x3lag1,x4lag1,ylag1)>0 then delete;

dx1=x1-x1lag1;

dx2=x1-x2lag1;

dx3=x1-x3lag1;

dx4=x1-x4lag1;

dy=x1-ylag1;

run;

proc reg data=abc;

model y=x1-x4;

run;quit;

4、利用非樣本先驗資訊(即已知某些解釋變數之間的等式從而可剔除掉一些解釋變數,略)

5、橫截面資料與時間序列資料並用

屬於先驗資訊法的變種,首先利用橫截面資料估計出部分引數代入原方程,再利用時間序列資料估計出另外的部分引數,其前提是前一部分引數在不同時間上變化很小。

6、變數變換

絕對指標轉為相對指標;

名義資料轉為實際資料;

小類指標合併為大類指標(主成分分析和因子分析,後面再予補充)

7、逐步迴歸法(參見檢驗部分,略)

8、嶺迴歸

當自變數存在多重共線關係時, 均方誤差將變得很大,故從均方誤差的角度看, 普通最小二乘估計不是係數的好估計,減少均方誤差的方法就是用嶺迴歸估計替代最小二乘估計。但使得均方誤差達到最小的k值依賴於未知引數係數和隨機干擾項的方差,因此k 值的確定是嶺迴歸分析中關鍵。

在實際應用中, 通常確定k值的方法有以下幾種:①嶺跡圖法, 即對每個自變數xi, 繪製隨k值的變化嶺迴歸估計的變化曲線圖。一般選擇k使得各個自變數的嶺跡趨於穩定;②方差膨脹因子法, 選擇k使得嶺迴歸估計的vif<10;③控制殘差平方和法, 即通過限制嶺迴歸估計的殘差平方和不能超過cq(其中c>1為指定的常數,q為最小二乘估計的殘差平方和)來找出最大的k值。

data abc;

input x1-x3 y;

cards;

149.3 4.2 108.1 15.9

161.2 4.1 114.8 16.4

171.5 3.1 123.2 19.0

175.5 3.1 126.9 19.1

180.8 1.1 132.1 18.8

190.7 2.2 137.7 20.4

202.1 2.1 146.0 22.7

212.4 5.6 154.1 26.5

226.1 5.0 162.3 28.1

231.9 5.1 164.3 27.6

239.0 0.7 167.6 26.3

;run;

proc reg data=abc outest=out1 graphics outvif;

model y=x1-x3/ridge=0.0 to 0.1 by 0.01 0.2 0.3 0.4;

plot/ridgeplot;

proc print;run;quit;

9、主成分迴歸法

proc reg data=abc outest=out2;

model y=x1-x3/pcomit=1,2 outvif;

proc print data=out2;run;quit;

10、偏最小二乘迴歸法

proc pls data=abc outmodel=out3 cv= one method=simpls;

model y=x1-x3;

proc print data=out3;

run; quit;

這些是sas軟體的檢驗方法。

6樓:周先生

計量經濟學彙總有很多共性檢測方法。

在Eviews中,用逐步迴歸法剔除解釋變數後,R 2比原來小了,這樣的情況還應該剔除掉那個解釋變數嗎

刪除變數會減少r2,很正常的,這和共線性無關 tongjizhixing 請大神指點,我eviews迴歸結果r 2太小,結果如圖,請問我怎麼修改。增加其它的解釋變數。r2不小啊 做專業資料統計分析,找我吧 一個關於迴歸分析裡逐步迴歸自變數選取與剔除的問題,求幫忙。第一問回答是因為若引入某變數x2,其...

什麼是一元線性迴歸法?它有哪些使用條件?相關係數說明了什麼

參見北京航空航天大學出版社的 基礎物理實驗 修訂版 113頁下方 確定一元線性迴歸方程時,兩個變數的相關係數是越小越好嗎 不是!是 絕對值 越大越好。若相關係數絕對值等於1,則兩個變數 就是 函式關係 而不是 相關 關係 迴歸就是要了解變數之間的關係,相關性當然越大越好了 一元線性迴歸分析中的迴歸係...