第 46 章 模型比較和擬合優度

我們用數據擬合廣義線性模型有許多不同的目的和意義:

  1. 估計某些因素的暴露和因變量之間的相關程度,同時調整其餘的混雜因素;
  2. 確定能夠強有力的預測因變量變化的因子;
  3. 用於預測未來的事件或者病人的預後等等。

但是一般情況下,我們拿到數據以後不可能立刻就能擬合一個完美無缺的模型。我們常常要擬合兩三個甚至許多個模型,探索模型和數據是否擬合,就成爲了比較哪個模型更優的硬指標。本章的目的是介紹 GLM 嵌套式模型之間的兩兩比較方法,其中一個模型的預測變量是另一個模型的預測變量的子集。

46.1 嵌套式模型的比較 nested models

假如我們用相同的數據擬合兩個 GLM,\(\text{Model 1, Model 2}\)。其中,當限制 \(\text{Model 2}\) 中部分參數爲零之後會變成 \(\text{Model 1}\)時, 我們說 \(\text{Model 1}\)\(\text{Model 2}\) 的嵌套模型。


  • 例1:嵌套式模型 I
    模型 1 的線性預測方程爲 \[\eta_i = \alpha + \beta_1 x_{i1}\]
    模型 2 和模型 1 的因變量相同 (分佈相同),使用相同的鏈接方程 (link function) 和尺度參數 (scale parameter, \(\phi\)),但是它的線性預測方程爲 \[\eta_i = \alpha + \beta_1 x_{i1} + \beta_2 x_{i1} + \beta_3 x_{i3}\]
    此時我們說模型 1 是模型 2 的嵌套模型,因爲令 \(\beta_2 = \beta_3 = 0\) 時,模型 2 就變成了 模型 1。
  • 例2:嵌套式模型 II
    模型 1 的線性預測方程爲 (此處默認 \(x_{i1}\) 是連續型預測變量) \[\eta_i = \alpha + \beta_1 x_{i1}\]
    模型 2 的線性預測方程如果是 \[\eta_i = \alpha + \beta_1 x_{i1} + \beta_2 x^2_{i1}\]
    此時我們依然認爲 模型 1 是模型 2 的嵌套模型, 因爲令 \(\beta_2 = 0\) 時,模型 2 就變成了 模型 1。

關於嵌套式模型,更加一般性的定義是這樣的:標記模型 2 的參數向量是 \(\mathbf{(\psi, \lambda)}\),其中,當我們限制了參數向量的一部分例如 \(\mathbf{\psi = 0}\),模型 2 就變成了 模型 1 的話,模型 1 就是嵌套於 模型 2 的。所以比較嵌套模型之間的擬合度,我們可以比較較爲複雜的 模型 2 相較 模型 1 多出來的複雜的預測變量參數部分 \(\mathbf{\psi}\) 是否是必要的。也就是說,比較嵌套模型哪個更優的情況下,零假設是 \(\mathbf{\psi = 0}\)

這是典型的多變量的模型比較,需要用到子集似然比檢驗 19,log-likelihood ratio test:

\[ \begin{aligned} -2pllr(\psi = 0) & = -2\{ \ell_p(\psi=0) - \ell_p(\hat\psi) \} \stackrel{\cdot}{\sim} \chi^2_{df}\\ \text{Where } \hat\psi & \text{ denotes the MLE of } \psi \text{ in Model 2} \\ \text{With } df & = \text{ the dimension of } \mathbf{\psi} \end{aligned} \]

\(\ell_p(\psi=0)\),其實是 模型 1 的極大對數似然,記爲 \(\ell_1\)\(\ell_p(\hat\psi)\) 其實是 模型 2 的極大對數似然,記爲 \(\ell_2\)。所以這個似然比檢驗統計量就變成了:

\[ -2pllr(\psi = 0) = -2(\ell_1-\ell_2) \]

這個統計量在零假設的條件下服從自由度爲兩個模型參數數量之差的卡方分佈。如果 \(p\) 值小於提前定義好的顯著性水平,將會提示有足夠證據證明 模型 2 比 模型 1 更好地擬合數據。

46.2 嵌套式模型比較實例

回到之前用過的瘋牛病和牲畜羣的數據 45.5。我們當時成功擬合了兩個 GLM 模型,模型 1 的預測變量只有 “飼料”,“羣”;模型 2 的預測變量在模型 1 的基礎上增加二者的交互作用項。賓且我們當時發現交互作用項部分並無實際統計學意義 \(p = 0.584\)。現在用對數似然比檢驗來進行類似的假設檢驗。

先用 logLik(Model) 的方式提取兩個模型各自的對數似然,然後計算對數似然比,再去和自由度爲 1 (因爲兩個模型只差了 1 個預測變量) 的卡方分佈做比較:

Model1 <- glm(cbind(infect, cattle - infect) ~ factor(group) + dfactor, family = binomial(link = logit), data = Cattle)
Model2 <- glm(cbind(infect, cattle - infect) ~ factor(group) + dfactor + factor(group)*dfactor, family = binomial(link = logit), data = Cattle)
logLik(Model1)
## 'log Lik.' -13.12687 (df=3)
logLik(Model2)
## 'log Lik.' -12.973836 (df=4)
LLR <- -2*(logLik(Model1) - logLik(Model2))

1-pchisq(as.numeric(LLR), df=1) # p value for the LLR test
## [1] 0.58010367

再和 lmtest::lrtest 的輸出結果作比較。

lmtest::lrtest(Model1, Model2)
## Likelihood ratio test
## 
## Model 1: cbind(infect, cattle - infect) ~ factor(group) + dfactor
## Model 2: cbind(infect, cattle - infect) ~ factor(group) + dfactor + factor(group) * 
##     dfactor
##   #Df   LogLik Df   Chisq Pr(>Chisq)
## 1   3 -13.1269                      
## 2   4 -12.9738  1 0.30607     0.5801

結果跟我們手計算的結果完全吻合。AWESOME !!!

46.3 飽和模型,模型的偏差,擬合優度

在簡單線性迴歸中,殘差平方和提供了模型擬合數據好壞的指標 – 決定係數 \(R^2\) (Section 28.2.3),並且在 偏 F 檢驗 (Section 30.3.4) 中得到模型比較的應用。

廣義線性迴歸模型中事情雖然沒有這麼簡單,但是思想可以借鑑。先介紹飽和模型 (saturated model) 的概念,再介紹其用於模型偏差 (deviance) 比較的方法。前文中介紹過的嵌套模型之間的對數似然比檢驗,也是測量兩個模型之間偏差大小的方法。

46.3.1 飽和模型 saturated model

飽和模型 saturated model,是指一個模型中所有可能放入的參數都被放進去的時候,模型達到飽和,自由度爲零。其實就是模型中參數的數量和觀測值個數相等的情況。飽和模型的情況下,所有的擬合值和對應的觀測值相等。所以,對於給定的數據庫,飽和模型提供了所有模型中最 “完美” 的擬合值,因爲擬合值和觀測值完全一致,所以飽和模型的對數似然,比其他所有你建立的模型的對數似然都要大。但是多數情況下,飽和模型並不是合理的模型,不能用來預測也無法拿來解釋數據,因爲它本身就是數據。

46.3.2 模型偏差 deviance

\(L_c\) 是目前擬合模型的對數似然,\(L_s\) 是數據的飽和模型的對數似然,所以兩個模型的對數似然比是 \(\frac{L_c}{L_s}\)。那麼尺度化的模型偏差 (scaled deviance) \(S\) 被定義爲:

\[ S=-2\text{ln}(\frac{L_c}{L_s}) = -2(\ell_c - \ell_s) \]

值得注意的是,非尺度化偏差 (unscaled deviance) 被定義爲 \(\phi S\),其中的 \(\phi\) 是尺度參數,由於泊松分佈和二項分佈的尺度參數都等於 1 (\(\phi = 1\)),所以尺度化偏差和非尺度化偏差才會在數值上相等。

這裏定義的模型偏差大小,可以反應一個模型擬合數據的程度,偏差越大,該模型對數據的擬合越差。“Deviance can be interpreted as Badness of fit”.

但是,模型偏差只適用於分組型二項分佈數據。當數據是個人的二分類數據時 (inidividual binary data),模型的偏差值變得不再適用,無法用來比較模型對數據的擬合程度。 這是因爲當你的觀測值 (個人數據) 有很多時,擬合飽和模型所需要的參數個數會趨向於無窮大,這違背了子集對數似然比檢驗的條件。

46.4 個人數據擬合模型的優度檢驗

在 R 裏面,進行邏輯迴歸模型的擬合優度檢驗的自定義方程如下,參考網站

hosmer <- function(y, fv, groups=10, table=TRUE, type=2) {
 # A simple implementation of the Hosmer-Lemeshow test
   q <- quantile(fv, seq(0,1,1/groups), type=type)
   fv.g <- cut(fv, breaks=q, include.lowest=TRUE)
   obs <- xtabs( ~ fv.g + y)
   fit <- cbind( e.0 = tapply(1-fv, fv.g, sum), e.1 = tapply(fv, fv.g, sum))
   if(table) print(cbind(obs,fit))
   chi2 <- sum((obs-fit)^2/fit)
   pval <- pchisq(chi2, groups-2, lower.tail=FALSE)
   data.frame(test="Hosmer-Lemeshow",groups=groups,chi.sq=chi2,pvalue=pval)
 }
lbw <- read_dta("http://www.stata-press.com/data/r12/lbw.dta")
lbw$race <- factor(lbw$race)
lbw$smoke <- factor(lbw$smoke)
lbw$ht <- factor(lbw$ht)
Modelgof <- glm(low ~ age + lwt + race + smoke + ptl + ht + ui, data = lbw, family = binomial(link = logit))
hosmer(lbw$low, fitted(Modelgof))
##                  0  1        e.0        e.1
## [0.0273,0.0827] 19  0 17.8222227  1.1777773
## (0.0827,0.128]  17  2 16.9739017  2.0260983
## (0.128,0.201]   13  6 15.8285445  3.1714555
## (0.201,0.243]   18  1 14.6957098  4.3042902
## (0.243,0.279]   12  7 14.1062047  4.8937953
## (0.279,0.314]   12  7 13.3601242  5.6398758
## (0.314,0.387]   13  6 12.4628053  6.5371947
## (0.387,0.483]   12  7 10.8241660  8.1758340
## (0.483,0.594]    9 10  8.6901416 10.3098584
## (0.594,0.839]    5 13  5.2361795 12.7638205
##              test groups    chi.sq     pvalue
## 1 Hosmer-Lemeshow     10 9.6506834 0.29040407
hosmer(lbw$low, fitted(Modelgof), group=5)
##                 0  1       e.0        e.1
## [0.0273,0.128] 36  2 34.796124  3.2038756
## (0.128,0.243]  31  7 30.524254  7.4757458
## (0.243,0.314]  24 14 27.466329 10.5336711
## (0.314,0.483]  25 13 23.286971 14.7130287
## (0.483,0.839]  14 23 13.926321 23.0736789
##              test groups   chi.sq     pvalue
## 1 Hosmer-Lemeshow      5 2.435921 0.48698297

46.5 GLM Practical 04

46.5.1 回到之前的昆蟲數據,嘗試評價該模型的擬合優度。

  1. 重新讀入昆蟲數據,擬合前一個練習中擬合過的模型,使用 glm() 命令。
Insect <- read.table("backupfiles/INSECT.RAW", header =  FALSE, sep ="", col.names = c("dose", "n_deaths", "n_subjects"))
# print(Insect)
Insect <- Insect %>% 
  mutate(p = n_deaths/n_subjects)

Model1 <- glm(cbind(n_deaths, n_subjects - n_deaths) ~ dose, family = binomial(link = logit), data = Insect)
summary(Model1)
## 
## Call:
## glm(formula = cbind(n_deaths, n_subjects - n_deaths) ~ dose, 
##     family = binomial(link = logit), data = Insect)
## 
## Deviance Residuals: 
##      Min        1Q    Median        3Q       Max  
## -1.14983  -0.22403   0.25301   0.70846   0.99107  
## 
## Coefficients:
##               Estimate Std. Error z value  Pr(>|z|)    
## (Intercept) -14.086403   1.228393 -11.467 < 2.2e-16 ***
## dose          0.236593   0.020303  11.653 < 2.2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## (Dispersion parameter for binomial family taken to be 1)
## 
##     Null deviance: 268.26829  on 7  degrees of freedom
## Residual deviance:   4.61548  on 6  degrees of freedom
## AIC: 37.394
## 
## Number of Fisher Scoring iterations: 4
  1. 根據上面模型輸出的結果,檢驗是否有證據證明該模型對數據的擬合不佳。

上面模型擬合的輸出結果中,可以找到最下面的模型偏差值的大小和相應的自由度: Residual deviance: 4.6155 on 6 degrees of freedom。如果我們要檢驗該模型中假設的前提條件之一–昆蟲死亡的對數比值 (on a log-odds scale) 和藥物濃度 (dose) 之間是線性關係(或者你也可以說,檢驗是否有證據證明該模型對數據擬合不佳),我們可以比較計算獲得的模型偏差值在自由度為 6 的卡方分布 (\(\chi^2_6\)) 中出現的概率。這裡自由度 6 是由 \(n - p = 8 - 2\) 計算獲得,其中 \(n\) 是數據中觀察值個數,\(p\) 是模型中估計的參數的個數。檢驗方法很簡單:

1 - pchisq(4.6155, df = 6)
## [1] 0.59398469

所以,檢驗的結果,P 值就是 0.594,沒有任何證據反對零假設(模型擬合數據合理)。

  1. 試比較兩個模型對數據的擬合效果孰優孰劣:模型1,上面的模型;模型2,加入劑量的平方 (dose2),作為新增的模型解釋變量。嵌套式模型之間的比較使用的是似然比檢驗法 (profile likelihood ratio test),試着解釋這個比較方法和 Wald 檢驗之間的區別。
Model2 <- glm(cbind(n_deaths, n_subjects - n_deaths) ~ dose + I(dose^2), family = binomial(link = logit), data = Insect)
summary(Model2)
## 
## Call:
## glm(formula = cbind(n_deaths, n_subjects - n_deaths) ~ dose + 
##     I(dose^2), family = binomial(link = logit), data = Insect)
## 
## Deviance Residuals: 
##         1          2          3          4          5          6          7          8  
## -0.004545   0.634377  -0.691056  -0.681962   1.223967  -0.154036  -0.029880  -0.561968  
## 
## Coefficients:
##               Estimate Std. Error z value Pr(>|z|)
## (Intercept) -2.4881722  9.8677198 -0.2522   0.8009
## dose        -0.1500054  0.3291786 -0.4557   0.6486
## I(dose^2)    0.0031871  0.0027273  1.1686   0.2426
## 
## (Dispersion parameter for binomial family taken to be 1)
## 
##     Null deviance: 268.26829  on 7  degrees of freedom
## Residual deviance:   3.18361  on 5  degrees of freedom
## AIC: 37.9621
## 
## Number of Fisher Scoring iterations: 4
anova(Model1, Model2)
## Analysis of Deviance Table
## 
## Model 1: cbind(n_deaths, n_subjects - n_deaths) ~ dose
## Model 2: cbind(n_deaths, n_subjects - n_deaths) ~ dose + I(dose^2)
##   Resid. Df Resid. Dev Df Deviance
## 1         6    4.61548            
## 2         5    3.18361  1  1.43188
# P-value for model comparison
1 - pchisq(1.43, df = 1)
## [1] 0.23176444

兩個模型比較的結果表明,無證據反對零假設(只用線性關係擬合數據是合理的),也就是說增加劑量的平方這一新的解釋變量並不能提升模型對數據的擬合程度。仔細觀察模型2的輸出結果中,可以發現 I(dose^2) 項的 Wald 檢驗結果是 p = 0.24,十分接近似然比檢驗的結果。因為它們兩者是漸近相同的 (asymptotically equivalent)。