第13章 3つ以上の平均値の比較(1要因分散分析)
本章では,心理統計でもっとも広く使用されている統計ツールの1つ,分散分析(ANOVA)について説明します。この分析技法の基本的な部分は,20世紀初頭にサー・ロナルド・フィッシャーによって開発されました。この名前のせいで私たちはいろいろ悩まされるのことになるわけですが,基本的にそれはサー・ロナルド・フィッシャーのせいだということになります。分散分析(ANOVA)という名前は,2つの点において誤解を招きます。まず,名前に「分散」とついていますが,分散分析は平均値の差を調べるための方法です。2つめに,分散分析(ANOVA)と呼ばれるものは他にもいろいろあり,そのいくつかはお互いにほとんど関連がありません。この後の章ではさまざまな分散分析法を取りあげますが,それらはどれもかなり異なる状況に適用されるものです。そして本章では,その中でももっともシンプルな形の分散分析のみを考えることにします。それは,複数グループの観測値があり,それらのグループ間で結果変数に違いが見られるかどうかを知りたいという場合です。これは1要因分散分析(one-way ANOVA)が適用される場面です。
本章の構成は次の通りです。まず,セクション13.1では,本章を通じて使用することになる架空のデータセットについて説明します。データの説明が終わった後は,1要因分散分析がどのような仕組みになっているのかについて解説し(セクション13.2),その後にjamoviで分散分析を実施する方法について説明します(セクション13.3)。この2つのセクションが本章の中心部分です。本章の残りの部分では,分散分析の実施時に避けては通れないさまざまな話題について取りあげます。具体的には,効果量の計算方法(セクション13.4),事後検定と多重比較における補正(セクション13.5),そしてANOVAの前提条件(セクション13.6)です。前提条件をチェックする方法や前提条件が満たされない場合の対策方法についても説明します(セクション13.7およびセクション13.9)。本章の最後には,分散分析とその他の統計ツールの関係について少しだけ説明します(セクション13.10)。
13.1 説明用データ
あなたが臨床試験を行っていると想定してください。そこでは新しい抗うつ薬,ジョイゼパムの治験が行われています。薬の効果を公正にテストするために,この研究では3つの投薬条件が用いられています。1つはプラシボ(偽薬),もう1つは既存の抗うつ・抗不安薬,アンシフリーです。最初の治験のため,抑うつ症状が中程度から重度の参加者18人が集められました。抗うつ薬は心理療法と組み合わせて投与されることも多いので,この研究では参加者のうち9人が認知行動療法(CBT)を受けました。残りの9人は心理療法を受けていません。参加者は各グループに無作為に割りあてられており(もちろん二重盲検法です),3つの投薬条件すべてにおいて,3人が認知行動療法を受け,3人は心理療法なしになっています。そしてそれぞれの薬物を3ヶ月間使用した後,心理学者が各参加者の気分を評価し,各個人の全体的な気分改善の程度を−5から+5までの尺度で評価しました。このような研究デザインを念頭に置いて,早速データファイルを読み込んでみましょう。ファイル名はclinicaltrial.csvです。このデータにはdrug(投薬条件),therapy(心理療法),mood.gain(気分改善)の3つの変数が含まれています。
本章における一番の関心は,mood.gain(気分改善)に対するdrug(薬)の効果です。まずやるべきことは,記述統計量を計算してグラフを作成することです。その方法は第4章で説明しています。そしてjamoviで算出した記述統計量を図13.1に示しました。

図13.1: 気分改善得点の記述統計量と投薬条件ごとの箱ひげ図
図から明らかなように,ジョイゼパムを投与されたグループの参加者は,アンシフリーやプラシボのグループに比べて気分が大きく改善しています。アンシフリーのグループではコントロール(プラシボ)よりも気分改善が見られていますが,その差はそれほど大きくありません。ここで私たちが知りたいのは,これらの差が「本物」なのか,単なる偶然なのかということです。
13.2 分散分析の仕組み
この臨床試験データの疑問に答えるために,これから1要因分散分析を実施します。jamoviの素晴らしい分散分析機能が使えなくても困らないように,ここではまず統計ツールをゼロから組み立てていくというハードな方法を説明します。これを注意深く読み,分散分析の仕組みを理解できたと確信できるまで2度3度と読み返してください。そしてその考え方が理解できたら,この方法を2度と繰り返す必要はありません。
さて,先ほどのセクションで説明した実験デザインからは,私たちの関心が3つの異なるグループにおいて気分改善度の平均値を比較することだということがわかるはずです。その意味で,ここで取りあげる分析はt検定(第11章)とよく似たものになるのですが,比較するグループが3つあるという点が異なります。ここで,プラシボによる気分改善の母集団平均値をμP,アンシフリーとジョイゼパムによる気分改善の母集団平均値をそれぞれμAとμJとすると,私たちが検定したい(なんとも悲観的な)帰無仮説は,「3つのすべての母集団で平均値が同じである」というものになります。つまり,2つの薬はどちらもプラシボと変わらないということです。この帰無仮説は次のように書くことができます。
H0:μP=μA=μJが真である
そして私たちの対立仮説は,「3つの投薬条件のうち少なくとも1つで平均値が他と異なる」というものになります。これを数学的に書くのはちょっとばかり大変です。なぜなら(これから見ていきますが)帰無仮説が誤りである場合というのが何通りもあるからです。そこで,ここでは対立仮説を次のように書くことにします。
H1:μP=μA=μJが真*でない*
今回の帰無仮説の検定は,私たちがこれまでに見てきたものよりかなりやっかいです。どうやったらいいのでしょうか。その答えが「分散分析をする」であるというのはだいたい察しがつくでしょう。だって,それが本章のタイトルですし。でも,平均値について知りたいのに「分散分析」がどう役に立つのかよくわかりませんよね。実際,初めて分散分析を学ぶ人にとって,理解がしづらく感じられる最大の点といえるのがここなのです。ですから,この分析の仕組みを説明するためには,まず分散の話から始めるのがよさそうです。実際,これから私が始めることは,分散を説明する式を使ったちょっとした数学的なお遊びです。そして,分散で遊んでいるうちに,やがてそれが平均値について検討するための便利なツールになっていくのです。
13.2.1 Yの分散の2つの式
まず,いくつか表記の説明から始めましょう。ここではグループの総数をGで表します。私たちのデータには3つの投薬条件があるのでグループの数はG=3です。次に,全体の標本サイズをNで表します。私たちのデータにはN=18人の参加者がいます。同様にして,k番目のグループの人数をNkと表します。この架空の臨床試験では,3群すべてでNk=6です130。最後に,結果変数をYで表します。例題データでは,Yは気分の改善得点です。また,k番目のグループのi番目の参加者の気分改善得点をYikで表します。同様に,実験に参加した18人全員の気分改善得点の平均値を¯Y,k番目のグループに含まれる6人の参加者の気分改善得点の平均値を¯Ykとします。
ここまではいいでしょうか。表記が整理できましたので,式を書き始めましょう。まず,セクション4.2で使用した分散の式を思い出してください。私たちがまだ記述統計をやっていた,遠い昔の話です。Yの標本分散は次のようになります。
Var(Y)=1NG∑k=1Nk∑i=1(Yik−¯Y)2
この式はセクション4.2の分散の式とほとんど同じです。唯一違う点は,ここでの式には総和記号(合計記号)が2つ使われているということです。この式では,まずそれぞれのグループにいる個人(つまりiの値)について合計を求め,そしてグループ(つまりkの値)の合計を求めています。この違いはあくまでも見た目の問題です。仮に,標本に含まれるp番目の人の結果変数の値をYpと表すなら,総和記号は1つで済みます。ここで総和記号を2つ使用するのは,参加者を複数のグループに分け,それぞれのグループで参加者に番号をつけたからというだけの理由です。
これについては具体例を示した方がいいかもしれません。次の表について考えてみましょう。そこではN=5人がG=2グループに分けられています。ここではとりあえずグループ1を「イケてる」人々,グループ2を「イケてない」人々としましょう。すると,イケてる人が3人(N1=3)でイケてない人は2人(N2=2)ということになります。
p | k | i | YikまたはYp | ||
---|---|---|---|---|---|
アニー | 1 | イケてる | 1 | 1 | 20 |
ガリー | 2 | イケてる | 1 | 2 | 55 |
サリー | 3 | イケてる | 1 | 3 | 21 |
ダニー | 4 | イケてない | 2 | 1 | 91 |
ナリー | 5 | イケてない | 2 | 2 | 22 |
この表では参加者を指す表記が2通り用いられているという点に注意してください。1つめは「個人」変数(p)で,これを用いれば標本中のp番目の個人の不機嫌さはYpと表すことができます。たとえば,表ではダニーは4番目ですからp=4となります。つまり,誰だかわかりませんがこの「ダニー」なる人物の不機嫌さ(Y)について話すときは,この人物の不機嫌さをp=4におけるYp=91と表すことができるのです。しかし,ダニーを参照する方法はそれだけではありません。別の見方では,ダニーは「イケてない」グループ(k=2)に属していて,そのイケてないグループで最初の人物(i=1)です。つまり,ダニーの不機嫌さをk=2かつi=1の場合のYik=91とすることもできるのです。このように,各個人pはikのすべての組み合わせに対応しているので,私が先ほど書いた式は,次の通常の分散の式とまったく同じものになるのです。
Var(Y)=1NN∑p=1(Yp−¯Y)2
どちらの式も,単に標本に含まれる観測値に関して合計を計算しているだけです。たいていの場合はYpという表記が使われます。Ypを使った式の方が明らかにシンプルだからです。しかし,分散分析では各参加者がどのグループに属するのかを把握しておくことが重要なので,そのためにYikという表記を使うのです。
13.2.2 分散から2乗和へ
さて,分散の計算方法がわかりました。今度はSStotで表される全体2乗和と呼ばれる値を定義しましょう。これはとても単純です。分散の計算では偏差の2乗を平均しますが,そうではなく,この値はただ合計しただけのものです。つまり,全体2乗和の式は分散の式とほぼ同じです。
SStot=G∑k=1Nk∑i=1(Yik−¯Y)2
分散の分析といいつつ,分散分析で実際に行っていることは,分散ではなくこの全体2乗和に関する計算です。そして全体2乗和には1つ嬉しい性質があります。この値は,2つの異なるばらつきに分解することができるのです。まず,1つめのばらつきがグループ内2乗和です。これは各個人の値が自分の属するグループの平均値からどれくらい離れているかを表したものです。
SSw=G∑k=1Nk∑i=1(Yik−¯Yk)2
¯Ykはグループの平均値です。例題データでいうと,¯Ykはk番目の投薬条件に含まれる参加者における気分改善得点の平均値です。つまり,実験参加者全体の平均値と個人の得点を比べるのではなく,同じグループ内の人とだけ比べるのです。その結果,SSwの値は全体2乗和よりも小さくなります。なぜなら,グループの差,つまり投薬条件が気分改善に異なる影響を与えるだろうということを完全に無視しているからです。
次に,もう1つのばらつきの定義です。これはグループ間の違いだけを捉えます。これは,グループの平均値¯Ykと全体の平均値¯Yの差という形で見ることができます。このばらつきの大きさを数値化したものがグループ間2乗和です。
SSb=G∑k=1Nk∑i=1(¯Yk−¯Y)2=G∑k=1Nk(¯Yk−¯Y)2

図13.2: グループ間のばらつき(a)とグループ内のばらつき(b)。図の(a)の矢印はグループ平均値の違いを示しており,図の(b)の矢印は各グループ内でのばらつきを強調している。
実験参加者全体のばらつき(SStot)が,グループ間のばらつき(SSb)とグループ内のばらつき(SSw)の合計であることを式で示すのはそれほど難しくありません。つまり次のようになります。
SSw+SSb=SStot
簡単ですね。
さて,これで何がわかったのでしょうか。これでわかったのは,結果変数の全体的なばらつき(SStot)が数学的には「グループごとの平均値の違いによるばらつき」(SSb)と「それ以外のばらつき」(SSw)の合計として表せるということです。では,これは各グループが異なる母集団平均値を持つかどうか知るうえでどのように役立つのでしょうか。えっと…あれ? ちょっと待ってください。これこそが私たちの探しているものじゃないでしょうか。帰無仮説が真の場合,すべてのグループの平均値はお互いにほぼ同じ値になるはずですよね。ということはつまり,それはSSbがごく小さいか,あるいは少なくともそれが「何か別のものに関連したばらつき」(SSw)よりも小さくなるということではないでしょうか。うん。どうやら仮説検定の方法が見つかったようです。
13.2.3 2乗和からF検定へ
先ほどのセクションで見たように,分散分析の背後にある考え方はSSbとSSwという2つの2乗和を比較することにあります。グループ間のばらつき(SSb)がグループ内のばらつき(SSw)に比べて大きい場合,すべてのグループで母集団平均値が同じであるということに疑いが生じるのです。ですが,この考え方を仮説検定にするためには,もうすこし「いじくり回す」必要があります。そこで,まず必要な検定統計量であるF比の計算に何が必要なのかを説明したうえで,なぜそのような計算になるのかという感覚をつかんでもらおうと思います。
2乗和の値をF比にするためには,SSbとSSwの自由度を計算しなくてはなりません。いつものように,自由度は特定の計算を行う際の「データ要素」の個数から,そこで満たされなくてはならない「制約」の個数を引いたものに対応します。グループ内変動では,グループ平均値(G個の制約)からの個々の観測値のばらつき(N個のデータ要素)を計算しています。対照的に,グループ間変動では全体の平均値(1個の制約)からのグループ平均値のばらつき(G個のデータ要素)を計算しています。したがって,それぞれの自由度は以下のようになります。
dfb=G−1dfw=N−G
とってもシンプルですよね。次は,2乗和の値を「2乗平均131(MS)」に変換します。
MSb=SSbdfbMSw=SSwdfw
最後に,グループ間の2乗平均をグループ内の2乗平均で割ってF比を求めます。
F=MSbMSw
非常に一般的な話をすれば,F統計量の背後にある考え方はとても単純です。大きなF値は,グループ間のばらつきがグループ内のばらつきに比べて大きいことを意味します。ですから,Fの値が大きければ帰無仮説を棄却する根拠が十分あることになるわけです。でも,Fがどれくらい大きければ帰無仮説(H0)を棄却することができるのでしょうか。これを理解するためには,分散分析とは何か,2乗平均値が一体何を意味するのかについて,もう少し深く見ていく必要があります。
そこで次のセクションではこの点についてもう少し詳しく説明します。ですが,検定で何を測定しているのかという詳細部分にあまり関心のない読者のために,まずは結論を先に示しておきましょう。この仮説検定を完了するためには,帰無仮説が真の場合のFの標本分布が必要です。当然ながら,帰無仮説におけるF統計量はF分布します。第7章で取りあげたF分布の説明を覚えているでしょうか。F分布には2つのパラメータがあり,それぞれが2つの自由度に対応しています。最初の自由度1(df1)はグループ間の自由度(dfb)で,2つめの自由度2(df2)はグループ内の自由度(dfw)です。
1要因分散分析に含まれるこれら主要な数値を表13.1にまとめました。表には各数値を計算するための式も示してあります。
自由度 | 2乗和 | 2乗平均 | F統計量 | p | |
---|---|---|---|---|---|
グループ間 | dfb=G−1 | SSb=G∑k=1Nk(ˉYk−ˉY)2 | MSb=SSbdfb | F=MSbMSw | [複雑な式] |
グループ内 | dfw=N−G | SSw=G∑k=1Nk∑i=1(Yik−ˉYk)2 | MSw=SSwdfw | — | — |
13.2.4 データのモデルとFの意味
非常に基本的な言い方をすれば,分散分析というのは帰無仮説(H0)と対立仮説(H1)という2つの統計モデル間の競争です。じつは最初のセクションで帰無仮説と対立仮説を説明した際には,これらのモデルが実際に意味するところについて,やや不正確な形で説明しましたので,ここでその修正をしようと思います。ただ,多分これは見ていて楽しいものではないとは思います。さて,覚えているでしょうか。私たちの帰無仮説は「すべてのグループで平均値が同じ」というものでした。すると,自然な考え方として,結果変数Yikは1つの母集団平均値μとそこからの個人の得点の偏差という形で説明できそうです。この偏差は一般的にはϵikと表され,そして伝統的には測定に関する誤差(error)あるいは残差(residual)と呼ばれています。ここで1つ注意して欲しいことがあります。「有意」という言葉のところでも見たように,「誤差」にも統計用語としての意味があり,この意味は日常語としての誤差とは少し意味が違うのです。日常の言葉の中では,「誤差」というと何らかの誤りが含まれていることを意味しますが,統計ではそうではありません(少なくともそれ以外の意味を含んでいます)。となると,ここでの用語としては「誤差」より「残差」のほうが好ましいでしょう。統計においては,どちらの用語も「残りのばらつき」,つまりモデルでは説明できない「何か」を意味します。ともあれ,帰無仮説を統計モデルとして書くと次のようになります。
Yik=μ+ϵik
ここで,残差(ϵik)の平均値は0,標準偏差(σ)はすべてのグループで同じで,これは正規分布であると仮定します(これについては後で説明します)。第7章で使用した表記を用いると,この仮定は次のようにも書けます。
ϵik∼Norm(0,σ2)
では対立仮説(H1)はどうなるでしょうか。帰無仮説と対立仮説の唯一の違いは,それぞれのグループが異なる平均値を持つかどうかと言うことです。つまり,実験におけるk番目のグループの平均値をμkとするならば,対立仮説(H1)に対応する統計モデルは次のようになります。
Yik=μk+ϵik
ここでも,残差は平均値が0で標準偏差がσの正規分布であると仮定します。つまり,対立仮説でもϵ∼Norm(0,σ2)と仮定するのです。
さて,これで帰無仮説(H0)と対立仮説(H1)がより詳しい形で統計モデルとして説明できました。これで,2乗平均が何を測定しているのか,そしてそれがFを解釈するうえでどのような意味を持つのかについての説明がとてもシンプルになりました。これを証明するために退屈な話を続けるようなことはしませんが,グループ内の2乗平均(MSw)は,残差の分散(σ2)の推定値と見なせるのです(数理の部分は第8章を参照)。グループ間の2乗平均(MSb)も推定値ですが,これは残差の分散プラスグループ間の平均値の差によって変化する量の推定値になります。グループ間の平均値の差をQと呼ぶなら,F統計量は基本的に次のようになります132。
F=ˆQ+ˆσ2ˆσ2
ここで,帰無仮説が真の場合には,真の値Q=0であり,対立仮説が真であれば,Q>0になります(Hays 1994 ch. 10など)。というわけで,帰無仮説を棄却するにはF値が1より大きいことが最低条件となるのです。ただし,だからといって1より小さなF値があり得ないわけではないので注意してください。つまり,帰無仮説が真の場合,F比の標本分布は平均値が1になるので133,帰無仮説を安全に棄却するには1より大きなF値が必要になるということです。
標本分布についてもう少しだけ正確に言えば,帰無仮説が真の場合,MSbとMSwは残差の分散ϵikの推定値になります。これらの残差が正規分布するのだとすると,ϵikの分散の推定値はカイ2乗分布になるのではないかということに気づいた人もいるかもしれませんね。そう,(セクション7.6で説明したように)これはカイ2乗分布そのものなのです。カイ2乗分布は,正規分布する値を2乗して合計したときに得られる分布です。そして,(その定義上)カイ2乗分布する2つの値の比をとった場合に得られる分布がF分布なのですから,これが私たちに必要な標本分布になるのです。お気づきのように,ここでの説明の中には細かな部分でいろいろごまかしもあるのですが,大まかにはこれが標本分布の得られる仕組みです。
13.2.5 実例
ここまでの説明はやや抽象的で少しばかり技術的な部分に偏っていましたので,ここからは実際の例を使って見ていくことにしましょう。そのために,本章の冒頭に導入した臨床試験データに戻ります。すでに行った記述統計では,気分改善の平均値はプラシボで0.45,アンシフリーで0.72,ジョイゼパムで1.48でした。これらの値を念頭に置きながら,ここからは今が1899年であるかのように行動してみましょう134。紙と鉛筆を使った計算です。ここでは最初の5つの観測値についてだけそれをやることにします。なぜなら,今は1899年じゃないし,私はめんどくさがり屋だからです。では,グループ内の2乗和であるSSwの計算から始めましょう。まず,計算を楽にするための表を作成します。
k | Yik |
---|---|
プラシボ | 0.5 |
プラシボ | 0.3 |
プラシボ | 0.1 |
アンシフリー | 0.6 |
アンシフリー | 0.4 |
現時点では,表に含まれているのは生データだけです。つまり,各個人のグループ変数(drug)と結果変数(mood.gain)です。この結果変数は先ほどの式のYikに対応する部分だという点に注意してください。次のステップは,この研究の各参加者ごとに対応するグループの平均値(¯Yk)を記入することです。これは繰り返し作業ですが,とくに難しいことではありませんね。必要なグループ平均値はすでに記述統計量として計算してあります。
k | Yik | ¯Yk |
---|---|---|
プラシボ | 0.5 | 0.45 |
プラシボ | 0.3 | 0.45 |
プラシボ | 0.1 | 0.45 |
アンシフリー | 0.6 | 0.72 |
アンシフリー | 0.4 | 0.72 |
必要な値の記入が終わりましたので計算を再開しましょう。各参加者について,グループ平均値からの偏差を求めます。つまり,Yik−¯Ykの計算です。計算が終わったら,その値を2乗します。すると,表は次のようになっています。
k | Yik | ¯Yk | Yik−¯Yk | (Yik−¯Yk)2 |
---|---|---|---|---|
プラシボ | 0.5 | 0.45 | 0.05 | 0.0025 |
プラシボ | 0.3 | 0.45 | –0.15 | 0.0225 |
プラシボ | 0.1 | 0.45 | –0.35 | 0.1225 |
アンシフリー | 0.6 | 0.72 | –0.12 | 0.0136 |
アンシフリー | 0.4 | 0.72 | –0.32 | 0.1003 |
最後のステップも同様にとても単純です。グループ内の2乗和を計算するために,すべての観測値における偏差の2乗値を合計します。
SSw=0.0025+0.0225+0.1225+0.0136+0.1003=0.2614
もちろん,実際の正しい答えが欲しい場合には,5つの観測値だけでなく,18個すべてについてこの計算を行う必要があります。このまま紙と鉛筆による計算を続けてもよいのですが,だんだん億劫になってきましたね。OpenOffice(LibreOffice)やExcelなどの表計算ソフトを使った方がいいかもしれません。自分で試してみてください。私がEXCELでそれをやってみた結果がclinicaltrialanova.xlsファイルに入っています135。自分でやってみると,最終的にグループ内の2乗和の値は1.39になります。
よし。これで私たちはグループ内のばらつきの値(SSw)を得ました。今度はグループ間の2乗和SSbに目を向ける番です。この場合の計算も先ほどととてもよく似ています。主な違いは,すべての観測値について観測値(Yik)とグループ平均値(¯Yk)の差を求める代わりに,すべてのグループについてグループ平均値¯Ykと全体の平均値(¯Y,この場合は0.88)の差を計算するというところです。
k | ¯Yk | ¯Y | ¯Yk−¯Y | (¯Yk−¯Y)2 |
---|---|---|---|---|
プラシボ | 0.45 | 0.88 | –0.43 | 0.19 |
アンシフリー | 0.72 | 0.88 | –0.16 | 0.03 |
ジョイゼパム | 1.48 | 0.88 | 0.60 | 0.36 |
なお,グループ間の計算では,それぞれの偏差の2乗値をそのグループに含まれる観測値の個数(Nk)倍する必要があります。なぜなら,そのグループのすべての観測値(すべてのNk)がグループの差に関連しているからです。つまり,プラシボ群に6人の参加者がいて,プラシボ群の平均値が全体の平均値から0.19ずれているのなら,この6人に関連したグループ間のばらつきの合計は6×0.19=1.14になるのです。だから,この計算表を拡張する必要がありますね。
k | … | (¯Yk−¯Y)2 | Nk | Nk(ˉYk−ˉY)2 |
---|---|---|---|---|
プラシボ | … | 0.19 | 6 | 1.14 |
アンシフリー | … | 0.03 | 6 | 0.18 |
ジョイゼパム | … | 0.36 | 6 | 2.16 |
そして,3つのグループの「重みづけされた偏差2乗」の合計を計算すると,グループ間の2乗和の値が求まります。
SSb=1.14+0.18+2.16=3.48
見ての通り,グループ間の計算は非常にシンプルです136。さて,これで2つの2乗和の値(SSbとSSw)の計算が終わりました。残りの手順はまったく苦痛ではありません。次は自由度の計算です。例題データにはG=3のグループがあり,全部でN=18の観測値がありますので,単純な引き算で必要な自由度を算出できます。
dfb=G−1=2dfw=N−G=15
グループ内のばらつきとグループ間のばらつきの2乗和と自由度がわかったので,そこから2乗平均を求めます。
MSb=SSbdfb=3.482=1.74MSw=SSwdfw=1.3915=0.09
あと少しです。ここから2乗平均値を使って私たちの求めている検定統計量,F値の計算です。グループ間の2乗平均をグループ内の2乗平均で割ってF値を求めます。
F = MSbMSw = 1.740.09 = 19.3
わーい! これは大興奮ですね。さて,検定統計量の計算が終わりましたので,あとはこの値が有意かどうかを見るだけです。第9章で説明したように,「一昔前」なら統計の教科書を開いてたくさんの数字が書かれた一覧表をのぞき込み,対応する有意水準(0.05,0.01,0.001など)で自由度2と15のFの臨界値を探すことになります。そうすると,有意水準0.001のF値の臨界値は11.34とあるはずです。この数値は算出したF値より小さいので,p<0.001と言うことができます。ですが,これは古いやり方です。今は素晴らしい統計ソフトが正確なp値を計算してくれます。実際,正確なp値は0.000071です。つまり,私たちが第1種の誤り率に対して極度に慎重でない限り,十分に帰無仮説を棄却できるということになります。
これで検定に関する計算はおしまいです。計算を終えたら,これらの数値を表13.1のような分散分析表にまとめるのが伝統的なやり方です。私たちの臨床試験データでは,分散分析表は次のようになります。
自由度 | 2乗和 | 2乗平均 | F統計量 | p確率 | |
---|---|---|---|---|---|
グループ間 | 2 | 3.48 | 1.74 | 19.3 | 0.000071 |
グループ内 | 15 | 1.39 | 0.09 | — | — |
今では,おそらく自分でこうした表を作ることはないでしょうが,(jamoviを含む)ほとんどの統計ソフトは分散分析の結果をこのような表の形で示しますので,こうした表を読むのになれておくのは良いことです。なお,ソフトウェアはこのような分散分析表を出力しますが,結果を書く際にはこの表をそのまま書くようなことはしません。この結果を報告する際の一般的は書き方は次のようなものです。
1要因分散分析の結果,薬物による有意な気分改善効果が見られた(F(2,15)=19.3, p<.001)。
なんと。あれだけ手間をかけたのに結果はこの1文でおわりです。
13.3 jamoviでの分散分析
先ほどのセクションを読み終えて,とくにあなたが私のアドバイスに従って紙と鉛筆で(といいつつ,表計算ソフトも使用していますが)すべてを自力で計算したあとに皆さんが何を考えているか,私にはかなりはっきりわかります。分散分析を手で計算するのはサイテーだと。計算の必要な値が山ほどあるので,分散分析のたびに何度も何度もこれを計算しなくてはならないとなるとかなり面倒です。
13.3.1 jamoviでの分散分析
そこで人生の苦しみを少しでも減らすことにしましょう。jamoviを使えば簡単に分散分析ができるのです。万歳! 「ANOVA(分散分析)」メニューから「ANOVA(分散分析)」を選択し,mood.gain(気分改善)変数を「Dependent Variables(従属変数)」ボックスに,そしてdrug(投薬)変数を「Fixed Factors(固定要因)」ボックスに入れます。すると,図13.3のような結果が得られたはずです137。ここでは「Effect Size(効果量)」オプションにあるη2(「イータ」2乗と読みます)のチェックボックスもオンにした上で分析を行っています。そしてこの値も表に含まれています。効果量については少し後で説明します。

図13.3: 投薬による気分改善効果についてのjamoviでの分散分析結果
jamoviの結果の表には,2乗和と自由度,そしてその他のあまり興味のない数値が並んでいます。なお,jamoviでは「グループ間(between-group)」とか「グループ内(within-group)」といった表現が使われていないことに注意してください。その代わり,もっと意味のわかりやすい名前になっています。この例では,グループ間変数はdrugが結果変数に与える影響に対応します。そして,グループ内変数は「残りの」ばらつきに対応しており,これはresiduals(残差)と示されています。セクション13.2.5で計算した値とこれらの数値を比べてみると,丸め誤差を除いてだいたい同じになっているのがわかるはずです。グループ間の2乗和はSSb=3.45で,グループ内の2乗和はSSw=1.39です。そして自由度はそれぞれ2と15です。それからF値とp値もあり,これも私たちが苦労して手作業で求めた値と基本的に同じ値です。
13.4 効果量
分散分析で効果量を測定する方法はいくつかありますが,もっとも一般的に使用されているのはη2(イータ2乗)と偏η2です。1要因分散分析ではこれらの値は同一になりますので,ここではη2についてだけ説明しておきます。η2の定義はとても単純です。
η2=SSbSStot
これだけです。つまり表13.3の分散分析表の結果から,SSb=3.45でSStot=3.45+1.39=4.84です。したがって,η2値は次の通りとなります。
η2=3.454.84=0.71
η2の解釈も同じく簡単です。これは結果変数(mood.gain)のばらつきのうち,予測変数(drug)で説明できる割合を示します。η2=0の場合は,2つの間にまったく関係がないことを意味し,η2=1の場合にはその関係が完全であることを意味します。さらに,η2値はセクション12.6.1で説明したR2値とも密接に関連しており,解釈の仕方は同じです。
なお,統計の教科書の多くでは分散分析における効果量の指標はη2が基本だとされていますが,ダニエル・レイケンス(Daniel Lakens)氏の興味深いブログ投稿によれば,η2は偏りありの推定値になる可能性があり,実際のデータ分析におけるベストな効果量の指標とは言えないのではないかということです138。ありがたいことに,jamoviにはη2 と並んでω2(オメガ2乗)を指定するオプションもあり,こちらはより偏りが小さい指標であるとされています。
13.5 多重比較と事後検定
3つ以上のグループで分散分析をして結果が有意だった場合,どのグループの間に差があったのかをまず確認したいはずです。私たちの治験の例では,帰無仮説は「3つのすべての投薬条件(プラシボ,アンシフリー,ジョイゼパム)で気分改善効果がまったく同じ」というものです。しかしよく考えてみると,この帰無仮説は実際には3つの異なる内容を1度に述べているのです。具体的には次の3つです。
アンシフリーの効果はプラシボと同じである(つまりμA=μP)
ジョイゼパムの効果はプラシボと同じである(つまりμJ=μP)
アンシフリーとジョイゼパムは効果が同じである(つまりμJ=μA)
これらの3つの主張のうち1つでも偽であれば,帰無仮説は偽になります。つまり先ほど帰無仮説が棄却されたということは,これらのうちの少なくとも1つは真でないということなのです。ですがどれでしょうか。この3つの命題は,いずれも関心の対象です。当然ながら新薬であるジョイゼパムがプラシボよりよく効くかどうかを知りたいでしょうし,既存の薬(つまりアンシフリー)よりジョイゼパムの方が効果があることがわかれば素晴らしいことですよね。アンシフリーがプラシボに比べて効果があるかどうかをチェックするのだって役に立つはずです。たとえアンシフリーがすでに他の研究者によってプラシボに対して十分テストされているとしても,私たちの研究で先行研究と同様の結果が得られたかどうかを確認することは有益ですからね。
帰無仮説には3つの異なる命題が含まれているということを考えると,私たちの「現実界の状態」には次の8通りの可能性があることがわかります。
可能性 | μP=μA | μP=μJ | μA=μJ | 仮説 |
---|---|---|---|---|
1 | ✓ | ✓ | ✓ | 帰無仮説 |
2 | ✓ | ✓ | 対立仮説 | |
3 | ✓ | ✓ | 対立仮説 | |
4 | ✓ | 対立仮説 | ||
5 | ✓ | ✓ | 対立仮説 | |
6 | ✓ | 対立仮説 | ||
7 | ✓ | 対立仮説 | ||
8 | 対立仮説 |
そして帰無仮説を棄却したということは,私たちは1番目の状態は真でないと考えているわけです。すると問題なのは,残り7つの可能性のうちのどれが正しいのかということです。このような状況では,まずデータを見てみることが大事です。たとえば,図13.1を見ると,ジョイゼパムはプラシボやアンシフリーよりも効果的に見えますし,アンシフリーとプラシボには実際のところ差は無さそうです。ただし,答えをはっきりさせたいなら,何らかの検定を行ってみた方がよさそうです。
13.5.1 ペアごとのt検定の実行
では,この問題はどう解決すればよいのでしょうか。私たちには比較すべき3つの平均値のペア(プラシボ対アンシフリー,プラシボ対ジョイゼパム,アンシフリー対ジョイゼパム)があるので,それぞれでt検定をやって結果を見てみるのもいいかもしれません。これはjamoviで簡単にできます。「ANOVA(分散分析)」の「Post Hoc Tests(事後検定)」オプションで,drug変数を右側のボックスに移動させます。ここでは「No correction(修正なし)」のチェックをオンにしておきましょう。すると,drug条件のペアごとのt検定結果が図13.4のように表示されます。

図13.4: jamoviでの事後検定としてのペアごとのt検定結果。
13.5.2 多重検定の修正
先ほどのセクションでは,繰り返し何度もt検定を行うのは良くないことだということをほのめかしました。じつは,そうした分析を行うと「下手な鉄砲数打ちゃ当たる」的なことになってしまう懸念が生じるのです。つまりこれは,とくに理論的な裏づけなしに,どこかで有意な結果が出るだろうと期待しながらたくさんの検定を行っているのと同じなのです。理論が伴わないこの種のグループ間の差の探索は,事後分析(post hoc analysis)と呼ばれています139。
事後分析を行うこと自体はだめというわけではないのですが,その際にはいろいろと注意が必要です。たとえば,先ほどのセクションで実行した分析は,それぞれ個別のt検定で第1種の誤り率を5%に保つ(つまりα=.05)よう設計されています。そして私はそれを3回実行したのです。もし分散分析のデータに10個のグループがあったらどうなるでしょう。その場合,どのグループとどのグループに差があるのかを知るためには45回の「事後」t検定をすることになります。すると,そのうちの2つか3つは単なる偶然で有意になる可能性があるのです。第9章で見たように,帰無仮説検定における中心的な原則は第1種の誤り率をコントロールすることです。ですが今,私は分散分析の結果をうけてたくさんのt検定を一度に行いました。するとこの一連の検定全体(専門用語ではこれを族と言います)でみた場合には,第1種の誤り率がまったくコントロールできていないことになるのです。
この問題に対する一般的な解決法は,一連の検定全体で誤り率が抑えられるようにp値を調整することです(see Shaffer 1995)。事後検定を行う場合には通常(つねにというわけではありません)この種の調整が適用されますが,多くの場合,これは多重比較補正や「同時推定」などと呼ばれています。とにかく,このような調整法には非常にたくさんのものがあるのです。このセクションおよびセクション14.7でそのうちのいくつかについて説明しますが,それ以外にもたくさんのものがあるということは覚えておいてください(see, e.g., Hsu 1996)。
13.5.3 ボンフェロニ補正
これらの調整法でもっとも単純なのはボンフェロニ補正と呼ばれる方法です(Dunn 1961)。これは本当に本当に単純なのです。事後分析でm回の検定を行うとしましょう。そして全体での第1種の誤り率を最大でαに抑えたいとします140。その場合,ボンフェロニ補正は「元のp値をすべてm倍する」だけなのです。元のp値をpとし,そして修正値をp′jとした場合,ボンフェロニ補正では次のようになります。
p′=m×p
そして,ボンフェロニ補正を使用する場合,p′<αの場合に帰無仮説を棄却します。この補正の考え方はとても簡単です。つまり,m回の検定をするのだから,検定ごとの第1種の誤り率が最大でもα/mであれば,検定全体での第1種の誤り率がαより大きくなることはないというわけです。本当にシンプルな方法なので,著者自身も次のように言っています。
ここで示した方法は,あまりに単純であまりに一般的なものであることから,おそらくすでにどこかで使用されていたに違いない。ただ,私には過去の使用例を見つけることはできなかった。おそらく,この方法はあまりに単純過ぎて,この方法がいくつかの状況で非常に役立つものだということに統計学者たちも気づけなかったのだろう(Dunn 1961 pp 52-53)。
このボンフェロニ補正をjamoviで使用するには,単に「Correction(補正)」のところで「Bonferroni(ボンフェロニ)」のチェックボックスをオンにするだけです。そうすると,分散分析の結果の表に新たに列が追加され,結果のpbonferroniという欄にボンフェロニ補正済のp値が表示されます(13.4)。補正済みのp値と補正されていないt検定のp値を比較すると,jamoviが元の値を3倍しただけだというのがよくわかります。
13.5.4 ホルム補正
ボンフェロニ補正はもっとも単純な調整法ですが,この方法がベストというわけではありません。その代わりとしてよく用いられる方法にホルム補正があります(Holm 1979)。ホルム補正では,あなたが一連の検定全体を(元の)p値が最小のものから徐々に大きなものへと連続的に行っているものとして捉えます。そして,j番目に大きなp値に対しては次のいずれかの調整が行われます。
p′j=j×pj
(最大のp値は変化させず,2番目に大きなp値を2倍し,3番目に大きなp値を3倍し……として調整する)
または
p′j=p′j+1
上の式で求められた値のいずれか大きい方をとるのです。ちょっとややこしいので混乱するかもしれませんね。ですからもう少しゆっくり見てみましょう。ホルム補正の方法は次の通りです。まず,すべてのp値を小さい順に並べます。そしてもっとも小さなp値をm倍します。残りのp値については2段階で調整を行います。たとえば,2番目に小さなp値では,まずその値をm−1倍します。その結果が先ほど調整したp値よりも大きな値だった場合,この値を使用します。ですが,先ほどより小さかった場合には,先ほどのp値をそのまま使います。この仕組みを説明するためにこの手順を表にしてみました。この表にはホルム補正で5つのp値を補正した場合の計算例を示しています。
p | 順位j | p×j | ホルムのp |
---|---|---|---|
.001 | 5 | .005 | .005 |
.005 | 4 | .020 | .020 |
.019 | 3 | .057 | .057 |
.022 | 2 | .044 | .057 |
.103 | 1 | .103 | .103 |
これで理解できたでしょうか。
計算は少しばかり難しいですが,ホルム補正には優れた特性があります。この補正はボンフェロニ補正よりも検定力が高い(つまり第2種の誤り率が低い)のです。そして直感的にはそう思えないかもしれませんが,ホルム補正とボンフェロニ補正では第1種の誤り率は同じなのです。ということで,実際の場面ではボンフェロニ補正を使う理由がまったくないことになります。なぜなら,単純なボンフェロニ補正はいくらか精巧なホルム補正につねに劣ることになるからです。つまり,多重比較補正の方法としてはホルム補正を主力にすべきだということですね。図13.4にはホルム補正されたp値も含まれています(pholmの欄)。値を比較すると,もっとも大きなp値(アンシフリーとプラシボの比較)は元の値と同じであることがわかります。値は.15で,これはまったく補正されていない元の値と同じです。対照的に,最も小さいp値(ジョイゼパム対プラシボ)は3倍されています(といっても見た目にはわかりませんが)。
13.5.5 事後検定の結果の書き方
最後に,事後分析でどのグループが有意に他と異なっているかを判断したら,その結果を次のように書きます。
事後検定(p値をホルム補正で調整)の結果,ジョイゼパムによる気分変化はアンシフリー(p=.001)およびプラシボ(p=9.0×10−5)に比べて有意に大きいことが示された。アンシフリーがプラシボよりも効果的であるという結果は得られなかった(p=.15)。
もし正確なp値を書くやり方が好きでなければ,その数字の部分をそれぞれp<.01やp<.001,p>.05に変えてください。いずれにせよ,大事なのは「ホルム補正でp値を補正した」ということをきちんと示すということです。そしてもちろん,ここではすでにどこかで関連する記述統計量(グループの平均値や標準偏差)についての記述がなされているものと仮定しています。なぜなら,ただp値を並べただけでは大して有益な情報とはいえないからです。
13.6 1要因分散分析の前提条件
他の統計的検定と同様に,分散分析もデータに対するいくつかの仮定に依存しています。とくに重要な仮定は,正規性,分散の等質性,そして独立性の3つです。セクション13.2.4の説明を覚えているでしょうか。全部は読んでいなくてもざっとは見てくれていると思いたいですが,そこで私は分散分析の基礎となる統計モデルを次のように書きました。
H0:Yik=μ+ϵikH1:Yik=μk+ϵik
この式では,μはすべてのグループで同じ1種類の母集団平均値を示しています。また,μkはk番目のグループごとの母集団平均値です。ここまでのところ,私たちは自分たちのデータが1つの全体平均値で説明できる(帰無仮説)かグループごとに異なる平均値で説明されるか(対立仮説)というところばかりを見てきました。もちろんこれは意味のあることで,実際これが研究における重要な問いなわけです。しかし,ここまでの検定手順はどれも,残差(ϵik)についてのある仮説に暗黙に依存していたのです。それは次のものです。
ϵik∼Norm(0,σ2)
この仮定なしにはどの計算も正しく機能しません。より正確には,それでもすべての計算をしてF統計量にたどり着くこと自体はできるのですが,そのF統計量で実際に私たちが測定したいものを測定できているという保証が得られないのです。ということは,そのF統計量を用いた検定を基に引き出された結論は,どれも間違っている可能性があるということです。
では,この残差に関する仮定が正しいことをどうやって確認したらいいのでしょう。前述の通り,この仮定には3つの異なる主張が含まれていますので,それらを別々に見ていくことにしましょう。
正規性 残差は正規分布していることが仮定されています。セクション11.8で見たように,これはQ-Qプロット(あるいはシャピロ・ウィルク検定141)で評価できます。分散分析におけるこれらの方法についてはセクション13.8で説明します。
分散の等質性 母集団の標準偏差に関しては,それぞれのグループが別々の標準偏差を持つ(σk)のではなく,1つの値(つまりσ)しかないという点に注意してください。これは分散の等質性(等分散性)の仮説とよばれます。分散分析では,母集団の標準偏差はすべてのグループで同じであると仮定されているのです。これについてはセクション13.7で詳しく説明します。
独立性 この独立性の仮定は少しばかりやっかいです。これが基本的に意味することは,1つの残差についてわかったところで,他の残差については何もわからないということです。ここでは,ϵikのすべての値が,他の残差からの影響を受けることなく生じていると仮定されています。これを調べるための単純な方法というのはないのですが,この仮定に明らかに違反している状況というのはいくつか考えられます。たとえば,その研究が繰り返し測定デザインである場合,各参加者に対して複数の条件で繰り返し測定を行っているわけですから独立性が保たれません。観測値の間に特別な関係,つまり同じ個人から得られたものであるという関係があるからです。このような場合には,反復測定分散分析のような別の手法を使用する必要があります。
13.7 分散の等質性の確認方法
(英語には)「猫の皮をはぐ方法は1つに限らない(ある種の仕事は何通りかのやり方がある)」ということわざがありますが,等分散性の仮定を検定する方法も1つに限りません(なぜ誰もこれをことわざにしないのでしょうね)。私がこれまでに見た中で,論文の中でもっとも一般的に使用されているのはルビーン検定(Levene test, Levene 1960)と,それに深く関連したブラウン・フォーサイス検定(Brown-Forsythe test, Brown and Forsythe 1974)です。ここではこの両方について説明します。
ルビーン検定は驚くほど単純です。私たちの手元にYik個の結果変数があるとしましょう。私たちがすべきことは,グループ平均値からの偏差の絶対値に対応した新しい変数を定義することだけなのです。ここでは新しい変数をZikと表しましょう。
Zik=|Yik−¯Yk|
さて,これが何の役に立つのでしょうか。まず,Zikが一体何なのか,私たちが何を検定しようとしているのかについて少し考えてみましょう。Zikの値は,k番目のグループにおけるi番目の観測値がそのグループ平均値から離れている程度を表します。そして私たちの帰無仮説は「すべてのグループで分散が同じである」というもので,これはつまり,グループ平均値からの全体的な偏差がすべてのグループで同じであるということです。ということで,ルビーン検定の帰無仮説は「Zの母集団平均値はすべてのグループで同じである」というものになるのです。そして私たちに必要なのは,「すべてのグループで平均値が同じである」という帰無仮説に対する統計的検定です。これに見覚えはないですか? そうです。これは分散分析です。つまり,ルビーン検定とは,新しく作成した変数Zikに対して分散分析をするのと同じなのです。
ではブラウン・フォーサイス検定はどうでしょう。何か際だった違いがあるのでしょうか。ありません。ルビーン検定との違いは,Z変数の値の求め方が少し違うということだけです。この検定では,グループの平均値の代わりに中央値からの偏差を使用するのです。これがブラウン・フォーサイス検定です。
Zik=|Yik−mediank(Y)|
mediank(Y)はグループkの中央値です。標準的なルビーン検定の場合もブラウン・フォーサイス検定の場合も,検定統計量(これはFと書かれることもあればWと書かれることもあります)は通常の分散分析で計算されるF統計量とまったく同じ方法で算出されます。ただ,Yikの代わりにZikが使用されているだけなのです。これらの点を念頭に置きながら,次にこの検定をjamoviで行う方法について見てみましょう。
13.7.1 jamoviでのルビーン検定
ルビーン検定はどうやればよいのでしょう。とても簡単です。分散分析画面の「Assumption Checks(前提条件チェック)」オプションで,「等質性検定」のチェックボックスをオンにするだけです。図13.5に示された結果を見ると,検定結果は有意でない((F2,15=1.45, p=.266))ことがわかります。ということで,分散の等質性の仮定については問題なさそうです。

図13.5: jamoviによる1要因分散分析のためのルビーン検定の結果。
13.8 正規性の仮定の確認方法
正規性の仮定についての確認方法は比較的単純です。必要なことのほとんどはセクション11.8で説明しました。私たちがすべきことはQ-Qプロットを作成することだけです。また,可能であれば追加でシャピロ・ウィルク検定を行えばよいのです。図13.6にQ-Qプロットを示しましたが,私には十分正規分布しているように見えます。

図13.6: jamoviの分散分析でオプションとして作成されるQ-Qプロット。
13.9 正規性の仮定を必要としない方法
ここまでは正規性の確認方法について見てきました。そうすると次は,もしこの正規性の仮定が満たされていなかった場合にはどう対処すればいいのかと疑問に思うのが自然な流れというものでしょう。1要因分散分析の場合,おそらくもっとも簡単な解決策はノンパラメトリック検定(つまり,分布の種類に関する特定の仮定に基づかない方法)を使用することです。ノンパラメトリック検定についてはすでに第11章でも取りあげました。グループが2つしかない場合,利用可能なノンパラメトリック検定にはマン・ホイットニー検定やウィルコクソン検定がありましたが,グループが3つ以上ある場合にはクラスカル・ウォリス順位和検定(Kruskal-Wallis rank sum test, Kruskal and Wallis 1952)が使用できます。ではこの検定について見ていくことにしましょう。
13.9.1 クラスカル・ウォリス検定の考え方
クラスカル・ウォリス検定は,ある意味で驚くほど分散分析に似ています。分散分析では,Yikつまりk番目のグループにおけるi番目の個人の結果変数を用いて分析を行いました。クラスカル・ウォリス検定では,これらYikの値を大小順に並べ替えて順位をつけ,そしてこの順位データに対して分析を実施するのです。まず,k番目のグループのi番目の個人の順位をRikとしましょう。そして,k番目のグループに含まれる観測値に与えられた順位の平均値,¯Rkを算出します。
¯Rk=1NK∑iRik
そして,全体の順位の平均値(¯R)についても計算しましょう。
¯R=1N∑i∑kRik
それが終わったら,全体の順位平均値(¯R)からの偏差の2乗を計算します。これを個別の順位得点について求めると,つまり(Rik−¯R)2を計算すると,その値はik番目の観測値の順位が全体の順位平均値からどれだけ離れているかについての「ノンパラメトリック」な指標になるのです。そして,全体の順位平均値からのグループ順位平均値の偏差の2乗を計算すると,つまり(¯Rk−¯R)2を計算すると,この値は全体の順位平均値からそのグループがどれだけ離れているのかについてのノンパラメトリックな指標になります。これを念頭に置きながら,分散分析と同じ考え方で順位の2乗和を定義します。まず,すでに「全体の順位2乗和」については計算が終わっています。
RSStot=∑k∑i(Rik−¯R)2
そして「グループ間の順位2乗和」は次のように定義できます。
RSSb=∑k∑i(¯Rk−¯R)2=∑kNk(¯Rk−¯R)2
つまり,もし帰無仮説が真であれば,そこにはグループの真の違いはまったくないということになり,グループ間の順位2乗和(RSSb)は非常に小さく,全体の順位2乗和(RSStot)よりもかなり小さくなると考えられるのです。考え方としては,これは私たちが分散分析のF統計量を求めたときのやり方とほぼ同じです。ですが,具体的な計算方法は同じではないため,クラスカル・ウォリス検定統計量は通常はKと表されます。これは次のように少し違った形になります。
K=(N−1)×RSSbRSStot
そして帰無仮説が真であれば,Kの標本分布はおおよそ自由度G−1のカイ2乗分布になります(Gはグループの個数です)。Kの値が大きいほどデータが帰無仮説と一致しないことになるので,この検定は片側検定です。そしてKが十分に大きいときに帰無仮説(H0)を棄却します。
13.9.2 捕捉
先ほどのセクションでは,クラスカル・ウォリス検定の考え方について説明しました。考え方としては,この検定の仕組みについては先ほど説明した通りです。ですが,数学的な視点から見た場合,この計算はとんでもなく面倒くさいことになるのです。そこで,(ここでその導出法を示したりはしませんが)ちょっとばかり代数の裏の手142を使ってKの式を次のように書き直します。
K=12N(N−1)∑kNk¯Rk2−3(N+1)
これが最終的なKの式です。こちらの式の方が,先ほどのセクションで示した式よりもずっと計算が簡単です。ただし,この式は人間にとってはまったくもって意味不明になってしまっています。ですから,おそらくKについては私が先ほど説明したような「順位についての分散分析」という例え方をするのが一番の方法でしょう。ただし,最終的に算出される検定統計量は分散分析で計算されるものとはずいぶん違ったものになるということは覚えておいてください。
そうそう,あと1つありました。やれやれ,何でいつもそうなんでしょう。あと1つ,あと1つって,まるで刑事コロンボみたいですよね。さて,ここまでのお話は,じつは生データに同順位がない場合に限って真実なのです。つまり,まったく同じ値の観測値が含まれていない場合です。同順位のデータがある場合,この計算を修正するための補正係数が必要になるのです。ええ,そうですよね。この時点で,おそらくもっとも勤勉な読者でさえ,もうどうでもよくなってきたんじゃないでしょうか(少なくとも同順位補正係数なんて今すぐには必要ないと思ったことでしょう)。だから,その計算方法については素早くささっと説明します。それとなぜそうなるのかについての詳細は退屈だし省略することにします。私たちが生データを使って度数分布表を作成したとしましょう。ここではfjをj番目の固有の値とします。これだけだとちょっと抽象的すぎるかもしれませんので,具体例としてclinicaltrials.csvデータセットのmood.gain変数について作成した度数分布表を使います。
0.1 | 0.2 | 0.3 | 0.4 | 0.5 | 0.6 | 0.8 | 0.9 | 1.1 | 1.2 | 1.3 | 1.4 | 1.7 | 1.8 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1 | 1 | 2 | 1 | 1 | 2 | 1 | 1 | 1 | 1 | 2 | 2 | 1 | 1 |
この表を見ると,度数分布表の3番目の値が2になっています。これは0.3というmood.gainの値に対応しているので,この表から気分改善度が0.3であった人が2人いたことがわかります。つまり,私が上で導入した数学的な表記では,これはf3=2であるということなんです。さて,これらの数値を用いて次のように同順位補正係数(TCF)を計算します。
TCF=1−∑jfj3−fjN3−N
クラスカル・ウォリス統計量に対する同順位補正後の値は,Kをこの値で割ることによって求められます。jamoviで計算されるのは,このようにして同順位を補正した値です。さて,これでようやく本当にクラスカル・ウォリス検定の理論に関する説明はおしまいです。皆さんが,自分はクラスカル・ウォリス検定の同順位補正係数の計算方法を知らないということに気づいた際,皆さんの心の中には実存的不安がこみ上げてきたはずです。そして今,こうして私がその不安を取り除いてあげたおかげで,皆さんはきっと深く安堵していることでしょう。ですよね?
13.9.3 jamoviでのクラスカル・ウォリス検定
クラスカル・ウォリス検定の仕組みを理解するための道のりは恐怖に満ちていたかもしれませんが,この検定の実行そのものは非常に簡単です。なぜなら,jamoviには「ANOVA(分散分析)」メニューの一部として,「Non-Parametric(ノンパラメトリック)」の「One Way ANOVA (Kruskall-Wallis)(1要因分散分析:クラスカル・ウォリス)」が含まれているからです。たいていの場合,あなたの手元にあるのはclinicaltrial.csvのようなデータで,そこには結果変数(mood.gain)とグループ変数(drug)が含まれているはずです。であれば,あとはjamoviで分析を実行するだけです。分析を実行すると,図13.7に示したようにクラスカル・ウォリスχ2 = 12.076, df = 2, p = 0.00239という結果が得られます。

図13.7: jamoviでのクラスカル・ウォリス検定の様子
13.10 分散分析とスチューデントのt検定
本章の最後に,あと1つだけ指摘しておきたいことがあります。それは多くの人が驚くことで,そして知っておく価値のあることです。じつは,2グループの分散分析はスチューデントのt検定とまったく同じなのです。いえ,本当にです。単に似ているというのではなく,本当にあらゆる意味において同一なのです。これが真実であることを証明しようとはしませんが,1つ具体的な証拠をお見せします。例題データで,drug(投薬条件)の代わりにtherapy(心理療法)をグループ変数として分散分析を行ってみましょう。この分散分析を実行すると,F統計量はF(1,16) = 1.71で,p = 0.21となります。グループが2つしかありませんので分散分析に頼る必要はありません。ここではスチューデントのt検定をすることもできます。そこで,実際にその通りにやってみたらどうなるかを見てみましょう。すると,t統計量t(16) = −1.3068でp= 0.21という結果になりました。不思議なことにp値が同じですね。こちらも p=.21です。ですが,検定統計量はどうでしょう。分散分析の代わりにt検定実行すると,t(16) = −1.3068という値になります。これは少し違う値です。ですが,じつはここにとても単純な関係があるのです。このt統計量を2乗すると,先ほど得たF統計量と同じになるのです(−1.30682= 1.7077)。
13.11 要約
本章ではたくさんの内容を扱いましたが,まだまだ欠けているところがたくさんあります。たとえば,3群以上の場合で対応ありのt検定に相当するものについての説明がまだです。もちろん,そのような分析方法もあります。それは反復測定分散分析で,それについては本書では扱っていません。また,グループ変数が複数ある場合の分散分析についても話していません。これは第14章で詳しく説明します。本章で取りあげた内容における主要な部分は次の通りです。
他のすべての章もそうですが,本章の内容はさまざまな文献を参考にしながら構成されています。本章の内容に関しては,もっとも著名なテキストで私がもっとも影響を受けているのはSahai and Ageel (2000)です。初心者向けの本ではありませんが,分散分析の基礎にある数学の部分に関心がある上級者にとっては,これは非常に優れたテキストです。
すべてのグループで観測値の数が同じである場合,その実験デザインは「釣り合い型(balanced)」と呼ばれます。本章で取りあげる1要因分散分析では,釣り合い型かどうかは大して問題にはなりません。ですが,より複雑な分散分析をしようとする場合にはこれが重要になってきます。↩
訳注:分散分析の文脈ではmean squareは「平均平方」と呼ばれることの方が一般的ですが,ここではあえて「2乗平均」としておきます。どうも,「平方といえば2乗」が「ゴホン!といえば 龍角散」と同じくらいスムーズに思い浮かぶ人が思ったより少ないように感じるからです。そして,そうした人にとっては「平均平方」より「2乗平均」の方が,わずかとは言えイメージしやすいでしょう。同じ理由で,本書の中では「平方和(sum of squares)」についても一貫して「2乗和」という表現を用いています。ただし,sum of squaresを「2乗和(二乗和)」と呼ぶことはmean squareを「2乗平均」と呼ぶことに比べるとだいぶ一般的なので,他の統計の教科書などでこちらが使われているのを目にすることも多いでしょう。↩
第14章まで読み進んで,ある要因のk水準における「処置効果(treatment effect)」がαk値によってどのように定義されるかを見れば(セクション14.2参照),Qは処置効果の重みづけ平均値であり,Q=(∑Gk=1Nkα2k)/(G−1)であるということがわかります。↩
ひたすら正確さにこだわりたいならば,より厳密には1ではなく1+2df2−2です。↩
より正確には,「今が1899年で,友人もおらず,その時代には何の意味もなかったような計算をひたすらやる以外に時間を潰す方法がない状況」を思い浮かべてください。分散分析というのは1920年代までは存在しなかったわけですから。↩
訳注:jamoviで必要な値を求めた結果(F,自由度,pを除く)をclinicaltrialanova.omvファイルに入れておきました。ただし,グループの平均値(Y.k)は小数点第4位を四捨五入した値を手入力しているので,その分の丸め誤差があります(正確な値を式で計算させる方法もありますが,ごちゃごちゃするのでやめておきました)↩
clinicaltrialanova.xlsにあるExcelでのSSbの計算結果は3.45で,これは本文の値とわずかに異なります。これは数値の「丸め誤差(四捨五入などによる誤差)」によるものです。↩
jamoviの結果は,先ほどの本文で説明した数値よりもずっと正確なものになっています。丸め誤差が少ないためです。↩
http://daniellakens.blogspot.com.au/2015/06/why-you-should-use-omega-squared.html↩
もしあなたがある特定のペアだけを比較し,それ以外で比較する必要がないという理論的基礎を持っているなら,これはまた話が別です。それは「事後」分析を行っていることにはなりません。それは「計画的な比較」を行っていることになります。この状況については本書のもう少し後(セクション14.8)で説明しますが,ここでは話を単純にしておきたいと思います。↩
すべての調整法がこうしようとしているわけではないということは指摘しておいた方がよいでしょう。私がここで説明しているのは,「族あたりの第1種の誤り率」をコントロールしようとするアプローチです。それ以外の事後検定では,「偽発見率(false discovery rate: FDR)」をコントロールしようとするものもあります。これはまた別のものです。↩
jamoviでは,まだ分散分析メニューの中でシャピロ・ウィルク検定はできません。↩
専門用語↩