|
|
1行目: |
1行目: |
− | '''コルモゴロフ–スミルノフ検定'''(コルモゴロフ–スミルノフけんてい、{{lang-en-short|Kolmogorov–Smirnov test}})は[[統計学]]における[[仮説検定]]の一種であり、有限個の[[標本]]に基づいて、二つの[[母集団]]の[[確率分布]]が異なるものであるかどうか、あるいは母集団の確率分布が[[帰無仮説]]で提示された分布と異なっているかどうかを調べるために用いられる。しばしば'''KS検定'''と略される。 | + | '''コルモゴロフ–スミルノフ検定'''(コルモゴロフ–スミルノフけんてい、{{lang-en-short|Kolmogorov–Smirnov test}}) |
| + | |
| + | [[統計学]]における[[仮説検定]]の一種であり、有限個の[[標本]]に基づいて、二つの[[母集団]]の[[確率分布]]が異なるものであるかどうか、あるいは母集団の確率分布が[[帰無仮説]]で提示された分布と異なっているかどうかを調べるために用いられる。しばしば'''KS検定'''と略される。 |
| | | |
| 1標本KS検定は、経験分布を帰無仮説において示された[[累積分布関数]]と比較する。主な応用は、[[正規分布]]および[[一様分布]]に関する[[適合度検定]]である。正規分布に関する検定については、リリフォースによる若干の改良が知られている([[リリフォース検定]])。正規分布の場合、一般にはリリフォース検定よりも[[シャピロ-ウィルク検定]]や[[アンダーソン-ダーリング検定]]の方がより強力な手法である。 | | 1標本KS検定は、経験分布を帰無仮説において示された[[累積分布関数]]と比較する。主な応用は、[[正規分布]]および[[一様分布]]に関する[[適合度検定]]である。正規分布に関する検定については、リリフォースによる若干の改良が知られている([[リリフォース検定]])。正規分布の場合、一般にはリリフォース検定よりも[[シャピロ-ウィルク検定]]や[[アンダーソン-ダーリング検定]]の方がより強力な手法である。 |
| | | |
| 2標本KS検定は、二つの標本を比較する最も有効かつ一般的な[[ノンパラメトリック手法]]の一つである。これは、この手法が二つの標本に関する経験分布の位置および形状の双方に依存するためである。 | | 2標本KS検定は、二つの標本を比較する最も有効かつ一般的な[[ノンパラメトリック手法]]の一つである。これは、この手法が二つの標本に関する経験分布の位置および形状の双方に依存するためである。 |
− |
| |
− | == 検定統計量 ==
| |
− | [[File:Cdf-ecdf.svg|thumb|300px|経験分布(青)と累積分布(赤)の例。検定統計量はこれらの「ズレ」を測っている。]]
| |
− | ''n''個の標本''y''<sub>1</sub>, ''y''<sub>2</sub>, ..., ''y''<sub>''n''</sub>に対する[[経験分布]]''F''<sub>''n''</sub>は以下のように与えられる。
| |
− | :<math>F_n(x) = \frac{\#\{\, 1 \leq i \leq n \mid y_i \leq x \,\}}{n}</math>
| |
− | このとき ''F''(''x'') を帰無仮説で提示される分布、またはもう一方の経験分布とすると、二つの片側KS[[検定統計量]]は、以下で与えられる{{sfn|Durbin|1973|p={{google books quote|id=zAryCrT1IUYC|page=6|6}}}}。
| |
− | :<math>D_n^+=\sup_x(F_n(x)-F(x))</math>
| |
− | :<math>D_n^-=\sup_x(F(x)-F_n(x))</math>
| |
− | 二つの分布が等しいという帰無仮説が棄却されないと仮定する場合、上記の二つの統計量が従うべき確率分布は、仮説で提示される分布が連続分布である限りにおいて、分布の形に依存しない。
| |
− |
| |
− | [[ドナルド・クヌース|クヌース]]はこの1対の統計量に関する有意性を解析する方法に関する詳細な記述を与えている。多くの人々は2つの統計量の代わりに
| |
− | :<math>D_n = \sup_x \vert F_n(x) - F(x) \vert = \max(D_n^+, D_n^-)</math>
| |
− | という統計量を用いるが、この統計量の分布はさらに扱いにくい。
| |
− |
| |
− | == 有意確率 ==
| |
− | 1標本KS検定では、サンプル数''n''が十分大きいとき、経験分布''F''<sub>''n''</sub>(''x'')が[[帰無仮説]]に従う(すなわち、経験分布が帰無仮説で提示された分布''F''(''x'')と一致する)と仮定した下での場合の検定量の分布は
| |
− | :<math>\operatorname{Prob}(\sqrt{n}D_n\leq x)=1-2\sum_{i=1}^\infty (-1)^{i-1} e^{-2i^2 x^2}=\frac{\sqrt{2\pi}}{x}\sum_{i=1}^\infty e^{-(2i-1)^2\pi^2/(8x^2)}</math>
| |
− | で与えられる。したがって、有意水準を<math>\alpha</math>とするとき、検定量''D''<sub>n</sub>が<math>\sqrt{n}D_n>K_{\alpha}</math>(ただし<math>K_{\alpha}</math>は<math>\operatorname{Prob}(\sqrt{n}D_n\leq K_{\alpha})=1-\alpha.\,</math>を満たす数)を満たすとき、帰無仮説は棄却され、経験分布''F''<sub>''n''</sub>(''x'')は帰無仮説で提示された分布''F''(''x'')とは異なることが示唆される。
| |
− |
| |
− | == その他 ==
| |
− | 1年のうちの1日や、あるいは1週間のうちの1日といったように、独立変数が周期性を持つ場合、[[カイパー検定]]の方がより適切である。[[数値解析]]の有名な著作である"''Numerical Recipes''"には、このことに関する詳しい情報が記載されている{{sfn|Press et al.|1983}}。
| |
− |
| |
− | さらに、コルモゴロフ-スミルノフ検定は分布の裾の部分よりも[[中央値]]付近の方に強く依存する。これに対して、アンダーソン-ダーリング検定は裾でも中央値付近でも等しい感度を与える。
| |
− |
| |
− | == 脚注 ==
| |
− | {{reflist|2}}
| |
− |
| |
− | == 参考文献 ==
| |
− | *{{cite book|和書|title = ニューメリカルレシピ・イン・シー日本語版―C言語による数値計算のレシピ |author =William H.Press, William T. Vetterling, Saul A. Teukolsky, Brian P. Flannery|translator =丹慶勝市・奥村晴彦・佐藤俊郎・小林誠|year = 1993 |edition = 1|publisher = 技術評論社|isbn = 978-4874085608| ref = {{sfnref|Press et al.|1993}}}}
| |
− | * {{cite book
| |
− | |last1 = Durbin
| |
− | |first1 = J.
| |
− | |year = 1973
| |
− | |title = Distribution theory for tests based on the sample distribution function
| |
− | |url = {{google books|zAryCrT1IUYC|plainurl=yes}}
| |
− | |publisher = Society for Industrial and Applied Mathematics
| |
− | |isbn = 978-0-89871-007-6
| |
− | |mr = 0305507
| |
− | |ref = harv
| |
− | }}
| |
− |
| |
− | == 関連項目 ==
| |
− | * [[アンドレイ・コルモゴロフ]]
| |
− | * [[リリフォース検定]]
| |
− | * [[シャピロ-ウィルク検定]]
| |
− | * [[アンダーソン-ダーリング検定]]
| |
− | * [[ジャック-ベラ検定]]
| |
− |
| |
− | == 外部リンク ==
| |
− | * {{google books quote|id=9QHcJ8WQQ5UC|page=586|分位数の表}} — {{cite book
| |
− | |last1 = Pestman
| |
− | |first1 = Wiebe R.
| |
− | |year = 2009
| |
− | |title = Mathematical statistics
| |
− | |edition = Second
| |
− | |series = de Gruyter Textbook
| |
− | |url = {{google books|9QHcJ8WQQ5UC|plainurl=yes}}
| |
− | |publisher = Walter de Gruyter
| |
− | |isbn = 978-3-11-020852-8
| |
− | |mr = 2516478
| |
− | |zbl = 1251.62001
| |
− | |ref = harv
| |
− | }}
| |
| | | |
| {{統計学}} | | {{統計学}} |
− | | + | {{テンプレート:20180815sk}} |
| {{DEFAULTSORT:こるもころふすみるのふけんてい}} | | {{DEFAULTSORT:こるもころふすみるのふけんてい}} |
| [[Category:統計検定]] | | [[Category:統計検定]] |