Fuwafuwa's memorandum

Fuwafuwa's memorandum

Data analysis, development, reading, daily feeling.
MENU

時系列データの取り扱い+統計的仮説検定

いい加減クックブックをチラ読みしながら
いい加減な分析ぽいものをこねくりだすことにうんざりしてきたので
時系列データの取り扱いについてコツコツ蓄積していこうと思います。

●異なる銘柄における株価変動の比較例
開始時点データにより各時点におけるデータを割ることで基準化し比較。

●収益率(日々の価格変動を前日の価格で基準化する)
ex. 対数差収益率
これにより価格変動のしやすさ(ボラティリティ)を測定する

●統計的仮説検定
任意の時点データがIIDであるか否かは
時系列データを分析する際ロジックの基礎となる部分である。
⇒Shapiro-Wilkの検定
    帰無仮説を「データが正規分布に従う」とする。
⇒連の検定
    収益率プラス・マイナスを二値変数とし
    帰無仮説を「プラスとマイナスの並びに規則性はない」とする
初見で目を疑い他ソースを探したが同様の記述。
私のような浅学者には肯定したい仮説を帰無仮説とすることは
明らかにフィッシャーの実験計画法のような偏執的な厳格さとは相反するように思える。
不勉強のため、なぜ、どのような意図でそのような仮説を立てるのかは不明。
もしかすると検定はあくまでもその後のロジックの基礎となる部分であり
分析者にとっては帰無仮説と対立仮説でそれほど価値が変わるわけではないからかもしれない。
(しかし伝統的な10%、5%、1%水準を利用する意図は不明)
気になる。

QQプロットに関する覚え書き

直観的に理解し難かったのでメモ。
QQプロットはデータの正規分布への当てはまりの良さ(類似度)を測定するためのものである。

1. データをx軸0から1の間に均等にプロットする。
2. 正規累積分布曲線をy軸0から1の間に、1のデータと同じ数だけプロットする
3. 1のプロットにおいてyと平行な軸を0から1の間で順に移動させる
4. 3と同様にxと平行な軸を0から1の間で順に移動させる。
5. 3と4の軸が重なる部分にプロットする
6. 5で得られたプロットがx=yの直線に重なるほどデータは正規分布に近い形状をしているといえる。

データの分位数(Quantile)、正規累積分布の分位数(Quantile)
が接する点にプロットするQQプロット。

経済データに関する本に記載があったが
個人的にはそもそも経済データが正規分布するという事自体が直観的に納得し辛く面白い。
むしろ信頼確率と理解するのがいいのか。

数量化Ⅲ類、対応分析、コレスポンデンス分析

従属変数が質的変数の場合には数量化Ⅲ類
量的変数の場合には対応分析、またはコレスポンデンス分析などと呼ばれる。
これらについて言及される時にはほとんど同一のものと見なされるためここでもそう見なす。

それぞれ独立したn個の変数を相関係数が最大化するよう並び替え
次元を縮約する。

多くの場合得られた解の内、相関係数が高い2つを用いて
2次元上にサンプルおよび変数が散布される。
ただし固有値および相関係数が記載されていない場合がほとんどなので妥当性は不明。
これについてはアウトプットの解釈が難儀なため
アカデミックな場面で用いられることが少なかったのではないかと予想する。

近年市場調査や人文科学領域におけるテキストマイニングで俄かに注目されている模様。

このカテゴリーに該当する記事はありません。