Kaggle 銅メダルへの道(7日目)

こんにちは、筋肉めがねです。

 

1月最終日ですね。明日、日欧EPA (Economical Partnership Agreement)が施行されます。ドイツで購入できる日本食品が安くなるのでしょうか。楽しみですね。

www.mofa.go.jp

 

それでは、本日は、昨日Kaggleへ提出したモデルのざっくりとした解説、そして理解に努めましょう。

 

昨日提出したモデルは、以下の記事を参考に準備しました。

www.kaggle.com

 

Box-Cox transformationやら、初めて聞く名前の手法が多々ありますが、中でも今日はstackingについて理解していきましょう。

stackingとはアンサンブル学習の一つ、という事です。

では、アンサンブル学習とは何か。それは、一つの学習器ではなく、複数の学習器を組み合わせる事によって、精度の高いモデルを構築する手法ですね。

それでは、stackingとは何か。

訳すると重ね合わせる、という事です。

 

f:id:KinnikuMegane:20190201060541p:plain

stackingとは、最初のステージで複数の学習器を用いて、学習をさせます。そして、ここから得られた予測値を特徴量として、第二ステージで使用し、そのまま第二ステージで別の学習器群に学習させる、という一連の流れです。

とても分かりやすい記事があったので共有しておきます。

www.algo-fx-blog.com

 

それでは、2月以降は、3月末までに期限のあるKaggleのCompetitionに参加し、メダルを取りにいきましょう。

 

それでは、本日は以上でございます。

にほんブログ村 IT技術ブログへ
にほんブログ村



Pythonランキング