回帰分析~リッジ回帰~
こんにちは!EMです^^
今回はリッジ回帰について取り上げたいと思います。
リッジ回帰とは、大きな係数を防ぐために正則化を実装します。
リッジ回帰のコスト関数は次のとおりです。
また変な記号がでてきましたね。
λ(Lambda)というのは正則化の項です。
この働きによって、βの値が大きい場合はペナルティが課せられます。
気になる方は、この概念についてよくまとまってる記事があるので
ぜひ見てみてください。
(英語さえ苦でなければ、2分で読める記事だそうです^^;)https://towardsdatascience.com/l1-and-l2-regularization-methods-ce25e7fc831c
scikit-learnではRidgefunction
を使い、このように実装されます。
RidgeReg = sk.linear_model.Ridge(alpha=5000)
RidgeReg.fit(df[top_feats],df['price'])
RidgeReg.score(df[top_feats],df['price'])
RidgeReg.coef_
max(RidgeReg.coef_)
max(regfit.coef_)
# このコードにより、最大係数がOLSモデルから抑えられていることが分かります
実装結果については、今回は割愛しています。
ご自身のデータと当てはめて、どの様に機能するのかぜひ試してみてくださいね!
ちなみに皆様に朗報です!
私今まで知らなかったんですが、CodeCampさんが無料で5回分無料レッスンを
されているらしいです、、、!
私が他のオンラインスクールで機械学習のコースを受講した際は
グループレッスンで約2倍のお値段を払ったので
完全マンツーマンでこのお値段は超良心的だなと思います。。。
ぜひ気になる方は無料体験もされてるみたいなので、一度WEBサイトを見てみてくださいね。
データ分析は時代が変化しても、必ず重宝される分野だと思っているので
プロから基礎を学ぶのは、本当に超効率的な自己投資だと思います。
短いですが、今回はここまでです。
また次回おたのしみに~^^