回帰分析~リッジ回帰~

こんにちは!EMです^^

 

今回はリッジ回帰について取り上げたいと思います。

 

リッジ回帰とは、大きな係数を防ぐために正則化を実装します。

リッジ回帰のコスト関数は次のとおりです。

 

f:id:tennisfashionista:20210131012345p:plain

 

また変な記号がでてきましたね。

λ(Lambda)というのは正則化の項です。

この働きによって、βの値が大きい場合はペナルティが課せられます。

 

気になる方は、この概念についてよくまとまってる記事があるので

ぜひ見てみてください。

(英語さえ苦でなければ、2分で読める記事だそうです^^;)https://towardsdatascience.com/l1-and-l2-regularization-methods-ce25e7fc831c

 

scikit-learnではRidgefunctionを使い、このように実装されます。

 

RidgeReg = sk.linear_model.Ridge(alpha=5000)
 
RidgeReg.fit(df[top_feats],df['price'])
 
RidgeReg.score(df[top_feats],df['price'])
 
RidgeReg.coef_
 
max(RidgeReg.coef_)
 
max(regfit.coef_) 
# このコードにより、最大係数がOLSモデルから抑えられていることが分かります
 
 
実装結果については、今回は割愛しています。
ご自身のデータと当てはめて、どの様に機能するのかぜひ試してみてくださいね!
 
 
 
 

ちなみに皆様に朗報です!

私今まで知らなかったんですが、CodeCampさんが無料で5回分無料レッスンを

されているらしいです、、、!

私が他のオンラインスクールで機械学習のコースを受講した際は

グループレッスンで約2倍のお値段を払ったので

完全マンツーマンでこのお値段は超良心的だなと思います。。。

 

 

 

ぜひ気になる方は無料体験もされてるみたいなので、一度WEBサイトを見てみてくださいね。

データ分析は時代が変化しても、必ず重宝される分野だと思っているので

プロから基礎を学ぶのは、本当に超効率的な自己投資だと思います。

 
 
 
 
短いですが、今回はここまでです。
 
また次回おたのしみに~^^