回帰分析とは②

こんにちは!EMです^^

 

今回は回帰分析の第2弾という事でやっていきたいと思います。

 

まず線形回帰について触れていきたいと思います。

線形回帰とは、最小二乗回帰(OLS: Ordinary Least Squares)とも呼ばれています。

最適な線からの二乗の差を最小化にしたいときに使われ、下記のような

係数を直接計算できる線形回帰の方程式を利用します。

(数学的には closed-form solutionというそうです。)

 

f:id:tennisfashionista:20210120033200p:plain

 

傾きが分かれば、切片も計算できます。

 

f:id:tennisfashionista:20210120033654p:plain



残差(Residuals)

線形回帰をもう少し理解する為のもう1つの方法は

グラフに線を引いて、その線への残差平方和を最小化するという事です。

 

fig, ax = plt.subplots(1,2)

sns.regplot('x''y', pd.DataFrame({'x':x, 'y':y}), ax = ax[0]);
sns.residplot('x''y', pd.DataFrame({'x':x, 'y':y}), ax = ax[1]);
 
 

f:id:tennisfashionista:20210120034318p:plain

 

少し数学的な話がでてきたので、特に初心者の方からすると

一気に難易度があがったかと思います。

でも回帰分析を理解する上で、基礎を抑えるのはとても重要です。

 

今日はここまでにして、また次にも回帰分析について説明を加えたいと思います。

 

ちなみに皆様に朗報です!

私今まで知らなかったんですが、CodeCampさんが無料で5回分無料レッスンを

されているらしいです、、、!

私が他のオンラインスクールで機械学習のコースを受講した際は

グループレッスンで約2倍のお値段を払ったので

完全マンツーマンでこのお値段は超良心的だなと思います。。。

 

 

 

ぜひ気になる方は無料体験もされてるみたいなので、一度WEBサイトを見てみてくださいね。

データ分析は時代が変化しても、必ず重宝される分野だと思っているので

プロから基礎を学ぶのは、本当に超効率的な自己投資だと思います。

 

 

 

ではまた~^^