リッジ回帰(Ridge Reression)とLASSOー過学習を抑制する正則化最小二乗法ー【Pythonプログラム付】

統計・機械学習

統計や機械学習において最も基本的な回帰分析手法は(通常)最小二乗法(OLS:Ordinary Least Squares)です。

最小二乗法を用いた回帰分析ー①線形単回帰分析ー【Pythonプログラム付】
統計や機械学習において最も基本的な回帰分析手法は(通常)最小二乗法(OLS:Ordinary Least Squares)です。その中でも説明変数(x)が一つしかない単回帰分析は,Microsoft Excelの「近似曲線」機能etcで使用...

しかし,データの量や性質によっては回帰係数がデータに過度に適合する過学習が生じる可能性があり,回帰曲線の汎化性能が著しく低下する場合があります。そこで登場するのが,正則化項を導入した正則化最小二乗法(Regularized Least Squares)です。本記事では,過学習のイメージから正則化項の導入,最も有名なリッジ回帰やlassoについて解説します。

大きい画面で表示したい方はこちらからご覧ください。

pythonによるサンプルプログラムはGitHubで公開しています。

クリエイティブ・コモンズ・ライセンス

スライドの目次

  • はじめに
  • (復習)最小二乗法で扱う誤差関数
  • 多項式回帰の例
  • 過学習とは
  • 過学習の際の係数の値
  • 正則化項の導入
  • 正則化項を導入した際の回帰曲線
  • 正則化項を導入した際の回帰係数
  • 誤差関数の幾何学的解釈
  • なぜlassoはスパース解が得られやすいのか

参考文献

  • C.M. ビショップ,パターン認識と機械学習 上, 丸善出版 (2012)

質問、コメント等ございましたら、下部のコメント欄,もしくはメールやTwitterよりご連絡ください。

タイトルとURLをコピーしました