トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L2正則化について知られている人はほとんどいません:
(ヒント:これは単なる正則化技術ではありません)
ほとんどのモデルはL2正則化を一つの目的にのみ用いることを意図しています:
↳ 過学習を削減する。
しかし、L2正則化は多重共線性の優れた解決策です。
多重共線性は以下の場合に生じます:
→ 2つ(またはそれ以上)の特徴は高度に関連しています。または、
→ 2つ(またはそれ以上)の特徴が別の特徴を予測することができます。
L2正則化が多重共線性をどのように扱うかを理解するために、2つの特徴と従属変数(y)を持つデータセットを考えます。
→特徴A
→ featureB → featureAと高度に関連しています。
→ y = 特徴Aと特徴Bの線形結合。
切片項を無視すると、線形モデルは2つのパラメータ(θ₁, θ₂)を持ちます。
目的は残差二乗和(RSS)を最小化する特定のパラメータを見つけることです。
では、次のことをやってみよう ↓
1. (θ₁, θ₂)パラメータのさまざまな組み合わせに対してRSS値をプロットします。これにより3Dプロットが作成されます:
→ x軸 → θ₁
→ y軸 → θ₂
→ z軸 → RSS値
2. RSS値を最小化する(θ₁, θ₂)の組み合わせを視覚的に決定します。
L2ペナルティがなければ、下の画像の最初のプロットが得られます。
何か気づいた?
3Dプロットには谷があります。
RSSが最小となるパラメータ値(θ₁、θ₂)の組み合わせは複数存在します。
L2ペナルティを加えると、下の画像の2番目のプロットが得られます。
今回は何か違うものに気づきましたか?
L2正則化を用いることで、先に見た谷は除去されました。
これによりRSSエラーのグローバルな最小値が得られます。
これがL2正則化が多重共線性を排除するのに役立った方法です。
👉 次はあなたにお任せします:L2正則化について知っていましたか?

実際、「リッジ回帰」という名前もここから来ています。
L2ペナルティを用いることで、線形モデルの尤度関数におけるRIDGEは除外されます。
これ👇を見て

32.11K
トップ
ランキング
お気に入り

