逆行列が果たす役割:線形回帰モデルでの特徴と目的変数の直接的な関係の抽出

Shape Image One

はじめに

線形回帰は、機械学習の中でも最も基本的かつ広く使われている手法の一つです。しかし、その中核となる数式の一部分、具体的には (X^T X)^-1 の部分について、その意味や役割を詳しく理解している人は案外少ないかもしれません。今日は、この部分がどのような役割を果たし、なぜ線形回帰モデルの中で重要なのかを説明します。

重みの学習と逆行列

線形回帰モデルでは、説明変数と目的変数との間の関係を最も良く表す「重み」を学習します。その方法の一つが最小二乗法で、実際の目的変数と予測値との差(誤差)の二乗和を最小にするような重みを求めます。

そして、その解(最適な重み)は以下の数式で表されます:

w = (X^T X)^-1 X^T t

ここで、X は説明変数のデータを並べた行列、t は目的変数のデータ、w は求めるべき重みです。そして、この数式の中で (X^T X)^-1 の部分が非常に重要な役割を果たします。

逆行列の役割

この部分がどのような役割を果たしているのかを理解するためには、まず X^T X の意味を理解する必要があります。これは、説明変数間の相関をエンコードした行列です。つまり、各説明変数が互いにどの程度関連しているかを表しています。

そして、その逆行列を掛ける操作は、これらの相関の影響を「打ち消す」役割を果たします。つまり、各説明変数が目的変数に与える「純粋な」影響力を抽出するため、他の説明変数との相関の影響を排除するためのステップと言えます。

これにより、得られる重みベクトル w は、各説明変数が目的変数に与える直接的な影響力を反映しています。


(補足)

単純線形回帰から多変量線形回帰へ

線形回帰とは、一連の入力特徴に基づいて出力(または目標)変数を予測する統計的手法です。最も単純な線形回帰モデルは一次元で、単一の入力特徴を使用します。

一次元線形回帰

一次元線形回帰では、単一の入力特徴 x に基づいて目標変数 y を予測します。モデルの形式は y = wx + b で、ここで w は重み(または係数)で、b はバイアス(または切片)です。

このモデルの重み w は、x と y の共分散を x の分散で割ることで計算されます。これにより、x の1単位の変化が y にどの程度の変化を引き起こすかが決定されます。

二次元線形回帰

一次元線形回帰を二次元に拡張すると、2つの入力特徴 x1, x2 を使用して y を予測します。モデルは次のようになります: y = w1x1 + w2x2 + b

2つの入力特徴があるため、2つの重み w1, w2 が必要です。これらの重みは、データの各特徴と目標変数との相関を考慮して最適化されます。具体的には、次のような最適な重みの解析的な解を得ることができます: w = (X^TX)^-1X^Ty ここで X は入力特徴の行列(この場合、列数は2)、y は目標値のベクトルです。

(X^TX)により共分散と分散が反映されます。

Leave a Reply

Your email address will not be published. Required fields are marked *