はじめに
機械学習の方面では超おなじみの線形回帰分析ですが、線形回帰分析といえば最小二乗法がほぼ定番で、最小二乗法といえば正規方程式がほぼ必ず登場します。
よって正規方程式も超おなじみなわけで、正規方程式の導出の方法についてGoogle先生に尋ねてみると、行列やベクトルを駆使しまくる方法やプログラムを教えてくれます。
しかし、この情報だけだと行列やベクトルの計算から一度離れて一周回って戻ってきた時に「なんでそうなるんだっけ?」ということになりかねません。
そこで、この記事では最後の変形までは表記を簡略化する以外の目的では行列やベクトルの計算を使わずに要素ごとに計算して導出してみることにします。
線形回帰分析の概要
線形回帰分析とは、ある
という関係式で表すことができるものと仮定し、どのような説明変数を与えてもある程度正確そうな目的変数を与えてくれそうな
最小二乗法からの正規方程式
最小二乗法の概要
このある程度正確そうな状態を定量的に表すために、説明変数及び目的変数の組を用意します。この記事では仮に
このとき、
の関係が成り立って欲しいところですが、そもそも
そこで、(
すると、
と書けます。(
また、この記事では直接は使用しませんが、(
と書けます。
(
要素ごとに偏微分。
スポンサーリンク
ここからは説明変数及び目的変数として与えられた
(
したがって、
がすべて0になるときに
となることを利用しています。
正規方程式の導出
(
になりますので、これを行列かベクトルの形式でまとめて書けないか考えてみます。
まず左辺。
まず、(
と書けます。
と書けます。
ここで、
と書くことができます。
次に右辺。
次に、(
左辺は総和を2回とる形になっていて一見ややこしいので、とりあえず、
とおいてみます。すると…
ここで再度
と書けます。なお、
(
になります。
ここまで(
が成り立つことがわかります。
なんとか正規方程式にたどり着くことができました。
特に
と計算することにより、
まとめ
ここまでの計算で行列の要素ごとに計算を行うことで、正規方程式を導出することができました。
行列やベクトルの計算時に使える関係式を忘れても計算できる方法ですので、ご参考にしていただけると幸いです。
この記事は以上です。