教師あり学習 - Simple yet best
教師あり学習は、ラベル付きの学習データから関数を推論するための機械学習アルゴリズムです。学習データは実データセットから構成されます。例: 身長と体重を知って、その人の性別を識別することです。以下は人気のある教師あり学習アルゴリズムです。
- 回帰 (Regression)
- 線型回帰 (Linear Regression)
- ロジスティック回帰 (Logistic Regression)
- サポートベクトルマシン (Support Vector Machine)
- ナイーブベイズ (Naive Bayes)
- K最近傍法 (K-nearest neighbors)
- 決定木 (Decision Trees)
- ランダムフォレスト (Random Forest)
アルゴリズム | 使用例 | 選択基準 |
線形回帰 | 特徴量と目的変数の線形関係をモデル化する場合
例: 家の価格予測 | データが線形関係を持ち、単純なモデルで問題を解決できる場合 |
ロジスティック回帰 | 2つのクラスを分類する問題
例: スパムメール分類 | データが2つのクラスに分類され、線形の決定境界で分離できる場合 |
サポートベクトルマシン | 2つ以上のクラスを分類する問題
例: 手書き数字の分類 | データが非線形であり、高い分類性能が求められる場合 |
ナイーブベイズ | 特徴量が独立していると仮定できる問題
例: テキスト分類、スパムメール分類 | 特徴量が独立しており(仮定)、単純なモデルで問題を解決できる場合 |
K最近傍法 | 2つ以上のクラスを分類する問題、小規模から中規模のノイズのないデータセット
例: 手書き文字検出、画像認識、および動画認識 | データが高次元でなく、ノイズが少ない場合 |
決定木 | 複雑なデータの分類や回帰問題
例: 顧客セグメンテーション | データが非線形であり、解釈が容易である場合 |
ランダムフォレスト | 決定木の弱点を補う場合
例: 顧客セグメンテーション | データが複雑であり、決定木による過学習のリスクがある場合(最近、Boosting TreesのXGBoostやLightGBMがよく用いられます) |
線形回帰 (Linear Regression)
⚙️ モデルの種類: 回帰 (Regression)
線形回帰の式は、従属変数 と1つまたは複数の独立変数 の関係をモデル化するために使用されます。最も単純な形式である単純線形回帰は、以下のように表されます。