機械学習の種類一覧
Types of Machine Learning — From Classical Methods to Modern Generative AI
1. 機械学習の全体像
機械学習(Machine Learning)は、データからパターンを自動的に学習するアルゴリズムの総称です。学習方法の違いによって大きく3つの基本カテゴリに分類され、さらに深層学習がこれらを横断する形で発展しています。
なぜ「種類」を知ることが重要か
問題の性質に合った学習手法を選ぶことが、機械学習プロジェクト成功の第一歩です。正解ラベルがあるのか、データの構造を把握したいのか、逐次的な意思決定が必要なのか — この判断が手法選択の出発点になります。
2. 教師あり学習(Supervised Learning)
入力 $x$ と正解ラベル $y$ のペアから、入力から出力への写像 $f: x \mapsto y$ を学習します。最も実用例が多い学習パラダイムです。
2.1 回帰(Regression)
出力 $y$ が連続値の場合の予測問題です。
| 手法 | 概要 | 適用例 |
|---|---|---|
| 線形回帰 | $y = w^\top x + b$ で直線的な関係をモデル化 | 住宅価格予測、売上予測 |
| Ridge / Lasso | 正則化付き線形回帰($L_2$ / $L_1$) | 多変量の高次元データ |
| 決定木回帰 | 条件分岐で値を予測 | 解釈性が求められる場面 |
| ランダムフォレスト | 複数の決定木のアンサンブル | 表形式データ全般 |
| 勾配ブースティング (XGBoost, LightGBM) |
弱学習器を逐次的に追加 | Kaggle 等のコンペで上位常連 |
| ニューラルネット回帰 | 多層パーセプトロンで非線形関係を学習 | 大規模・複雑なデータ |
2.2 分類(Classification)
出力 $y$ が離散的なクラスの場合の予測問題です。
| 手法 | 概要 | 適用例 |
|---|---|---|
| ロジスティック回帰 | シグモイド関数で確率を出力 $P(y=1|x) = \sigma(w^\top x + b)$ | スパム判定、信用スコア |
| サポートベクターマシン (SVM) | マージン最大化、カーネルトリック | テキスト分類、小〜中規模データ |
| k近傍法 (kNN) | 距離の近い $k$ 個の多数決 | レコメンド、異常検知 |
| ナイーブベイズ | ベイズの定理 + 特徴量独立仮定 | テキスト分類、高速な推論 |
| ランダムフォレスト / GBDT | アンサンブル手法(分類版) | 表形式データのデファクト |
| CNN(画像分類) | 畳み込みで空間特徴を抽出 | 画像認識、医療画像 |
3. 教師なし学習(Unsupervised Learning)
正解ラベルのないデータから、隠れた構造やパターンを発見します。
3.1 クラスタリング(Clustering)
データを類似度に基づいてグループに分割します。
| 手法 | 概要 | 特徴 |
|---|---|---|
| k-means | $k$ 個の重心に最も近いクラスタに割当て | 高速、球状クラスタに強い |
| 階層的クラスタリング | デンドログラムで階層構造を可視化 | $k$ を事前に決めなくてよい |
| DBSCAN | 密度ベース、任意の形状に対応 | ノイズ検出が可能 |
| ガウス混合モデル (GMM) | 複数のガウス分布の重ね合わせ | 確率的なクラスタ帰属 |
3.2 次元削減(Dimensionality Reduction)
高次元データを少ない次元に圧縮し、可視化や前処理に使います。
| 手法 | 概要 | 特徴 |
|---|---|---|
| PCA(主成分分析) | 分散最大の方向に射影 | 線形、高速 |
| t-SNE | 局所構造を保存して2-3次元に埋め込み | 可視化向き、非線形 |
| UMAP | t-SNE の高速版、大域構造も保存 | 大規模データにも適用可 |
| オートエンコーダ | ニューラルネットで非線形圧縮 | 柔軟、生成モデルへ拡張可 |
3.3 異常検知(Anomaly Detection)
正常データの分布から逸脱したデータ点を発見します。Isolation Forest、One-Class SVM、オートエンコーダなどが使われます。
詳しく学ぶ
4. 強化学習(Reinforcement Learning)
エージェントが環境と相互作用し、報酬を最大化する行動方策を学習します。試行錯誤を通じた学習であり、囲碁(AlphaGo)やロボット制御で成功を収めています。
| 手法 | 概要 | 適用例 |
|---|---|---|
| Q学習 | 状態-行動の価値関数 $Q(s, a)$ を学習 | 離散的な行動空間 |
| Deep Q-Network (DQN) | Q関数をニューラルネットで近似 | Atari ゲーム |
| 方策勾配法 | 方策 $\pi(a|s)$ を直接最適化 | 連続行動空間 |
| Actor-Critic | 方策(Actor)+ 価値関数(Critic) | ロボット制御 |
| PPO / TRPO | 安定した方策更新 | LLM の RLHF、ロボティクス |
| RLHF | 人間のフィードバックによる強化学習 | ChatGPT 等の LLM の調整 |
5. 深層学習(Deep Learning)
多層のニューラルネットワークを用いた学習手法の総称です。教師あり・教師なし・強化学習のいずれにも適用でき、特に画像・音声・自然言語の分野で従来手法を大きく上回る性能を示しました。
5.1 畳み込みニューラルネットワーク(CNN)
画像の空間的な局所パターン(エッジ、テクスチャ)を階層的に抽出します。
- 代表的アーキテクチャ: LeNet → AlexNet → VGG → ResNet → EfficientNet
- 応用: 画像分類、物体検出(YOLO, Faster R-CNN)、セマンティックセグメンテーション
5.2 再帰型ニューラルネットワーク(RNN)
系列データ(時系列、テキスト)を処理するために、隠れ状態を時間方向に伝播させます。
- LSTM: ゲート機構で長期依存を学習。勾配消失問題を緩和
- GRU: LSTM を簡略化した構造。パラメータ数が少ない
- 応用: 音声認識、機械翻訳(Transformer 登場以前)、時系列予測
5.3 Transformer
Self-Attention 機構により、系列内の任意の位置間の関係を直接計算します。2017 年の「Attention Is All You Need」論文で提案され、現在の深層学習の主流アーキテクチャとなりました。
Self-Attention の計算
入力系列を Query ($Q$), Key ($K$), Value ($V$) に変換し、注意重みを計算します:
$$\text{Attention}(Q, K, V) = \text{softmax}\!\left(\frac{QK^\top}{\sqrt{d_k}}\right)V$$$d_k$ はキーの次元数で、スケーリングにより勾配の安定性を確保します。
- BERT: 双方向エンコーダ。文の理解タスク(QA、分類)に強い
- GPT系: 自己回帰型デコーダ。テキスト生成の基盤
- Vision Transformer (ViT): 画像をパッチに分割して Transformer で処理
詳しく学ぶ
ニューラルネットワーク入門 / CNN / RNN / Transformer
6. 生成モデル(Generative Models)
データの分布を学習し、新しいデータを生成できるモデルです。2022年以降の「生成AI」ブームの中核技術です。
| 手法 | 原理 | 代表的モデル |
|---|---|---|
| GAN (敵対的生成ネットワーク) |
生成器と識別器の競争的学習 | StyleGAN(顔生成)、Pix2Pix |
| VAE (変分オートエンコーダ) |
潜在変数の確率分布を学習。ELBO を最大化 | 画像生成、異常検知 |
| 拡散モデル (Diffusion Models) |
ノイズを段階的に除去して生成 | Stable Diffusion, DALL-E 3, Sora |
| 自己回帰モデル | トークンを1つずつ逐次生成 | GPT-4, Claude, Gemini |
| フローベースモデル | 可逆変換で正確な確率密度を計算 | Glow, RealNVP |
7. 自己教師あり学習(Self-Supervised Learning)
ラベルのないデータから疑似的なタスク(pretext task)を設計し、データ自身を教師信号として汎用的な表現を学習します。大規模言語モデルや Vision Transformer の事前学習で中心的な役割を果たしています。
代表的な手法
| 領域 | 手法 | 疑似タスク |
|---|---|---|
| 自然言語 | マスク言語モデル(BERT) | マスクされた単語を予測 |
| 自然言語 | 次トークン予測(GPT) | 次の単語を予測 |
| 画像 | SimCLR / MoCo | 同一画像の異なる拡張を類似させる(対照学習) |
| 画像 | MAE(Masked Autoencoder) | マスクされた画像パッチを復元 |
| マルチモーダル | CLIP | 画像とテキストの対応を学習 |
詳しく学ぶ
8. 最新動向(2025-2026)
機械学習の分野は急速に発展しています。以下は特に注目されている最新のトピックです。
8.1 大規模言語モデル(LLM)の進化
GPT-4, Claude, Gemini などの大規模言語モデルは、テキストだけでなく画像・音声・動画を統合的に扱うマルチモーダルモデルへと進化しています。
- 長文脈処理: 100万トークン以上のコンテキストウィンドウ
- ツール使用: 外部 API やコード実行との連携(エージェント)
- 推論強化: Chain-of-Thought、テスト時計算スケーリングによる推論能力の向上
8.2 画像・動画生成の高品質化
拡散モデルは画像生成で GAN を凌駕し、動画生成にも進出しています。
- Stable Diffusion 3 / FLUX: Transformer ベースの拡散モデル(DiT)
- 動画生成: Sora 等の長尺動画生成モデル
- 3D 生成: テキストや画像からの 3D オブジェクト生成
8.3 State Space Model(SSM)
Transformer の Self-Attention は系列長の2乗に比例する計算量を要します。Mamba 等の SSM は、線形計算量で長系列を効率的に処理でき、Transformer の代替として注目されています。
8.4 小型モデルと蒸留
大規模モデルの知識を小型モデルに転写する知識蒸留により、スマートフォンやエッジデバイスで動作するモデルの実用化が進んでいます。
- 量子化: モデルの重みを 4bit / 8bit に圧縮
- LoRA / QLoRA: 少パラメータでの効率的ファインチューニング
8.5 AI エージェント
LLM をコアとして、計画立案・ツール使用・記憶を組み合わせた自律的システムが発展しています。コーディング支援、データ分析、研究支援など、複雑なタスクの自動化に応用されています。
詳しく学ぶ
9. 手法比較表
| 学習パラダイム | データ要件 | 代表手法 | 主な応用 |
|---|---|---|---|
| 教師あり学習 | ラベル付きデータ | 線形回帰, SVM, GBDT, CNN | 分類、回帰、物体検出 |
| 教師なし学習 | ラベルなしデータ | k-means, PCA, DBSCAN | クラスタリング、次元削減、異常検知 |
| 強化学習 | 環境との相互作用 | DQN, PPO, Actor-Critic | ゲーム、ロボット制御、LLM 調整 |
| 自己教師あり学習 | 大量のラベルなしデータ | BERT, GPT, MAE, CLIP | 事前学習、基盤モデル |
| 生成モデル | ドメインデータ | GAN, VAE, 拡散モデル, LLM | 画像・テキスト・動画の生成 |
10. 手法の選び方
以下のフローチャートは、問題の性質に応じた手法選択の指針です。
実務上のポイント
- 表形式データ(CSV/データベース): GBDT(XGBoost, LightGBM)がまず第一選択
- 画像: CNN または ViT。転移学習で少ないデータでも高精度に
- テキスト: 事前学習済み LLM のファインチューニングが有効
- 時系列: Transformer ベースのモデル、または古典的な ARIMA + 機械学習のハイブリッド
- まず試すべき: シンプルなベースライン(ロジスティック回帰、ランダムフォレスト)から始め、段階的に複雑な手法へ
11. さらに学ぶために
本ノートでは各手法の詳細を段階的に解説しています。
| レベル | 内容 | リンク |
|---|---|---|
| 入門 | 機械学習の基本概念、3大分類、初めての実装 | 入門コース |
| 初級 | 線形回帰、SVM、決定木、アンサンブル、評価指標 | 初級コース |
| 中級 | ニューラルネット、CNN、RNN、LSTM、フレームワーク | 中級コース |
| 上級 | Attention、Transformer、GAN、拡散モデル、深層強化学習 | 上級コース |
まとめ
- 3大分類: 教師あり学習、教師なし学習、強化学習
- 深層学習は3大分類を横断する手法群。CNN、RNN、Transformer が代表的
- 自己教師あり学習が大規模モデルの事前学習を支え、LLM・ViT の基盤に
- 生成モデル(GAN、VAE、拡散モデル、自己回帰モデル)が画像・テキスト・動画生成を実現
- 最新トレンド: マルチモーダル LLM、SSM(Mamba)、AI エージェント、オンデバイスAI
- 手法選択は問題の種類 × データ量 × 計算資源で決まる