196 用語 · 15 カテゴリ

完全な用語集

すべてのAI用語(英語標準用法)とシンプルな定義。

基本概念

10 用語

Artificial Intelligence (AI)

人間の知性を必要とするタスクを機械に実行させることを目指す学問領域。

使用箇所: ch.01, ch.08, ch.10, ch.11, ch.13, ch.19

Machine Learning (ML)

明示的にプログラムするのではなく、データから学習するAIのサブ分野。

Deep Learning

複数の層を持つニューラルネットワークを用いた機械学習の手法。

Narrow AI

チェスのプレイなど、特定の一つのタスクに特化したAI。

AGI (Artificial General Intelligence)

人間と同様に、あらゆる知的タスクをこなせると仮定される汎用AI。

使用箇所: ch.16

Superintelligence

あらゆる領域で人間の知性をはるかに超えると仮定されるAI。

Symbolic AI

ルールと形式論理に基づく古典的なAIのアプローチ。

Model

データから学習した数学的な表現。

使用箇所: ch.08, ch.11, ch.13

Inference

学習済みモデルが予測を行うフェーズ。

Training

モデルがデータから学習するフェーズ。

学習の種類

10 用語

Supervised Learning

入力と正解ラベルのペアを使って学習する手法。

使用箇所: ch.08, ch.14

Unsupervised Learning

ラベルなしデータから隠れた構造を見つける学習手法。

Self-supervised Learning

モデルがデータ自身からラベルを自動生成して学習する手法。

使用箇所: ch.06

Reinforcement Learning

試行錯誤と報酬を通じて学習する手法。

使用箇所: ch.08

Transfer Learning

あるタスクで学習済みのモデルを別の類似タスクに転用する手法。

Few-shot Learning

ごく少数のサンプルから学習する手法。

Zero-shot Learning

学習時にサンプルを見ることなく、未知のタスクをこなす能力。

Meta-learning

新しいタスクに素早く適応できるよう、モデルを訓練する「学習する方法を学ぶ」手法。

Federated Learning

データを中央サーバに集めず、分散した環境でモデルを学習する手法。

Continual Learning

以前に学んだタスクを忘れずに、新しいタスクを継続的に学習する手法。

ニューラルネットワーク

16 用語

Neuron / Unit

生物のニューロンに着想を得た、ネットワークの基本演算ユニット。

Layer

並列に処理されるニューロンの集合。

Weights

ニューロン間の接続を重み付けするパラメータ。

Bias

重み付き和に加えられる定数項。

Activation Function

ニューロンの出力に適用される非線形関数。

ReLU

最も広く使われる活性化関数の一つ。max(0, x) を計算する。

Softmax

ベクトルを確率分布に変換する関数。

使用箇所: ch.01, ch.04, ch.05, ch.07

Forward Pass

入力から出力を計算する前向きの処理。

Backpropagation

重みを更新するための勾配を計算するアルゴリズム。

使用箇所: ch.06

Loss Function

予測と正解の間の誤差を測る関数。

使用箇所: ch.01, ch.06, ch.08

Cross-Entropy Loss

分類タスクで標準的に使われる損失関数。

使用箇所: ch.06, ch.13

Optimizer

重みの更新を制御するアルゴリズム(Adam、SGD など)。

Learning Rate

勾配降下法における更新ステップの大きさ。

使用箇所: ch.06

Epoch

トレーニングデータセット全体を一度処理すること。

Batch

まとめて処理されるデータのサブセット。

使用箇所: ch.06, ch.18

アーキテクチャ

18 用語

Feedforward Network

情報が一方向にのみ流れるネットワーク。

使用箇所: ch.04, ch.05

MLP (Multi-Layer Perceptron)

全結合層を持つ古典的なフィードフォワードネットワーク。

使用箇所: ch.05, ch.15

CNN (Convolutional Neural Network)

畳み込みフィルタを使って画像処理に特化したネットワーク。

RNN (Recurrent Neural Network)

内部状態を保持しながらシーケンスを処理するネットワーク。

使用箇所: ch.04

LSTM

長期的な依存関係を記憶できるよう改良されたRNN。

使用箇所: ch.04

Multi-Head Attention

複数のアテンション機構を並列に実行する手法。

使用箇所: ch.04, ch.05

Encoder-Decoder

翻訳や生成タスクで使われる古典的なアーキテクチャ。

使用箇所: ch.15

Positional Encoding

トランスフォーマーに単語の順序情報を与える手法。

使用箇所: ch.05

RoPE

現代のLLMで広く使われる回転式位置エンコーディング。

使用箇所: ch.05

Residual Connection

学習を安定させるために、いくつかの層をスキップして接続するショートカット。

使用箇所: ch.04, ch.05

Layer Normalization

学習を安定させるための正規化手法。

使用箇所: ch.04, ch.05, ch.19

Mixture of Experts (MoE)

複数の特化したサブモデルを選択的に活性化するアーキテクチャ。

使用箇所: ch.05

Diffusion Model

段階的にノイズを除去しながら画像を生成する生成モデル。

GAN (Generative Adversarial Network)

生成器と識別器の2つのネットワークが競い合う生成モデル。

Vision Transformer (ViT)

画像に適用されたトランスフォーマーアーキテクチャ。

使用箇所: ch.05, ch.09, ch.15

State Space Model / Mamba

長いシーケンス処理においてトランスフォーマーの代替となるアーキテクチャ。

自然言語処理

13 用語

NLP

機械による言語処理を扱う学問領域。

使用箇所: ch.15

Tokenization

テキストをトークンと呼ばれる単位に分割する処理。

使用箇所: ch.01, ch.02, ch.08, ch.15

BPE (Byte Pair Encoding)

広く使われているトークナイゼーションアルゴリズム。

使用箇所: ch.02

WordPiece / SentencePiece

他の代表的なトークナイゼーションアルゴリズム。

使用箇所: ch.02

Word2Vec

単語のエンベディングを生成する古典的な手法。

Contextual Embedding

文脈に応じて変化するエンベディング。

Named Entity Recognition

テキスト中の人名や地名などのエンティティを識別する処理。

Sentiment Analysis

テキストの感情的なトーンを検出する処理。

Speech Recognition (ASR)

音声をテキストに変換する技術。

Text-to-Speech (TTS)

テキストを音声に変換する技術。

使用箇所: ch.15

言語モデルと生成AI

33 用語

Language Model

単語の連なりが現れる確率をモデル化するモデル。

使用箇所: ch.01, ch.02, ch.04, ch.16

Foundation Model

多様なタスクに再利用できる汎用的な大規模モデル。

Generative AI

テキスト、画像、音声などのコンテンツを生成できるAI。

Instruction Tuning

人間の指示に従えるようにファインチューニングする手法。

使用箇所: ch.08, ch.14

RLHF

人間のフィードバックを用いてモデルを改善する強化学習手法。

使用箇所: ch.01, ch.08, ch.13, ch.14, ch.20

DPO (Direct Preference Optimization)

RLHFを簡略化した代替アライメント手法。

使用箇所: ch.08, ch.14

Constitutional AI

一連の原則に基づいてモデルをアライメントする手法。

使用箇所: ch.08

System Prompt

会話開始前にモデルに与える全般的な指示。

使用箇所: ch.09, ch.18

Prompt Engineering

効果的なプロンプトを設計する技術。

使用箇所: ch.12

Chain-of-Thought (CoT)

モデルに段階的に推論させるよう促す手法。

使用箇所: ch.12, ch.17

Few-shot Prompting

プロンプト内にいくつかの例を含める手法。

In-Context Learning

プロンプト内の例からモデルが学習する能力。

使用箇所: ch.12, ch.20

Temperature

応答のランダム性を制御するパラメータ(低いほど決定的、高いほど創造的)。

使用箇所: ch.01, ch.07, ch.12

Top-k Sampling

確率の高い上位kトークンの中からサンプリングする手法。

使用箇所: ch.01, ch.07

Top-p / Nucleus Sampling

累積確率がp%に達するトークン群からサンプリングする手法。

使用箇所: ch.01, ch.07

Greedy Decoding

常に最も確率の高いトークンを選ぶデコーディング手法。

使用箇所: ch.07

Hallucination

モデルが事実ではないが、もっともらしい情報を生成してしまう現象。

使用箇所: ch.08, ch.10, ch.11, ch.13, ch.17

RAG (Retrieval-Augmented Generation)

モデルが回答前に外部ドキュメントを検索して参照する手法。

使用箇所: ch.01, ch.03, ch.08, ch.10, ch.11, ch.13, ch.14

Vector Database

エンベディングを保存・検索するためのデータベース。

Reasoning Model

回答前に長い推論を行うよう最適化されたLLM。

Multimodal Model

テキスト、画像、音声など複数の入力形式を扱えるモデル。

Vision-Language Model

テキストと画像の両方を理解するモデル。

Text-to-Image

テキストから画像を生成する技術。

LoRA

低ランク行列を使った軽量なファインチューニング手法。

使用箇所: ch.14

QLoRA

メモリ効率を高めるためにLoRAと量子化を組み合わせた手法。

使用箇所: ch.14, ch.18

PEFT

パラメータ効率の良いファインチューニング手法の総称。

使用箇所: ch.14

エージェントとツール

8 用語

AI Agent

複数のステップとツールを通じて目標を達成するAIシステム。

Tool Use / Function Calling

モデルが外部の関数やAPIを呼び出す能力。

使用箇所: ch.11

ReAct

推論とアクションを交互に繰り返すエージェントのパターン。

使用箇所: ch.11

Planning

エージェントが目標をサブタスクに分解する能力。

使用箇所: ch.11, ch.21

Multi-Agent System

複数のエージェントが協力・連携するシステム。

MCP (Model Context Protocol)

LLMにツールを接続するための標準プロトコル。

使用箇所: ch.11

Computer Use

エージェントがコンピュータを操作する能力。

使用箇所: ch.11

Agentic AI

環境の中で自律的に行動するAI。

データ

11 用語

Dataset

モデルの学習や評価に使用するデータの集合。

使用箇所: ch.08, ch.14, ch.16, ch.21

Training / Validation / Test Set

学習・調整・評価にそれぞれ使われるデータ分割。

使用箇所: ch.06, ch.19

Label / Ground Truth

各サンプルに対応する正解データ。

Annotation

データに正解ラベルを付与する作業。

Data Augmentation

既存データを変換して人工的にデータを増やす手法。

Synthetic Data

AIなどによって人工的に生成されたデータ。

Feature

モデルへの入力変数。

使用箇所: ch.20

Feature Engineering

有用な特徴量を手動で設計・作成すること。

One-Hot Encoding

カテゴリをバイナリベクトルで表現するエンコーディング手法。

Data Drift

運用データが学習時のデータから徐々に乖離していく現象。

Data Leakage

テストデータの情報が学習に漏れ込み、評価結果が実態より良く見える問題。

学習と最適化

13 用語

Hyperparameter

学習率やバッチサイズなど、学習前に設定するパラメータ。

Cross-Validation

データを複数に分割して繰り返し評価するモデル検証手法。

Overfitting

モデルが学習データを記憶しすぎて、未知のデータに対する汎化性能が低下する現象。

使用箇所: ch.06

Underfitting

モデルが単純すぎてデータのパターンを捉えられない状態。

Regularization

過学習を防ぐための各種テクニック。

使用箇所: ch.06

Dropout

学習中にランダムにニューロンを無効化する正則化手法。

Early Stopping

検証誤差が悪化し始めたら学習を早期に終了する手法。

Vanishing Gradient

勾配が小さくなりすぎてモデルが学習できなくなる問題。

Catastrophic Forgetting

新しいタスクを学習するときに以前のタスクの知識を忘れてしまう問題。

Distillation

大きなモデルの知識を小さなモデルに転移させる手法。

使用箇所: ch.21

Pruning

不要な重みを削除してモデルを軽量化する手法。

Quantization

重みの数値精度を下げてモデルを圧縮する手法。

使用箇所: ch.07, ch.14, ch.18

Scaling Laws

モデルのサイズ、データ量、計算量と性能の関係を表す経験則。

使用箇所: ch.01, ch.06, ch.08, ch.17, ch.19, ch.21

評価と指標

11 用語

Accuracy

正しく予測できたサンプルの割合。

Precision

正と予測したサンプルのうち、実際に正であった割合。

Recall

実際に正であるサンプルのうち、正と予測できた割合。

F1 Score

適合率と再現率の調和平均。

Confusion Matrix

予測結果と正解を対比した表形式の評価指標。

ROC / AUC

分類器の性能を評価するための曲線とその下の面積。

Perplexity

言語モデルの不確かさを示す指標(低いほど良い)。

BLEU / ROUGE

機械翻訳や自動要約の品質を評価する指標。

使用箇所: ch.01, ch.06

FID

生成画像の品質を測定する指標。

Benchmark

モデルを比較するための標準化されたテスト(MMLU、HumanEval など)。

使用箇所: ch.16

Red Teaming

モデルの弱点を発見するために行う敵対的テスト。

強化学習

8 用語

Agent

環境の中で意思決定を行うエンティティ。

使用箇所: ch.11, ch.18

Environment

エージェントが行動する世界。

Policy

エージェントの戦略(状態 → 行動の対応)。

Q-Learning

Q値の推定に基づく強化学習アルゴリズム。

PPO

RLHFでも広く使われる代表的な強化学習アルゴリズム。

使用箇所: ch.08, ch.14

Exploration vs Exploitation

新しい行動を試すことと、既知の良い行動を活用することのジレンマ。

Reward Hacking

エージェントが意図しない方法で報酬関数を悪用する現象。

使用箇所: ch.11

コンピュータビジョン

8 用語

Computer Vision

画像や映像を扱うAIの分野。

Image Classification

画像にカテゴリを割り当てるタスク。

Object Detection

画像内の物体を位置特定し分類するタスク。

Semantic Segmentation

画像の各ピクセルにクラスラベルを付与するタスク。

OCR

画像内のテキストを認識する技術。

YOLO / R-CNN

代表的な物体検出モデル。

SAM (Segment Anything)

汎用的な画像セグメンテーションモデル。

NeRF

複数の画像からシーンの3D表現を学習する手法。

安全性・アライメント・倫理

14 用語

AI Alignment

AIが人間の価値観と一致した目標を追求するようにすること。

使用箇所: ch.07, ch.08, ch.13, ch.21

AI Safety

AIを信頼性が高く安全にすることを目指す研究分野。

Adversarial Attack

モデルを騙すように設計された悪意ある入力。

Jailbreak

LLMの安全制限を迂回しようとする試み。

使用箇所: ch.08

Prompt Injection

プロンプトに悪意ある指示を埋め込む攻撃手法。

使用箇所: ch.12

Bias (algorithmic)

データまたはモデルの予測に含まれる偏り。

Fairness

アルゴリズムによる意思決定における公平性。

Explainability

モデルがなぜその判断を下したかを理解できる能力。

Mechanistic Interpretability

ニューラルネットワークの内部動作を詳細に研究する分野。

Differential Privacy

個人情報を数学的に保護するプライバシー手法。

Deepfake

AIによって生成・改ざんされたコンテンツ。

Misalignment

モデルの実際の目標と意図された目標のずれ。

Reward Model

人間の評価を基に応答の品質を予測するモデル。

使用箇所: ch.08, ch.13

AI Governance

AIの統治と規制のための枠組み。

インフラとMLOps

14 用語

TPU

Googleが設計したAI専用のチップ。

CUDA

NvidiaのGPU向け並列計算プラットフォーム。

FLOPS

1秒あたりの浮動小数点演算回数を示す指標。

使用箇所: ch.18, ch.19

Distributed Training

複数のマシンに分散してモデルを学習する手法。

Data Parallelism

同じ重みを使いながら、各GPUで異なるデータを処理する並列化手法。

Model Parallelism

モデルを複数のGPUに分割して学習する並列化手法。

PyTorch / TensorFlow / JAX

主要なディープラーニングフレームワーク。

Hugging Face

モデル、データセット、MLツールを提供するプラットフォーム。

使用箇所: ch.14, ch.18

ONNX

フレームワーク間でモデルを交換するための標準フォーマット。

Edge AI

組み込みデバイス上で直接実行されるAI。

Latency

モデルが応答を返すまでの時間。

使用箇所: ch.18

Throughput

1秒あたりに処理できる推論の数。

MLOps

機械学習に適用されたDevOpsの実践手法。

新興概念

9 用語

Emergent Abilities

モデルが一定の規模に達したときに突然現れる予期しない能力。

使用箇所: ch.19

Scaling

モデルサイズ、データ量、計算量を増やしてより良い性能を得ること。

使用箇所: ch.06, ch.17, ch.19, ch.20

Open Weights

重みが公開されているモデル。

Frontier Model

最先端の性能を持つモデル。

Small Language Model (SLM)

効率性を重視した小型の言語モデル。

Human-in-the-Loop

学習や意思決定のループに人間を組み込む設計。

World Model

エージェントが環境の変化を予測するために持つ内部モデル。

Embodied AI

物理的なロボットなどに搭載されたAI。

Model Card

モデルの能力、限界、バイアスを記載した説明書。

Step by Token — Comprendre les LLMs visuellement