LLMに関するインタラクティブガイド

Step by Token

大規模言語モデルの仕組みを、インタラクティブな可視化で一歩一歩理解する。

目次

21 / 21 · 189 分
III本番環境のモデル
  1. 09

    モデルが覚えていること

    コンテキストウィンドウ:完璧だが有界の記憶。ChatGPTが忘れる理由とそのコスト。

    8 min
  2. 10

    あなたのドキュメントを読む

    LLMが記憶せずに何千ページにもアクセスする方法。埋め込み、セマンティック検索、注入されたコンテキスト。

    9 min
  3. 11

    返答するモデルから行動するモデルへ

    ツール使用、ReActループ、マルチステップタスク。LLMが世界で行動できるエージェントになる方法。

    10 min
  4. 12

    LLMへの語りかけ方の技術

    ゼロショット、フューショット、Chain-of-Thought、自己整合性。プロンプトの書き方がモデルの出力を根本的に変える理由。

    8 min
  5. 13

    なぜLLMは作り出すのか

    キャリブレーション、誤った確信、対策。最も多い批判の裏にある構造的メカニズム — そしてそれに対して何ができるのか。

    9 min
IVさらに深く
  1. 14

    すべてを再訓練せずにモデルを専門化する

    LoRAQLoRASFT。パラメータの0.1%を訓練することで汎用モデルを特定ドメインに適応させる方法。

    9 min
  2. 15

    モデルが画像を読むとき

    パッチ埋め込み、ViT、CLIP。テキストTransformerが画像をトークンのグリッドとして扱うことでマルチモーダルになる方法。

    8 min
  3. 16

    あるモデルが優れているとどうわかるか?

    MMLU、HumanEval、LMSYS Arena。LLMの知性を測定することが難しい理由—そして単一のベンチマークでは不十分な理由。

    8 min
  4. 17

    答える前に考える

    Thinkingトークン、拡張推論、思考予算。o1/o3クラスのモデルが回答前に隠れた思考の連鎖を生成する仕組み。

    9 min
  5. 18

    なぜ2番目のトークンは1番目より速いのか

    KVキャッシュと自己回帰生成。Prefill vs decode、TTFT、そしてキャッシュがすべてを変える理由。

    8 min
  6. 19

    大きいほど良いとは限らない?

    Kaplan と Chinchilla のスケーリング則。なぜ GPT-3 は学習不足だったのか、そしてパラメータあたり20トークンの最適比。

    9 min
  7. 20

    中で実際に何が起きているのか?

    回路、多義性ニューロン、Sparse Autoencoders。Anthropic と DeepMind がブラックボックスをどう開くのか。

    9 min
  8. 21

    ノイズを消して画像を生成する

    Stable Diffusion、DALL-E、Midjourney。逆方向のノイズ除去、CLIP の役割、そしてなぜ U-Net が Transformer に道を譲るのか。

    9 min
Step by Token