Indice

Tutti i capitoli

Dalla tokenizzazione all'allineamento. Ogni capitolo include almeno una visualizzazione interattiva.

IAnatomia di un modello
  1. 01

    Fondamenti

    Predire una parola alla volta

    Cos'è un modello linguistico? Perché predire la parola successiva è sufficiente per far emergere l'intelligenza.

    6 min
  2. 02

    Tokenizzazione

    Dal testo ai token

    Come il testo diventa numeri. BPE, sottoparole, e perché gli LLM faticano a contare le lettere.

    8 min
  3. 03

    Embeddings

    Lo spazio del significato

    Parole in uno spazio geometrico. Re − Uomo + Donna = Regina, e altri miracoli vettoriali.

    10 min
  4. 04

    Attenzione

    L'attenzione è tutto ciò che ti serve

    Il meccanismo che cambia tutto. Come ogni token guarda tutti gli altri per capire il contesto.

    12 min
  5. 05

    Architettura

    Il Transformer completo

    Assemblare i pezzi: attenzione multi-testa, feed-forward, normalizzazione, connessioni residuali.

    14 min
IIAddestrare e allineare
  1. 06

    Addestramento

    Come impara

    Loss, discesa del gradiente, backpropagation. E perché servono miliardi di parametri.

    10 min
  2. 07

    Generazione

    Scegliere la parola successiva

    Temperature, top-k, top-p. L'arte di trasformare una distribuzione di probabilità in testo.

    7 min
  3. 08

    Allineamento

    Dal modello grezzo all'assistente

    Fine-tuning, RLHF, IA costituzionale. Come rendere un LLM utile e innocuo.

    9 min
IIIIl modello in produzione
  1. 09

    Contesto

    Cosa ricorda il modello

    La finestra di contesto: memoria perfetta ma limitata. Perché ChatGPT dimentica e quanto costa.

    8 min
  2. 10

    RAG

    Leggere i tuoi documenti

    Come un LLM accede a migliaia di pagine senza memorizzarle. Embeddings, ricerca semantica, contesto iniettato.

    9 min
  3. 11

    Agenti

    Dal modello che risponde al modello che agisce

    Tool use, ciclo ReAct, compiti multi-step. Come un LLM diventa un agente capace di agire nel mondo.

    10 min
  4. 12

    Prompting

    L'arte di parlare con un LLM

    Zero-shot, few-shot, chain-of-thought, self-consistency. Perché la formulazione di un prompt cambia radicalmente ciò che un modello produce.

    8 min
  5. 13

    Allucinazioni

    Perche gli LLM inventano

    Calibrazione, certezze false, contromisure. Il meccanismo strutturale dietro la critica piu frequente — e cosa si puo fare al riguardo.

    9 min
IVAndare oltre
  1. 14

    Fine-tuning

    Specializzare un modello senza riaddestrare tutto

    LoRA, QLoRA, SFT. Come adattare un modello generalista a un dominio specifico addestrando lo 0,1% dei suoi parametri.

    9 min
  2. 15

    Multimodalità

    Quando il modello legge le immagini

    Patch embedding, ViT, CLIP. Come un Transformer di testo diventa multimodale trattando un'immagine come una griglia di token.

    8 min
  3. 16

    Valutazione

    Come sappiamo che un modello è migliore?

    MMLU, HumanEval, LMSYS Arena. Perché misurare l'intelligenza di un LLM è difficile — e perché nessun benchmark è sufficiente.

    8 min
  4. 17

    Ragionamento

    Pensare prima di rispondere

    Token di pensiero, ragionamento esteso, budget di riflessione. Come i modelli o1/o3 generano una catena di pensiero nascosta prima di rispondere.

    9 min
  5. 18

    Inferenza

    Perché il 2° token è più veloce del 1°

    La KV cache e la generazione autoregressiva. Prefill vs decode, TTFT, e perché la cache cambia tutto.

    8 min
  6. 19

    Scaling

    Più grande è sempre meglio?

    Le leggi di scala di Kaplan e Chinchilla. Perché GPT-3 era sotto-addestrato, e il rapporto ottimo di 20 token per parametro.

    9 min
  7. 20

    Interpretabilità

    Cosa succede davvero dentro?

    Circuiti, neuroni polisemantici, Sparse Autoencoders. Come Anthropic e DeepMind aprono la scatola nera.

    9 min
  8. 21

    Diffusione

    Generare un'immagine cancellando il rumore

    Stable Diffusion, DALL-E, Midjourney. Il processo inverso di denoising, il ruolo di CLIP, e perché U-Net cede il passo ai Transformer.

    9 min
Tutti i capitoli · Step by Token