196 termini · 15 categorie

Il glossario completo

Tutti i termini dell'IA in inglese (l'uso standard) con definizioni semplici.

Concetti fondamentali

10 termini

Artificial Intelligence (AI)

Disciplina che mira a far eseguire alle macchine compiti che normalmente richiedono intelligenza umana.

Usato in: ch.01, ch.08, ch.10, ch.11, ch.13, ch.19

Machine Learning (ML)

Sottocampo dell'IA in cui un sistema impara dai dati invece di essere programmato esplicitamente.

Deep Learning

ML basato su reti neurali con molti strati sovrapposti.

Narrow AI

IA specializzata in un singolo compito (es. giocare a scacchi).

AGI (Artificial General Intelligence)

IA ipotetica capace di svolgere qualsiasi compito intellettuale umano.

Usato in: ch.16

Superintelligence

IA che supererebbe ampiamente l'intelligenza umana in tutti i campi.

Symbolic AI

Approccio classico basato su regole e logica formale.

Model

Rappresentazione matematica appresa dai dati.

Usato in: ch.08, ch.11, ch.13

Inference

Fase in cui un modello addestrato produce previsioni.

Training

Fase in cui il modello apprende dai dati.

Tipi di apprendimento

10 termini

Supervised Learning

Apprendimento su dati etichettati (input → output noto).

Usato in: ch.08, ch.14

Unsupervised Learning

Apprendimento senza etichette; il modello scopre strutture nascoste.

Self-supervised Learning

Il modello genera da solo le proprie etichette a partire dai dati.

Usato in: ch.06

Reinforcement Learning

Apprendimento per tentativi ed errori con ricompense.

Usato in: ch.08

Transfer Learning

Riutilizzare un modello addestrato su un compito per un altro simile.

Few-shot Learning

Apprendere da pochissimi esempi.

Zero-shot Learning

Riuscire in un compito senza aver visto alcun esempio durante l'addestramento.

Meta-learning

«Imparare ad imparare» — addestrare un modello ad adattarsi rapidamente a nuovi compiti.

Federated Learning

Addestramento distribuito senza centralizzare i dati.

Continual Learning

Il modello apprende nuovi compiti senza dimenticare quelli precedenti.

Reti neurali

16 termini

Neuron / Unit

Unità di calcolo di una rete, ispirata al neurone biologico.

Layer

Insieme di neuroni elaborati in parallelo.

Weights

Parametri che pesano le connessioni tra neuroni.

Bias

Termine costante aggiunto alla somma ponderata.

Activation Function

Funzione non lineare applicata all'uscita di un neurone.

ReLU

Funzione di attivazione molto comune: max(0, x).

Softmax

Trasforma un vettore in una distribuzione di probabilità.

Usato in: ch.01, ch.04, ch.05, ch.07

Forward Pass

Calcolo dell'uscita a partire da un input.

Backpropagation

Calcolo dei gradienti per aggiornare i pesi.

Usato in: ch.06

Loss Function

Misura dell'errore tra previsione e valore reale.

Usato in: ch.01, ch.06, ch.08

Cross-Entropy Loss

Funzione di perdita standard per la classificazione.

Usato in: ch.06, ch.13

Optimizer

Algoritmo che guida l'aggiornamento dei pesi (Adam, SGD, ecc.).

Learning Rate

Ampiezza dei passi durante la discesa del gradiente.

Usato in: ch.06

Epoch

Un passaggio completo sul set di addestramento.

Batch

Sottoinsieme di dati elaborato insieme.

Usato in: ch.06, ch.18

Architetture

18 termini

Feedforward Network

Rete in cui le informazioni scorrono in un unico senso.

Usato in: ch.04, ch.05

MLP (Multi-Layer Perceptron)

Rete feedforward classica con strati densi.

Usato in: ch.05, ch.15

CNN (Convolutional Neural Network)

Specializzata per le immagini tramite filtri convoluzionali.

RNN (Recurrent Neural Network)

Elabora sequenze mantenendo uno stato interno.

Usato in: ch.04

LSTM

RNN migliorata per memorizzare informazioni a lungo termine.

Usato in: ch.04

Multi-Head Attention

Più meccanismi di attenzione eseguiti in parallelo.

Usato in: ch.04, ch.05

Encoder-Decoder

Architettura classica per traduzione e generazione di testo.

Usato in: ch.15

Positional Encoding

Incorpora l'ordine delle parole in un Transformer.

Usato in: ch.05

RoPE

Codifica di posizione rotazionale moderna, comune nei LLM.

Usato in: ch.05

Residual Connection

Collegamento che salta alcuni strati per stabilizzare l'addestramento.

Usato in: ch.04, ch.05

Layer Normalization

Normalizzazione per stabilizzare l'addestramento.

Usato in: ch.04, ch.05, ch.19

Mixture of Experts (MoE)

Più sotto-modelli specializzati attivati selettivamente.

Usato in: ch.05

Diffusion Model

Modello generativo che impara a de-rumorare un'immagine passo dopo passo.

GAN (Generative Adversarial Network)

Due reti in competizione (generatore vs discriminatore).

Vision Transformer (ViT)

Transformer applicato alle immagini.

Usato in: ch.05, ch.09, ch.15

State Space Model / Mamba

Architettura alternativa al Transformer per sequenze lunghe.

Elaborazione del linguaggio

13 termini

NLP

Disciplina che studia l'elaborazione del linguaggio naturale da parte delle macchine.

Usato in: ch.15

BPE (Byte Pair Encoding)

Algoritmo di tokenizzazione molto diffuso.

Usato in: ch.02

WordPiece / SentencePiece

Altri algoritmi di tokenizzazione.

Usato in: ch.02

Word2Vec

Tecnica classica per generare embedding di parole.

Contextual Embedding

Embedding che dipende dal contesto della frase.

Named Entity Recognition

Identificazione di entità nel testo (persone, luoghi…).

Sentiment Analysis

Rilevamento del tono emotivo di un testo.

Speech Recognition (ASR)

Riconoscimento vocale (audio → testo).

Text-to-Speech (TTS)

Sintesi vocale (testo → audio).

Usato in: ch.15

Modelli linguistici e IA generativa

33 termini

Language Model

Modello che stima la probabilità di una sequenza di parole.

Usato in: ch.01, ch.02, ch.04, ch.16

Foundation Model

Modello generalista riutilizzabile per numerosi compiti.

Generative AI

IA capace di produrre contenuti (testo, immagine, audio…).

Instruction Tuning

Fine-tuning per seguire istruzioni in linguaggio naturale.

Usato in: ch.08, ch.14

DPO (Direct Preference Optimization)

Alternativa semplificata all'RLHF.

Usato in: ch.08, ch.14

Constitutional AI

Metodo di allineamento basato su un insieme di principi.

Usato in: ch.08

System Prompt

Istruzioni generali fornite al modello prima dell'interazione.

Usato in: ch.09, ch.18

Prompt Engineering

Arte di formulare prompt efficaci.

Usato in: ch.12

Chain-of-Thought (CoT)

Tecnica per indurre il modello a ragionare passo dopo passo.

Usato in: ch.12, ch.17

Few-shot Prompting

Inserire alcuni esempi direttamente nel prompt.

In-Context Learning

Capacità del modello di apprendere dagli esempi presenti nel prompt.

Usato in: ch.12, ch.20

Temperature

Controlla la casualità delle risposte (bassa = deterministica, alta = creativa).

Usato in: ch.01, ch.07, ch.12

Top-k Sampling

Campionamento tra i k token più probabili.

Usato in: ch.01, ch.07

Top-p / Nucleus Sampling

Campionamento da un sottoinsieme che cumula il p% di probabilità.

Usato in: ch.01, ch.07

Greedy Decoding

Scegliere sempre il token più probabile.

Usato in: ch.07

Vector Database

Database che archivia e interroga embedding vettoriali.

Reasoning Model

LLM ottimizzato per ragionare a lungo prima di rispondere.

Multimodal Model

Modello che gestisce più tipi di input (testo, immagine, audio…).

Vision-Language Model

Modello che comprende testo e immagini insieme.

Text-to-Image

Generazione di un'immagine a partire da un testo.

LoRA

Tecnica di fine-tuning leggero basata su matrici a basso rango.

Usato in: ch.14

QLoRA

LoRA combinato alla quantizzazione per ridurre l'uso di memoria.

Usato in: ch.14, ch.18

PEFT

Famiglia di metodi di fine-tuning efficienti in termini di parametri.

Usato in: ch.14

Agenti e strumenti

8 termini

AI Agent

Sistema IA che persegue un obiettivo attraverso più passi e strumenti.

Tool Use / Function Calling

Capacità del modello di chiamare funzioni esterne.

Usato in: ch.11

ReAct

Pattern che alterna ragionamento e azione.

Usato in: ch.11

Planning

Capacità di un agente di scomporre un obiettivo in sotto-compiti.

Usato in: ch.11, ch.21

Multi-Agent System

Più agenti che collaborano o si coordinano.

MCP (Model Context Protocol)

Protocollo standard per connettere strumenti a un LLM.

Usato in: ch.11

Computer Use

Capacità di un agente di utilizzare un computer.

Usato in: ch.11

Agentic AI

IA che agisce autonomamente in un ambiente.

Dati

11 termini

Dataset

Insieme di dati usato per addestrare o testare un modello.

Usato in: ch.08, ch.14, ch.16, ch.21

Training / Validation / Test Set

Dati per addestrare, ottimizzare e valutare il modello.

Usato in: ch.06, ch.19

Label / Ground Truth

Risposta corretta associata a un esempio.

Annotation

Processo di assegnazione di etichette ai dati.

Data Augmentation

Generazione artificiale di ulteriori dati di addestramento.

Synthetic Data

Dati generati artificialmente, ad esempio tramite IA.

Feature

Variabile di input del modello.

Usato in: ch.20

Feature Engineering

Creazione manuale di variabili rilevanti per il modello.

One-Hot Encoding

Rappresentare una categoria come vettore binario.

Data Drift

Cambiamento progressivo dei dati rispetto a quelli di addestramento.

Data Leakage

Fuga di informazioni dal set di test verso quello di addestramento (risultati falsamente buoni).

Addestramento e ottimizzazione

13 termini

Hyperparameter

Parametro fissato prima dell'addestramento (tasso di apprendimento, dimensione del batch…).

Cross-Validation

Valutazione tramite multiple suddivisioni dei dati.

Overfitting

Il modello memorizza i dati di addestramento e generalizza male.

Usato in: ch.06

Underfitting

Il modello è troppo semplice per cogliere il segnale nei dati.

Regularization

Tecniche che prevengono il sovra-adattamento.

Usato in: ch.06

Dropout

Disattiva casualmente alcuni neuroni durante l'addestramento.

Early Stopping

Interrompere l'addestramento quando l'errore di validazione smette di migliorare.

Vanishing Gradient

I gradienti diventano troppo piccoli per aggiornare i pesi.

Catastrophic Forgetting

Il modello dimentica compiti precedenti mentre ne apprende di nuovi.

Distillation

Trasferire la conoscenza di un modello grande a uno piccolo.

Usato in: ch.21

Pruning

Eliminare pesi superflui per alleggerire il modello.

Quantization

Ridurre la precisione numerica dei pesi per risparmiare memoria.

Usato in: ch.07, ch.14, ch.18

Valutazione e metriche

11 termini

Accuracy

Percentuale di previsioni corrette.

Precision

Tra le previsioni positive, quante sono effettivamente corrette.

Recall

Tra i veri positivi, quanti vengono effettivamente rilevati.

F1 Score

Media armonica di precisione e richiamo.

Confusion Matrix

Tabella incrociata tra previsioni e valori reali.

ROC / AUC

Curva e area sotto la curva per valutare un classificatore.

Perplexity

Misura dell'incertezza di un modello linguistico (più bassa è, meglio è).

BLEU / ROUGE

Metriche per traduzione automatica e riassunto.

Usato in: ch.01, ch.06

FID

Misura della qualità delle immagini generate.

Benchmark

Test standardizzato per confrontare i modelli (MMLU, HumanEval…).

Usato in: ch.16

Red Teaming

Test avversariali per scoprire i punti deboli di un modello.

Apprendimento per rinforzo

8 termini

Agent

Entità che prende decisioni in un ambiente.

Usato in: ch.11, ch.18

Environment

Mondo in cui l'agente opera.

Policy

Strategia dell'agente (stato → azione).

Q-Learning

Algoritmo di RL basato sulla stima della funzione Q.

PPO

Algoritmo RL molto utilizzato, anche nell'RLHF.

Usato in: ch.08, ch.14

Exploration vs Exploitation

Dilemma tra esplorare il nuovo e sfruttare ciò che si conosce.

Reward Hacking

L'agente sfrutta la funzione di ricompensa in modo non previsto.

Usato in: ch.11

Visione artificiale

8 termini

Computer Vision

Campo dell'IA che elabora immagini e video.

Image Classification

Assegnare una categoria a un'immagine.

Object Detection

Localizzare e classificare oggetti in un'immagine.

Semantic Segmentation

Etichettare ogni pixel di un'immagine con una classe.

OCR

Riconoscimento del testo in un'immagine.

YOLO / R-CNN

Modelli classici per il rilevamento di oggetti.

SAM (Segment Anything)

Modello universale di segmentazione.

NeRF

Rappresentazione 3D di una scena appresa da immagini.

Sicurezza, allineamento ed etica

14 termini

AI Alignment

Far sì che l'IA persegua obiettivi coerenti con i valori umani.

Usato in: ch.07, ch.08, ch.13, ch.21

AI Safety

Campo di studio volto a rendere l'IA affidabile e sicura.

Adversarial Attack

Input progettato per ingannare un modello.

Jailbreak

Aggirare i meccanismi di sicurezza di un LLM.

Usato in: ch.08

Prompt Injection

Iniezione malevola di istruzioni in un prompt.

Usato in: ch.12

Bias (algorithmic)

Distorsione nei dati o nelle previsioni del modello.

Fairness

Equità nelle decisioni algoritmiche.

Explainability

Capacità di comprendere perché un modello prende una decisione.

Mechanistic Interpretability

Studio del funzionamento interno delle reti neurali.

Differential Privacy

Metodo formale di protezione della privacy dei dati.

Deepfake

Contenuto falsificato tramite IA.

Misalignment

Divario tra gli obiettivi reali e quelli apparenti del modello.

Reward Model

Modello che prevede la qualità di una risposta secondo giudici umani.

Usato in: ch.08, ch.13

AI Governance

Governance e regolamentazione dell'IA.

Infrastruttura e MLOps

14 termini

TPU

Chip specializzato per l'IA progettato da Google.

CUDA

Piattaforma di calcolo GPU di Nvidia.

FLOPS

Operazioni in virgola mobile al secondo.

Usato in: ch.18, ch.19

Distributed Training

Addestramento distribuito su più macchine.

Data Parallelism

Stessi pesi, dati diversi su ciascuna GPU.

Model Parallelism

Il modello è suddiviso su più GPU.

PyTorch / TensorFlow / JAX

Principali framework di deep learning.

Hugging Face

Piattaforma di modelli, dataset e strumenti ML.

Usato in: ch.14, ch.18

ONNX

Formato standard per lo scambio di modelli tra framework.

Edge AI

IA eseguita su dispositivi embedded.

Latency

Tempo di risposta del modello.

Usato in: ch.18

Throughput

Numero di inferenze al secondo.

MLOps

Pratiche DevOps applicate al machine learning.

Concetti emergenti

9 termini

Emergent Abilities

Capacità che compaiono improvvisamente oltre una certa dimensione del modello.

Usato in: ch.19

Scaling

Aumentare dimensione, dati o calcolo per migliorare le prestazioni.

Usato in: ch.06, ch.17, ch.19, ch.20

Open Weights

Modello i cui pesi sono pubblicamente disponibili.

Frontier Model

Modello all'avanguardia nello stato dell'arte.

Small Language Model (SLM)

Modello linguistico compatto, ottimizzato per l'efficienza.

Human-in-the-Loop

Inclusione dell'essere umano nel ciclo di apprendimento o di decisione.

World Model

Modello interno di un agente che prevede l'evoluzione dell'ambiente.

Embodied AI

IA incorporata in un corpo fisico (robot).

Model Card

Scheda descrittiva di un modello (capacità, limiti, bias).

Step by Token — Comprendre les LLMs visuellement