196 términos · 15 categorías

El glosario completo

Todos los términos de IA en inglés (el uso estándar) con definiciones simples.

Conceptos fundamentales

10 términos

Artificial Intelligence (AI)

Disciplina que busca que las máquinas realicen tareas que normalmente requieren inteligencia humana.

Usado en: ch.01, ch.08, ch.10, ch.11, ch.13, ch.19

Machine Learning (ML)

Subcampo de la IA donde un sistema aprende a partir de datos en lugar de ser programado explícitamente.

Deep Learning

ML basado en redes neuronales con múltiples capas.

Narrow AI

IA especializada en una sola tarea (ej. jugar ajedrez).

AGI (Artificial General Intelligence)

IA hipotética capaz de realizar cualquier tarea intelectual humana.

Usado en: ch.16

Superintelligence

IA que superaría ampliamente la inteligencia humana en todos los ámbitos.

Symbolic AI

Enfoque clásico basado en reglas y lógica formal.

Model

Representación matemática aprendida a partir de datos.

Usado en: ch.08, ch.11, ch.13

Inference

Fase en la que un modelo entrenado realiza predicciones.

Training

Fase en la que el modelo aprende a partir de los datos.

Tipos de aprendizaje

10 términos

Supervised Learning

Aprendizaje a partir de datos etiquetados (entrada → salida conocida).

Usado en: ch.08, ch.14

Unsupervised Learning

Aprendizaje sin etiquetas; el modelo descubre estructuras ocultas.

Self-supervised Learning

El modelo genera sus propias etiquetas a partir de los datos.

Usado en: ch.06

Reinforcement Learning

Aprendizaje por ensayo y error mediante recompensas.

Usado en: ch.08

Transfer Learning

Reutilizar un modelo entrenado en una tarea para otra similar.

Few-shot Learning

Aprender a partir de muy pocos ejemplos.

Zero-shot Learning

Resolver una tarea sin haber visto ningún ejemplo durante el entrenamiento.

Meta-learning

«Aprender a aprender» — entrenar un modelo para adaptarse rápidamente a nuevas tareas.

Federated Learning

Entrenamiento distribuido sin centralizar los datos.

Continual Learning

El modelo aprende nuevas tareas sin olvidar las anteriores.

Redes neuronales

16 términos

Neuron / Unit

Unidad de cálculo de una red, inspirada en la neurona biológica.

Layer

Conjunto de neuronas procesadas en paralelo.

Weights

Parámetros que ponderan las conexiones entre neuronas.

Bias

Término constante que se añade a la suma ponderada.

Activation Function

Función no lineal aplicada a la salida de una neurona.

ReLU

Función de activación muy común: max(0, x).

Softmax

Convierte un vector en una distribución de probabilidad.

Usado en: ch.01, ch.04, ch.05, ch.07

Forward Pass

Cálculo de la salida a partir de una entrada.

Backpropagation

Cálculo de los gradientes para actualizar los pesos.

Usado en: ch.06

Loss Function

Medida del error entre la predicción y el valor real.

Usado en: ch.01, ch.06, ch.08

Cross-Entropy Loss

Función de pérdida estándar para clasificación.

Usado en: ch.06, ch.13

Optimizer

Algoritmo que dirige la actualización de los pesos (Adam, SGD, etc.).

Learning Rate

Tamaño de los pasos durante el descenso de gradiente.

Usado en: ch.06

Epoch

Un recorrido completo sobre el conjunto de entrenamiento.

Batch

Subconjunto de datos procesado a la vez.

Usado en: ch.06, ch.18

Arquitecturas

18 términos

Feedforward Network

Red donde la información circula en un solo sentido.

Usado en: ch.04, ch.05

MLP (Multi-Layer Perceptron)

Red feedforward clásica con capas densas.

Usado en: ch.05, ch.15

CNN (Convolutional Neural Network)

Especializada en imágenes mediante filtros convolucionales.

RNN (Recurrent Neural Network)

Procesa secuencias manteniendo un estado interno.

Usado en: ch.04

LSTM

RNN mejorado para memorizar dependencias a largo plazo.

Usado en: ch.04

Multi-Head Attention

Varios mecanismos de atención en paralelo.

Usado en: ch.04, ch.05

Encoder-Decoder

Arquitectura clásica para traducción y generación.

Usado en: ch.15

Positional Encoding

Inyecta el orden de las palabras en un Transformer.

Usado en: ch.05

RoPE

Codificación de posición rotativa moderna, frecuente en LLMs.

Usado en: ch.05

Residual Connection

Conexión que salta capas para estabilizar el entrenamiento.

Usado en: ch.04, ch.05

Layer Normalization

Normalización para estabilizar el entrenamiento.

Usado en: ch.04, ch.05, ch.19

Mixture of Experts (MoE)

Varios sub-modelos especializados activados de forma selectiva.

Usado en: ch.05

Diffusion Model

Modelo generativo que aprende a eliminar ruido de una imagen paso a paso.

GAN (Generative Adversarial Network)

Dos redes en competencia (generador vs. discriminador).

Vision Transformer (ViT)

Transformer aplicado a imágenes.

Usado en: ch.05, ch.09, ch.15

State Space Model / Mamba

Arquitectura alternativa al Transformer para secuencias largas.

Procesamiento del lenguaje

13 términos

NLP

Disciplina del procesamiento del lenguaje natural por máquinas.

Usado en: ch.15

BPE (Byte Pair Encoding)

Algoritmo de tokenización muy utilizado.

Usado en: ch.02

WordPiece / SentencePiece

Otros algoritmos de tokenización.

Usado en: ch.02

Word2Vec

Técnica clásica de embeddings de palabras.

Contextual Embedding

Embedding que depende del contexto de la oración.

Named Entity Recognition

Identificación de entidades (personas, lugares…).

Sentiment Analysis

Detección del tono o sentimiento de un texto.

Speech Recognition (ASR)

Reconocimiento de voz (audio → texto).

Text-to-Speech (TTS)

Síntesis de voz (texto → audio).

Usado en: ch.15

Modelos de lenguaje e IA generativa

33 términos

Language Model

Modelo que predice la probabilidad de una secuencia de palabras.

Usado en: ch.01, ch.02, ch.04, ch.16

Foundation Model

Modelo generalista reutilizable para muchas tareas.

Generative AI

IA capaz de producir contenido (texto, imagen, audio…).

Instruction Tuning

Fine-tuning para seguir instrucciones humanas.

Usado en: ch.08, ch.14

DPO (Direct Preference Optimization)

Alternativa simplificada al RLHF.

Usado en: ch.08, ch.14

Constitutional AI

Método de alineación basado en un conjunto de principios.

Usado en: ch.08

System Prompt

Instrucciones generales dadas al modelo antes de la conversación.

Usado en: ch.09, ch.18

Prompt Engineering

Arte de formular prompts eficaces.

Usado en: ch.12

Chain-of-Thought (CoT)

Incitar al modelo a razonar paso a paso.

Usado en: ch.12, ch.17

Few-shot Prompting

Proporcionar algunos ejemplos dentro del prompt.

In-Context Learning

Capacidad del modelo de aprender a partir de ejemplos incluidos en el prompt.

Usado en: ch.12, ch.20

Temperature

Controla la aleatoriedad de las respuestas (baja = determinista, alta = creativa).

Usado en: ch.01, ch.07, ch.12

Top-k Sampling

Muestreo entre los k tokens más probables.

Usado en: ch.01, ch.07

Top-p / Nucleus Sampling

Muestreo entre un subconjunto que acumula el p% de probabilidad.

Usado en: ch.01, ch.07

Greedy Decoding

Elegir siempre el token más probable.

Usado en: ch.07

Vector Database

Base de datos que almacena y busca embeddings.

Reasoning Model

LLM optimizado para razonar en profundidad antes de responder.

Multimodal Model

Modelo que maneja varios tipos de entrada (texto, imagen, audio…).

Vision-Language Model

Modelo que comprende texto e imagen.

Text-to-Image

Generación de imágenes a partir de texto.

LoRA

Técnica de fine-tuning ligero basada en matrices de bajo rango.

Usado en: ch.14

QLoRA

LoRA combinado con cuantización para ahorrar memoria.

Usado en: ch.14, ch.18

PEFT

Familia de métodos de fine-tuning eficientes en parámetros.

Usado en: ch.14

Agentes y herramientas

8 términos

AI Agent

Sistema de IA que persigue un objetivo mediante múltiples pasos y herramientas.

Tool Use / Function Calling

Capacidad del modelo para llamar a funciones externas.

Usado en: ch.11

ReAct

Patrón que alterna razonamiento y acción.

Usado en: ch.11

Planning

Capacidad de un agente para descomponer un objetivo en sub-tareas.

Usado en: ch.11, ch.21

Multi-Agent System

Varios agentes que colaboran o se coordinan.

MCP (Model Context Protocol)

Protocolo estándar para conectar herramientas a un LLM.

Usado en: ch.11

Computer Use

Capacidad de un agente para usar un ordenador.

Usado en: ch.11

Agentic AI

IA que actúa de forma autónoma en un entorno.

Datos

11 términos

Dataset

Conjunto de datos utilizado para entrenar o evaluar un modelo.

Usado en: ch.08, ch.14, ch.16, ch.21

Training / Validation / Test Set

Datos para entrenar, ajustar y evaluar.

Usado en: ch.06, ch.19

Label / Ground Truth

Respuesta correcta asociada a un ejemplo.

Annotation

Acción de asociar etiquetas a los datos.

Data Augmentation

Generar artificialmente más datos.

Synthetic Data

Datos generados artificialmente, por ejemplo mediante IA.

Feature

Variable de entrada del modelo.

Usado en: ch.20

Feature Engineering

Creación manual de variables relevantes.

One-Hot Encoding

Codificar una categoría como vector binario.

Data Drift

Cambio progresivo de los datos respecto al entrenamiento.

Data Leakage

Filtración de información del conjunto de prueba al de entrenamiento (resultados engañosamente buenos).

Entrenamiento y optimización

13 términos

Hyperparameter

Parámetro fijado antes del entrenamiento (tasa de aprendizaje, tamaño de batch…).

Cross-Validation

Evaluación mediante múltiples divisiones de los datos.

Overfitting

El modelo memoriza los datos de entrenamiento y generaliza mal.

Usado en: ch.06

Underfitting

El modelo es demasiado simple para captar la señal.

Regularization

Técnicas que previenen el sobreajuste.

Usado en: ch.06

Dropout

Desactiva aleatoriamente neuronas durante el entrenamiento.

Early Stopping

Detener el entrenamiento cuando el error de validación vuelve a subir.

Vanishing Gradient

Los gradientes se vuelven demasiado pequeños para entrenar.

Catastrophic Forgetting

El modelo olvida tareas antiguas al aprender nuevas.

Distillation

Transferir el conocimiento de un modelo grande a uno pequeño.

Usado en: ch.21

Pruning

Eliminar pesos innecesarios para aligerar el modelo.

Quantization

Reducir la precisión numérica de los pesos.

Usado en: ch.07, ch.14, ch.18

Evaluación y métricas

11 términos

Accuracy

Porcentaje de predicciones correctas.

Precision

De las predicciones positivas, cuántas son correctas.

Recall

De los positivos reales, cuántos son recuperados.

F1 Score

Media armónica de la precisión y el recall.

Confusion Matrix

Tabla cruzada de predicciones frente a valores reales.

ROC / AUC

Curva y área bajo la curva para evaluar un clasificador.

Perplexity

Medida de incertidumbre de un modelo de lenguaje (menor es mejor).

BLEU / ROUGE

Métricas para traducción y resumen automáticos.

Usado en: ch.01, ch.06

FID

Medida de calidad de las imágenes generadas.

Benchmark

Prueba estandarizada para comparar modelos (MMLU, HumanEval…).

Usado en: ch.16

Red Teaming

Pruebas adversariales para encontrar fallos en un modelo.

Aprendizaje por refuerzo

8 términos

Agent

Entidad que toma decisiones en un entorno.

Usado en: ch.11, ch.18

Environment

Mundo en el que el agente actúa.

Policy

Estrategia del agente (estado → acción).

Q-Learning

Algoritmo de RL basado en la estimación de Q.

PPO

Algoritmo de RL muy utilizado, especialmente en RLHF.

Usado en: ch.08, ch.14

Exploration vs Exploitation

Dilema entre explorar lo nuevo y aprovechar lo conocido.

Reward Hacking

El agente explota la función de recompensa de formas no deseadas.

Usado en: ch.11

Visión por computadora

8 términos

Computer Vision

Área de la IA que procesa imágenes y vídeos.

Image Classification

Asignar una categoría a una imagen.

Object Detection

Localizar y clasificar objetos en una imagen.

Semantic Segmentation

Etiquetar cada píxel con una clase.

OCR

Reconocimiento de texto en una imagen.

YOLO / R-CNN

Modelos clásicos de detección de objetos.

SAM (Segment Anything)

Modelo universal de segmentación.

NeRF

Representación 3D de una escena aprendida a partir de imágenes.

Seguridad, alineación y ética

14 términos

AI Alignment

Lograr que la IA persiga objetivos alineados con los valores humanos.

Usado en: ch.07, ch.08, ch.13, ch.21

AI Safety

Campo de estudio para que la IA sea fiable y segura.

Adversarial Attack

Entrada diseñada para engañar a un modelo.

Jailbreak

Eludir las medidas de seguridad de un LLM.

Usado en: ch.08

Prompt Injection

Inyección maliciosa de instrucciones en un prompt.

Usado en: ch.12

Bias (algorithmic)

Sesgo en los datos o en las predicciones del modelo.

Fairness

Equidad en las decisiones algorítmicas.

Explainability

Capacidad de entender por qué un modelo toma una decisión.

Mechanistic Interpretability

Estudio del funcionamiento interno de las redes neuronales.

Differential Privacy

Método formal de protección de la privacidad.

Deepfake

Contenido falsificado mediante IA.

Misalignment

Desajuste entre los objetivos reales y los aparentes del modelo.

Reward Model

Modelo que predice la calidad de una respuesta según criterios humanos.

Usado en: ch.08, ch.13

AI Governance

Gobernanza y regulación de la IA.

Infraestructura y MLOps

14 términos

TPU

Chip especializado en IA diseñado por Google.

CUDA

Plataforma de cómputo GPU de Nvidia.

FLOPS

Operaciones de punto flotante por segundo.

Usado en: ch.18, ch.19

Distributed Training

Entrenamiento repartido entre varias máquinas.

Data Parallelism

Mismos pesos, datos diferentes en cada GPU.

Model Parallelism

El modelo se divide entre varias GPUs.

PyTorch / TensorFlow / JAX

Principales frameworks de deep learning.

Hugging Face

Plataforma de modelos, datasets y herramientas de ML.

Usado en: ch.14, ch.18

ONNX

Formato estándar para intercambiar modelos entre frameworks.

Edge AI

IA ejecutada en dispositivos embebidos.

Latency

Tiempo de respuesta del modelo.

Usado en: ch.18

Throughput

Número de inferencias por segundo.

MLOps

Prácticas DevOps aplicadas al ML.

Conceptos emergentes

9 términos

Emergent Abilities

Capacidades que aparecen de forma repentina a partir de cierto tamaño de modelo.

Usado en: ch.19

Scaling

Aumentar tamaño, datos o cómputo para mejorar el rendimiento.

Usado en: ch.06, ch.17, ch.19, ch.20

Open Weights

Modelo cuyos pesos están disponibles públicamente.

Frontier Model

Modelo en la vanguardia del estado del arte.

Small Language Model (SLM)

Modelo de lenguaje compacto, optimizado para la eficiencia.

Human-in-the-Loop

Inclusión del ser humano en el bucle de aprendizaje o de decisión.

World Model

Modelo interno de un agente que predice la evolución del entorno.

Embodied AI

IA encarnada en un cuerpo físico (robot).

Model Card

Ficha descriptiva de un modelo (capacidades, limitaciones, sesgos).

Step by Token — Comprendre les LLMs visuellement