Ingeniería de contexto es el diseño y la optimización sistemática de la información proporcionada a un modelo de lenguaje grande (LLM, por sus siglas en inglés) durante la inferencia, con el fin de producir de manera confiable el resultado deseado. Implica estructurar, seleccionar y secuenciar los elementos contextuales como prompts, datos recuperados, memoria, prompts y señales del entorno para que las capas internas del modelo operen en un estado óptimo. A diferencia de la ingeniería de prompts, que se enfoca únicamente en la redacción de los mismos, la ingeniería de contexto considera toda la configuración del contexto: cómo se organiza y entrega el conocimiento relevante, los prompts y el contexto previo para lograr los resultados más efectivos. Actualmente, se utilizan una variedad de técnicas que pueden agruparse en tres áreas: configuración del contexto que abarca tácticas de curación como el uso de prompts del sistema mínimos, ejemplos few-shot canónicos y herramientas eficientes en tokens para acciones decisivas; gestión del contexto para tareas de largo horizonte con ventanas de contexto finitas mediante resumen de contexto, toma de notas estructurada para mantener memorias externas y arquitecturas de subagentes que aíslan y resumen subtareas complejas, y recuperación dinámica de información que depende de la recuperación de contexto justo a tiempo (JIT), donde los agentes cargan datos externos de forma autónoma sólo cuando son inmediatamente relevantes, maximizando la eficiencia y la precisión.