Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Nov 05, 2025
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Nov 2025
Assess ?

OpenInference es un conjunto de convenciones y complementos; es complementario a OpenTelemetry y está diseñado para observar aplicaciones de IA. Proporciona instrumentación estandarizada para frameworks de aprendizaje automático y bibliotecas, lo que ayuda a las personas desarrolladoras a trazar las invocaciones de LLM junto con el contexto que las rodea, como recuperaciones desde almacenes vectoriales (vector stores) o llamadas a herramientas externas, API y motores de búsqueda. Los spans pueden exportarse a cualquier colector compatible con OTEL, garantizando la alineación con las pipelines de telemetría existentes. Anteriormente mencionamos Langfuse, una plataforma de observabilidad de LLM comúnmente utilizada; el SDK de OpenInference puede registrar trazas en Langfuse y en otras plataformas de observabilidad compatibles con OpenTelemetry.

Download the PDF

 

 

 

English | Português

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes