Lenguajes & Frameworks
Adoptar
-
85. Fastify
Seguimos teniendo una experiencia positiva con Fastify, un framework web rápido, no prescriptivo y de bajo consumo de recursos para Node.js. Proporciona todas las capacidades esenciales de un framework web minimalista (incluyendo análisis, validación y serialización), junto con un sólido sistema de complementos y una comunidad activa. Nuestros equipos no han encontrado desventajas significativas al usar Fastify frente a alternativas como Express.js, y además han obtenido mejoras de rendimiento medibles, lo que lo convierte en una opción atractiva para el desarrollo web minimalista en Node.js.
-
86. LangGraph
LangGraph es un framework de orquestación para crear aplicaciones multi-agente con estado utilizando LLMs. Proporciona primitivas de bajo nivel como nodos y aristas, junto con funciones integradas que ofrecen a a las personas desarrolladoras un control granular sobre los flujos de trabajo de los agentes, la gestión de memoria y la persistencia del estado. Esto significa que las personas desarrolladoras pueden comenzar con un grafo preconstruido sencillo y escalar hacia arquitecturas de agentes complejas en evolución. Con soporte para streaming, gestión avanzada de contexto y patrones de resiliencia como “model fallbacks” y manejo de errores de herramientas, LangGraph permite crear aplicaciones agénticas robustas y listas para producción. Su enfoque basado en grafos garantiza flujos de trabajo predecibles y personalizables, y simplifica la depuración y el escalado. Nuestros equipos han obtenido buenos resultados utilizando LangGraph para construir sistemas multiagente gracias a su diseño modular y ligero.
-
87. vLLM
vLLM es un motor de inferencia de alto rendimiento y de uso eficiente de memoria para LLMs, que puede ejecutarse tanto en la nube como en entornos locales. Es compatible con múltiples arquitecturas de modelos y con modelos de código abierto populares. Nuestros equipos implementan workers de vLLM en contenedores Docker sobre plataformas GPU como NVIDIA DGX e Intel HPC, alojando modelos como Llama 3.1 (8B y 70B), Mistral 7B y Llama-SQL para asistencia en codificación, búsqueda de conocimiento e interacciones con bases de datos en lenguaje natural. vLLM es compatible con el estándar del SDK de OpenAI, lo que permite una prestación de modelos coherente. El AI Model Catalog de Azure utiliza un contenedor de inferencia personalizado basado en vLLM para mejorar el rendimiento, siendo vLLM el motor de inferencia predeterminado debido a su alto rendimiento y gestión eficiente de memoria. El framework vLLM se ha convertido en la opción preferida para implementaciones de modelos a gran escala.
Probar
-
88. Crossplane
Desde su última aparición en el Radar, la adopción de Crossplane ha seguido creciendo, especialmente para extender los clústeres de Kubernetes. En nuestra experiencia, Crossplane destaca en casos de uso específicos más que como una herramienta general de infraestructura como código (IaC). Nuestras observaciones anteriores siguen siendo válidas: Crossplane funciona mejor como complemento de las cargas de trabajo desplegadas dentro de Kubernetes, no como un reemplazo completo de herramientas como Terraform. Los equipos que apostaron por usar Crossplane como su solución principal de IaC a menudo enfrentaron dificultades, mientras que aquellos que lo emplearon de manera pragmática, en casos personalizados y puntuales, obtuvieron buenos resultados. Delegar la gestión del ciclo de vida de los recursos a Crossplane y utilizar las API de XRD para personalizaciones ligeras ha resultado especialmente eficaz. Crossplane es particularmente valioso para gestionar recursos cuyo ciclo de vida es simple pero no nativo de Kubernetes. Si bien ahora puede crear clústeres de Kubernetes, una capacidad que antes no tenía, recomendamos precaución al adoptarlo como sustituto total de Terraform. En nuestra experiencia, Crossplane ofrece mejores resultados cuando IaC actúa como capa base y Crossplane se utiliza encima para cubrir necesidades especializadas.
-
89. DeepEval
DeepEval es un framework de evaluación de código abierto basado en Python para medir el rendimiento de los LLMs. Puede utilizarse para evaluar la generación mejorada por recuperación (RAG) y otras aplicaciones desarrolladas con frameworks como LlamaIndex o LangChain, así como para establecer líneas base y realizar comparaciones de modelos. DeepEval va más allá de las métricas basadas en coincidencia de palabras, evaluando precisión, relevancia y consistencia para ofrecer resultados de evaluación más confiables en escenarios reales. Incluye métricas como detección de alucinaciones, relevancia de respuestas y optimización de hiperparámetros, y admite GEval para crear métricas personalizadas adaptadas a cada caso de uso. Nuestros equipos utilizan DeepEval para ajustar los resultados agénticos mediante la técnica LLM como juez. Se integra con pytest y con pipelines de CI/CD, lo que facilita su adopción y lo hace valioso para la evaluación continua. Para los equipos que desarrollan aplicaciones basadas en LLM en entornos regulados, Inspect AI, desarrollado por el UK AI Safety Institute, ofrece una alternativa con un enfoque más sólido en auditoría y cumplimiento.
-
90. FastMCP
El Model Context Protocol (MCP) se está convirtiendo rápidamente en un estándar para proporcionar contexto y herramientas a las aplicaciones basadas en LLM. Sin embargo, implementar un servidor MCP normalmente implica una cantidad considerable de plantillas de configuración, manejo de protocolos y gestión de errores. FastMCP es un framework de Python que simplifica este proceso al abstraer la complejidad del protocolo y permitir que las personas desarrolladoras definan recursos y herramientas MCP mediante decoradores de Python intuitivos. Esta abstracción permite que los equipos se concentren en la lógica de negocio, lo que da como resultado implementaciones MCP más limpias y fáciles de mantener. Aunque FastMCP 1.0 ya está incorporado en el SDK oficial, el estándar MCP continúa evolucionando rápidamente. Recomendamos seguir de cerca la versión 2.0 y asegurarse de que los equipos se mantengan alineados con los cambios en la especificación oficial.
-
91. LiteLLM
LiteLLM es un SDK que permite una integración fluida con múltiples proveedores de LLMs a través de un formato estandarizado de API de OpenAI. Admite una amplia variedad de proveedores y modelos, ofreciendo una interfaz unificada para tareas de completado de texto, embeddings y generación de imágenes. Al abstraer las diferencias específicas entre las APIs de los distintos proveedores, LiteLLM simplifica la integración y enruta automáticamente las solicitudes al endpoint del modelo correspondiente. También incluye funciones de nivel empresarial como salvaguardas y mecanismos de control, almacenamiento en caché, registro de logs, limitación de velocidad y balanceo de carga mediante su proxy framework. A medida que las organizaciones integran aplicaciones impulsadas por IA de manera más profunda en sus flujos de trabajo, la gobernanza y la observabilidad se vuelven esenciales. Nuestros equipos han estado utilizando LiteLLM como un AI gateway para estandarizar, proteger y obtener visibilidad del uso de IA en toda la organización.
-
92. MLForecast
MLForecast es un framework y librería de Python para pronóstico de series temporales que aplica modelos de machine learning a conjuntos de datos a gran escala. Simplifica el proceso habitualmente complejo de ingeniería automática de características —incluyendo retrasos, estadísticas móviles y variables basadas en fechas— y es una de las pocas bibliotecas con soporte nativo para frameworks de computación distribuida como Spark y Dask, garantizando escalabilidad. También admite pronósticos probabilísticos mediante métodos como la predicción conformal, lo que proporciona medidas cuantitativas de incertidumbre en las proyecciones. En nuestra evaluación, MLForecast escaló de manera eficiente a millones de puntos de datos y superó de forma consistente a herramientas comparables. Para los equipos que buscan operacionalizar rápidamente el pronóstico de series temporales sobre datos de gran volumen, MLForecast es una opción muy atractiva.
-
93. Nuxt
Nuxt es un meta-framework dogmático, construido sobre Vue.js para crear aplicaciones web full-stack, conocido con frecuencia como el “Next.js para Vue.js”. Al igual que su contraparte en React, Nuxt ofrece capacidades optimizadas para SEO, como el pre-renderizado, el renderizado en el servidor (Server-Side Rendering - SSR) y la gestión de metadatos, lo que lo convierte en una excelente opción para desarrollar sitios web de alto rendimiento y optimizados para motores de búsqueda sobre la base de Vue.js. Nuxt cuenta con el respaldo de Vercel, la misma empresa detrás de Next.js, y con una sólida comunidad y un ecosistema de módulos oficiales y de terceros. Estos módulos simplifican la integración de funcionalidades como el procesamiento de imágenes, la generación de mapas del sitio y el uso de Tailwind CSS. Nuxt es una buena opción para los equipos que buscan un framework integral y dogmático para crear aplicaciones optimizadas para SEO con Vue.js.
-
94. Phoenix
Seguimos teniendo experiencias positivas con Phoenix, un framework web MVC del lado del servidor escrito en Elixir. Phoenix se basa en los aprendizajes de desarrollo rápido de aplicaciones y experiencia del desarrollador de Ruby on Rails, al mismo tiempo que avanza hacia los paradigmas de la programación funcional. En esta edición del Radar, destacamos el lanzamiento de Phoenix LiveView 1.0. LiveView es una solución de HTML-over-the-wire —similar a HTMX o Hotwire— que permite a los desarrolladores crear experiencias de usuario enriquecidas y en tiempo real completamente con HTML renderizado en el servidor. Mientras que tecnologías similares suelen manejar actualizaciones parciales mediante el intercambio de fragmentos HTML, LiveView ofrece una arquitectura completa basada en componentes a través de LiveComponents, con composición, paso de propiedades, gestión de estado y hooks de ciclo de vida similares a React o Vue.js. LiveView combina la productividad y escalabilidad de Phoenix con una sólida gestión de la complejidad, lo que lo hace ideal para construir interfaces altamente interactivas sin necesidad de un framework completo de JavaScript.
-
95. Presidio
Presidio es un SDK de protección de datos para identificar y anonimizar información sensible en texto estructurado y no estructurado. Detecta información de identificación personal (PII), como números de tarjetas de crédito, nombres y ubicaciones, utilizando reconocimiento de entidades nombradas, expresiones regulares y lógica basada en reglas. Presidio admite reconocedores de entidades personalizados y pipelines de desidentificación, lo que permite a las organizaciones adaptarlo a sus necesidades de privacidad y cumplimiento normativo. Nuestros equipos han utilizado Presidio en entornos empresariales con controles estrictos sobre el de intercambio de datos al integrarlo con LLMs. Aunque automatiza la detección de información sensible, no es infalible y puede omitir o identificar incorrectamente algunas entidades. Los equipos deben ser cautelosos y actuar con precaución al tomar sus resultados.
-
96. Pydantic AI
Pydantic AI continúa demostrando ser un framework de código abierto estable y bien soportado para construir agentes de IA Generativa en entornos de producción. Construido sobre la base confiable de Pydantic, ofrece una sólida seguridad de tipado, observabilidad de primer nivel mediante OpenTelemetry y herramientas de evaluación integradas. El lanzamiento de la versión 1.0 el 4 de septiembre de 2025 marcó un hito importante en su madurez. Desde entonces lo hemos encontrado confiable y ampliamente adoptado por su simplicidad y facilidad de mantenimiento, uniéndose a otros frameworks populares para agentes como LangChain y LangGraph. Las actualizaciones recientes han facilitado la implementación de servidores y clientes Model Context Protocol (MCP), con soporte adicional para estándares emergentes como AG UI y A2A. Con su API limpia y un ecosistema en crecimiento, Pydantic AI se ha convertido en una opción atractiva para nuestros equipos que construyen aplicaciones GenAI listas para producción en Python.
-
97. Tauri
Tauri es un framework para crear aplicaciones de escritorio de alto rendimiento utilizando una única base de código de interfaz web. A diferencia de los contenedores web tradicionales como Electron, Tauri está construido sobre Rust y aprovecha el webview nativo del sistema operativo, lo que da como resultado binarios más pequeños y mayor seguridad. Evaluamos Tauri por primera vez hace varios años; desde entonces, se ha expandido más allá del escritorio para ofrecer soporte a iOS y Android. La versión más reciente introduce un modelo de permisos y alcance más flexible, reemplaza la lista de permisos anterior y presenta una capa de comunicación entre procesos (IPC) reforzada que admite transferencia de datos en bruto y mejora el rendimiento. Estas actualizaciones cuentan con el respaldo de una auditoría de seguridad externa. Junto con las directrices oficiales de distribución para las principales tiendas de aplicaciones, estas mejoras fortalecen aún más la posición de Tauri en el ámbito del desarrollo multiplataforma.
Evaluar
-
98. Agent Development Kit (ADK)
Agent Development Kit (ADK) es un framework para desarrollar y desplegar agentes de IA que aplica principios modernos de ingeniería de software en lugar de depender únicamente del prompting. Introduce abstracciones familiares como clases, métodos, patrones de flujo de trabajo y soporte para CLI. En comparación con frameworks como LangGraph o CrewAI, la fortaleza de ADK radica en su profunda integración con la infraestructura de IA de Google, ofreciendo grounding de nivel empresarial, acceso a datos y monitoreo listos para producción. También está diseñado para la interoperabilidad, con soporte para wrappers de herramientas y el protocolo A2A para comunicación entre agentes. Para las organizaciones que ya usan GCP, ADK representa una base prometedora para construir arquitecturas de agentes escalables, seguras y gestionables. Aunque aún está en sus primeras etapas de evolución, marca la dirección de Google hacia un entorno nativo y completo para el desarrollo de agentes. Recomendamos seguir de cerca su madurez y el crecimiento de su ecosistema.
-
99. Agno
Agno es un framework para crear, ejecutar y gestionar sistemas multiagente. Ofrece la flexibilidad de desarrollar agentes completamente autónomos o flujos de trabajo controlados por pasos, con soporte integrado para human-in-the-loop, gestión de sesiones, memoria y conocimiento. Valoramos su enfoque en la eficiencia, con tiempos de inicio de agentes impresionantemente rápidos y bajo consumo de memoria. Agno también incluye su propio entorno de ejecución, AgentOS, una aplicación basada en FastAPI con un plano de control integrado que facilita las pruebas, la supervisión y la gestión de sistemas agénticos.
-
100. assistant-ui
assistant-ui es una biblioteca de código abierto en TypeScript y React para interfaces de chat con IA. Gestiona las partes complejas de la implementación de una interfaz de chat, como el streaming, la gestión de estado para la edición de mensajes y el cambio de ramas, además de funciones comunes de UX, al mismo tiempo que permite a las personas desarrolladoras diseñar sus propios componentes utilizando primitivas de Radix. Admite integración con entornos de ejecución populares, incluidos Vercel AI SDK y LangGraph, y ofrece soluciones de ejecución personalizables para casos de uso complejos. Hemos creado con éxito una interfaz de chat sencilla con assistant-ui y los resultados han sido satisfactorios.
-
101. AutoRound
AutoRound de Intel es un algoritmo avanzado de cuantización diseñado para comprimir grandes modelos de IA, como LLMs y modelos de lenguaje-visual (VLMs), con una pérdida mínima de precisión. Reduce el tamaño del modelo a anchos de bit ultra bajos (2–4 bits) utilizando optimización por descenso de gradiente de signo y aplica anchos de bit mixtos entre capas para lograr una eficiencia óptima. Este proceso de cuantización también es notablemente rápido: es posible cuantizar un modelo de siete mil millones de parámetros en solo unos minutos con una única GPU. Dado que AutoRound se integra con motores de inferencia populares como vLLM y Transformers, es una opción atractiva para la cuantización de modelos.
-
102. Browser Use
Browser Use es una biblioteca de Python de código abierto que permite a los agentes basados en LLMs operar navegadores web e interactuar con aplicaciones web. Puede navegar, introducir datos, extraer texto y gestionar múltiples pestañas para coordinar acciones en varias aplicaciones. La biblioteca es especialmente útil cuando los agentes de IA necesitan acceder, manipular o recuperar información de contenido web. Es compatible con distintos LLM y utiliza Playwright para combinar la comprensión visual con la extracción de estructura HTML y así lograr interacciones web más completas. Nuestros equipos integraron Browser Use con el framework Pytest y los informes de Allure para explorar pruebas automatizadas con LLMs. Los pasos de prueba se redactaron en lenguaje natural para que el agente los ejecutara, tomando capturas de pantalla en las aserciones o cuando se producían errores. El objetivo era habilitar QA fuera del horario laboral extrayendo automáticamente los casos de prueba desde Confluence para su verificación posterior al desarrollo. Los resultados iniciales son prometedores, aunque las respuestas del agente tras completar la tarea suelen carecen de descripciones detalladas de los errores, por lo que requiere un sistema de informes de errores personalizado.
-
103. DeepSpeed
DeepSpeed es una biblioteca de Python que optimiza el aprendizaje profundo distribuido tanto para entrenamiento como para inferencia. Durante el entrenamiento, integra tecnologías como el Zero Redundancy Optimizer (ZeRO) y el paralelismo 3D para escalar modelos de manera eficiente en miles de GPU. En la inferencia, combina paralelismo de tensores, de pipelines, de expertos y ZeRO con núcleos personalizados y optimizaciones de comunicación para reducir la latencia. DeepSpeed ha impulsado algunos de los modelos de lenguaje más grandes del mundo, como Megatron-Turing NLG (530B) y BLOOM (176B). Admite modelos densos y dispersos, ofrece un alto rendimiento del sistema y permite realizar entrenamiento o inferencia en múltiples GPU con recursos limitados. La biblioteca se integra fácilmente con frameworks populares como Hugging Face Transformers, PyTorch Lightning y Accelerate, lo que la convierte en una opción altamente eficaz para cargas de trabajo de aprendizaje profundo a gran escala o con recursos restringidos.
-
104. Drizzle
Drizzle es un ORM ligero para TypeScript. A diferencia de Prisma ORM, ofrece a los desarrolladores tanto una API simple similar a SQL como una interfaz de consultas más tradicional al estilo ORM. También admite extraer esquemas de bases de datos existentes, lo que permite enfoques tanto database-first como code-first. Drizzle fue diseñado con los entornos serverless en mente: tiene un tamaño de paquete pequeño y admite sentencias preparadas (prepared statements), lo que permite que las sentencias SQL se pre-compilen para que el controlador de base de datos ejecute directamente SQL binario en lugar de analizar (parse) las consultas cada vez. Su simplicidad y compatibilidad con entornos serverless hacen que Drizzle sea una opción atractiva para el uso de ORMs dentro del ecosistema TypeScript.
-
105. Criptografía poscuántica en Java
Las computadoras cuánticas continúan avanzando rápidamente, con ofertas SaaS como AWS Braket que ahora proporcionan acceso a algoritmos cuánticos en múltiples arquitecturas. Desde marzo, Java 24 ha introducido criptografía poscuántica en Java, agregando soporte para algoritmos criptográficos poscuánticos como ML-KEM y ML-DSA, y .NET 10 también ha ampliado su compatibilidad. Nuestro consejo es sencillo: si estás desarrollando software en estos lenguajes, comienza ahora a adoptar algoritmos seguros para la era cuántica, a fin de preparar tus sistemas para el futuro.
-
106. kagent
Kagent es un framework de código abierto para ejecutar inteligencia artificial basada en agentes dentro de clústeres de Kubernetes. Permite que los agentes basados en LLMs planifiquen y ejecuten tareas operativas como diagnosticar problemas, corregir configuraciones o interactuar con herramientas de observabilidad mediante APIs nativas de Kubernetes e integraciones con Model Context Protocol (MCP). Su objetivo es llevar el concepto de “AgentOps” a la infraestructura cloud-native, combinando la gestión declarativa con el razonamiento autónomo. Como proyecto del CNCF Sandbox, Kagent debe implementarse con precaución, especialmente por los riesgos asociados a otorgar capacidades de gestión operativa a los LLM. Técnicas como el análisis de flujo tóxico pueden ser especialmente útiles para evaluar y mitigar estos riesgos.
-
107. LangExtract
LangExtract es una biblioteca de Python que utiliza LLMs para extraer información estructurada de texto no estructurado según instrucciones definidas por el usuario. Procesa materiales específicos de dominio, como notas y reportes clínicos, identificando y organizando detalles clave mientras mantiene cada dato extraído trazable a su fuente. Las entidades extraídas pueden exportarse como un archivo
.jsonl, un formato estándar para datos de modelos de lenguaje, y visualizarse mediante una interfaz HTML interactiva para revisión contextual. Nuestros equipos evaluaron LangExtract para extraer entidades destinadas a poblar un grafo de conocimiento de dominio y lo encontraron eficaz para transformar documentos complejos en representaciones estructuradas y legibles por máquina. -
108. Langflow
Langflow es una plataforma abierta de bajo código (low-code) para crear y visualizar flujos de trabajo con LLMs. Construida sobre LangChain, permite a los desarrolladores encadenar prompts, herramientas, bases de datos vectoriales y componentes de memoria mediante una interfaz de arrastrar y soltar, manteniendo al mismo tiempo compatibilidad con código Python personalizado para lógica avanzada. Es especialmente útil para crear prototipos de aplicaciones agénticas sin necesidad de escribir código completo de back-end. Sin embargo, Langflow aún es relativamente nuevo y presenta ciertas limitaciones para uso en producción. Nuestra advertencia habitual respecto a las plataformas de bajo código también aplica aquí. Dicho esto, nos gusta que los flujos de trabajo de Langflow puedan definirse y versionar como código, lo que ayuda a mitigar algunas de las desventajas de este tipo de plataformas.
-
109. LMCache
LMCache es una solución de caché de tipo clave-valor (KV) que acelera la infraestructura de despliegue e inferencia de LLMs. Actúa como una capa de almacenamiento en caché especializada sobre un conjunto de motores de inferencia con LLMs, almacenando entradas precomputadas para textos que probablemente se procesan varias veces, como historiales de chat o colecciones de documentos. Al persistir estos valores en disco, las operaciones de prefill pueden descargarse de la GPU, reduciendo el time-to-first-token (TTFT) y disminuyendo los costos de inferencia en cargas de trabajo exigentes como pipelines RAG, aplicaciones de chat de múltiples turnos y sistemas basados en agentes. Puedes integrar LMCache con servidores de inferencia principales como vLLM o NVIDIA Dynamo, y creemos que vale la pena evaluar su impacto en tu configuración.
-
110. Mem0
Mem0 es una capa de memoria diseñada para agentes de inteligencia artificial. Los enfoques ingenuos suelen almacenar todo el historial de chat en una base de datos y reutilizarlo en conversaciones futuras, lo que genera un uso excesivo de tokens. Mem0 reemplaza este enfoque con una arquitectura más sofisticada que separa la memoria en una capa de recuerdo a corto plazo y una capa inteligente de largo plazo que extrae y almacena solo los hechos y relaciones más relevantes. Su arquitectura combina un almacén vectorial para la similitud semántica con un grafo de conocimiento para comprender datos temporales y relacionales. Este diseño reduce significativamente el uso de tokens de contexto, al tiempo que permite a los agentes mantener conciencia a largo plazo, algo sumamente útil para la personalización y muchos otros casos de uso.
-
111. Open Security Control Assessment Language (OSCAL)
Open Security Controls Assessment Language (OSCAL) es un formato de intercambio de información abierto y legible por máquina, diseñado para aumentar la automatización en la gestión del cumplimiento y el riesgo, y ayudar a los equipos a dejar atrás los enfoques manuales basados en texto. Liderado por el National Institute of Standards and Technology (NIST), OSCAL proporciona representaciones estándar en XML, JSON y YAML para expresar controles de seguridad asociados con marcos de la industria como SOC 2 y PCI, así como con marcos gubernamentales como FedRAMP en Estados Unidos, el Cybersecurity Control Catalogue de Singapur y el Information Security Manual de Australia. Aunque OSCAL aún no ha sido ampliamente adoptado fuera del sector público y su ecosistema todavía está en proceso de maduración, nos entusiasma su potencial para optimizar las evaluaciones de seguridad, reducir la dependencia de hojas de cálculo y ejercicios de verificación, e incluso posibilitar el cumplimiento automatizado cuando se incorpora en plataformas de cumplimiento como código (compliance-as-code) y cumplimiento continuo.
-
112. OpenInference
OpenInference es un conjunto de convenciones y complementos; es complementario a OpenTelemetry y está diseñado para observar aplicaciones de IA. Proporciona instrumentación estandarizada para frameworks de aprendizaje automático y bibliotecas, lo que ayuda a las personas desarrolladoras a trazar las invocaciones de LLM junto con el contexto que las rodea, como recuperaciones desde almacenes vectoriales (vector stores) o llamadas a herramientas externas, API y motores de búsqueda. Los spans pueden exportarse a cualquier colector compatible con OTEL, garantizando la alineación con las pipelines de telemetría existentes. Anteriormente mencionamos Langfuse, una plataforma de observabilidad de LLM comúnmente utilizada; el SDK de OpenInference puede registrar trazas en Langfuse y en otras plataformas de observabilidad compatibles con OpenTelemetry.
-
113. Valibot
Valibot es una biblioteca de validación de esquemas en TypeScript. Al igual que otras bibliotecas populares de validación en TypeScript, como Zod y Ajv, proporciona inferencia de tipos, pero su diseño modular la diferencia. Esta arquitectura permite que los bundlers realicen tree shaking y code splitting de forma efectiva, incluyendo solo las funciones de validación que actualmente se utilizan. Valibot puede reducir el tamaño del paquete hasta en un 95% en comparación con Zod en escenarios óptimos. Es una opción atractiva para la validación de esquemas en entornos donde el tamaño del paquete es crítico, como la validación del lado del cliente o las funciones serverless.
-
114. Vercel AI SDK
Vercel AI SDK es un conjunto de herramientas de código abierto y de pila completa para crear aplicaciones y agentes impulsados por IA en el ecosistema de TypeScript. Consta de dos componentes principales: AI SDK Core, que estandariza las llamadas a LLM independientes del modelo y admite la generación de texto, la generación de objetos estructurados y el uso de herramientas; y AI SDK UI, que simplifica el desarrollo del front-end con transmisión, gestión de estado y actualizaciones de interfaz de usuario en tiempo real en React, Vue, Next.js y Svelte, de forma similar a assistant-ui. Para los equipos que ya trabajan dentro del ecosistema de TypeScript y Next.js, Vercel AI SDK ofrece una forma rápida y fluida de crear aplicaciones de IA con experiencias ricas del lado del cliente.
Resistir
¿No encontraste algo que esperabas ver?
Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.