Plataformas
Adoptar
-
32. Arm en la nube
Las instancias de computación Arm en la nube se han vuelto cada vez más populares en los últimos años por su eficiencia en costos y energía en comparación con las instancias tradicionales basadas en x86. Los principales proveedores de nube, entre ellos AWS, Azure y GCP, ahora ofrecen opciones robustas basadas en Arm. Estas instancias resultan especialmente atractivas para cargas de trabajo a gran escala o sensibles a costos. Muchos de nuestros equipos han migrado con éxito cargas de trabajo como microservicios, bases de datos de código abierto e incluso computación de alto rendimiento hacia Arm con cambios mínimos en el código y sólo pequeños ajustes en los scripts de compilación. Las nuevas aplicaciones y sistemas basados en la nube adoptan cada vez más Arm en la nube como configuración predeterminada. Según nuestra experiencia, recomendamos las instancias de cómputo Arm para la mayoría de las cargas de trabajo, a menos que existan dependencias específicas de arquitectura. Las herramientas modernas, como las multi-arch Docker images, simplifican aún más la creación y el despliegue en entornos tanto Arm como x86
Probar
-
33. Apache Paimon
Apache Paimon es un formato de data lake de código abierto diseñado para habilitar la arquitectura lakehouse. Se integra de forma fluida con motores de procesamiento como Flink y Spark, ofreciendo soporte tanto para operaciones en streaming como por lotes (batch). Una de las principales ventajas de la arquitectura de Paimon radica en su combinación de un formato estándar de data lake con una estructura LSM (log-structured merge-tree). Esta combinación resuelve los desafíos tradicionales de las actualizaciones de alto rendimiento y las lecturas de baja latencia en los data lakes. Paimon admite tablas con clave primaria para actualizaciones en tiempo real y de alto rendimiento, e incluye un motor de fusión personalizable para deduplicación, actualizaciones parciales y agregaciones. Este diseño hace posible una ingesta eficiente de datos en streaming y la gestión de estado mutable directamente dentro del lake. Además, Paimon también ofrece capacidades maduras de data lake, como metadatos escalables, transacciones ACID, time travel, evolución de esquemas y diseños de datos optimizados mediante compresión y Z-ordering. Recomendamos evaluar Paimon para proyectos que necesiten una capa de almacenamiento unificada capaz de manejar eficientemente datos masivos de solo anexado(append-only) a gran escala y actualizaciones complejas en streaming en tiempo real.
-
34. DataDog LLM Observability
Datadog LLM Observability proporciona trazabilidad, monitoreo y diagnóstico de extremo a extremo para modelos grandes de lenguaje y flujos de trabajo de aplicaciones agénticas. Mapea cada prompt, llamada de herramienta y paso intermedio en spans y traces; supervisa la latencia, el uso de tokens, los errores y las métricas de calidad; y se integra con la suite más amplia de APM y observabilidad de Datadog. Las organizaciones que ya utilizan Datadog y están familiarizadas con su estructura de costos pueden encontrar que la función de observabilidad para LLM es una forma directa de obtener visibilidad sobre las cargas de trabajo de IA, siempre que estas puedan instrumentarse. Sin embargo, la configuración y el uso de la instrumentación para LLMs requiere cuidado y una comprensión sólida tanto de las cargas de trabajo como de su implementación. Recomendamos que los equipos de ingeniería de datos y operaciones trabajen en estrecha colaboración al implementarla. Consulta también nuestra recomendación sobre evitar equipos de ingeniería de datos separados.
-
35. Delta Sharing
Delta Sharing es un estándar y protocolo abierto para el intercambio seguro de datos entre plataformas, desarrollado por Databricks y la Linux Foundation. Es independiente de la nube, lo que permite a las organizaciones compartir datos en tiempo real entre distintos proveedores de nube y entornos locales sin necesidad de copiarlos ni replicarlos, preservando su frescura y eliminando costos de duplicación. Hemos visto a una empresa de comercio electrónico utilizar Delta Sharing con éxito para reemplazar un sistema fragmentado de intercambio de datos con socios por una plataforma centralizada, segura y en tiempo real, mejorando significativamente la colaboración. El protocolo usa una sencilla API REST para emitir URL prefirmadas de corta duración, lo que permite a los destinatarios recuperar grandes conjuntos de datos mediante herramientas como pandas, Spark o Power BI. Admite compartir tablas de datos, vistas, modelos de IA y notebooks. Aunque ofrece una sólida gobernanza centralizada y capacidades de auditoría, los usuarios deben tener en cuenta los costos de salida de datos en la nube, que pueden convertirse en un riesgo operativo importante si no se gestionan adecuadamente.
-
36. Dovetail
Dovetail aborda el desafío persistente de gestionar datos de investigación cualitativa fragmentados. Proporciona un repositorio centralizado para entrevistas con usuarios, transcripciones e insights, convirtiendo los datos en bruto en un activo estructurado y analizable. Lo hemos encontrado muy valioso en los flujos de trabajo de descubrimiento de producto, especialmente para crear un rastro de evidencias que vinculan citas de clientes y temas sintetizados directamente con hipótesis de producto y ROI estimado. Al hacerlo, Dovetail refuerza el papel de los datos cualitativos en la toma de decisiones de producto.
-
37. Langdock
Langdock es una plataforma para que las organizaciones desarrollen y ejecuten agentes y flujos de trabajo de inteligencia artificial generativa para operaciones internas. Proporciona un entorno unificado con asistentes de chat internos, una capa de API para conectarse a múltiples LLMs y herramientas para crear flujos de trabajo basados en agentes que se integran con sistemas como Slack, Confluence y Google Drive. La plataforma pone énfasis en la soberanía de los datos, ofreciendo opciones on-premise y alojadas en la Unión Europea, con estándares de cumplimiento empresarial. Las organizaciones que implementen Langdock deben seguir prestando especial atención a la gobernanza de datos y aplicar técnicas como el análisis de flujo tóxico para evitar la tríada letal. Quienes adopten la plataforma también deben considerar su nivel de madurez, evaluar las integraciones específicas que necesitan y planificar cualquier desarrollo personalizado que pueda ser necesario.
-
38. LangSmith
LangSmith es una plataforma alojada desarrollada por el equipo de LangChain que ofrece observabilidad, trazabilidad y evaluación para aplicaciones basadas en LLMs. Permite capturar trazas detalladas de cadenas, herramientas y prompts, lo que facilita depurar y analizar el comportamiento de los modelos, identificar regresiones de rendimiento y gestionar conjuntos de datos de evaluación. LangSmith es un SaaS propietario con soporte limitado para flujos de trabajo fuera del ecosistema de LangChain, por lo que resulta más atractivo para los equipos que ya utilizan esta plataforma. Su soporte integrado para la evaluación y experimentación de prompts es considerablemente más completo que el de alternativas de código abierto como Langfuse.
-
39. Model Context Protocol (MCP)
El Model Context Protocol (MCP) es un estándar abierto que define cómo las aplicaciones y agentes basados en LLMs se integran con fuentes de datos y herramientas externas, mejorando significativamente la calidad de las salidas generadas por IA. MCP se centra en el acceso al contexto y a las herramientas, diferenciándose del Agent2Agent (A2A), que regula la comunicación entre agentes. Específica servidores (para datos y herramientas como bases de datos, wikis y servicios) y clientes (agentes, aplicaciones y asistentes de código). Desde su último blip, la adopción de MCP ha crecido rápidamente, con grandes empresas como JetBrains (IntelliJ) y Apple uniéndose al ecosistema, junto con frameworks emergentes como FastMCP. Un estándar preliminar del registro MCP ahora permite la detección de herramientas públicas y propietarias. Sin embargo, la rápida evolución de MCP también ha introducido brechas arquitectónicas, lo que ha generado críticas por pasar por alto buenas prácticas establecidas de RPC. Para aplicaciones en producción, los equipos deben mirar más allá del revuelo y aplicar un análisis adicional, mitigando flujos tóxicos con herramientas como MCP-Scan y monitoreando de cerca el módulo de autorización en borrador para garantizar la seguridad.
-
40. n8n
n8n es una plataforma de automatización de flujos de trabajo con licencia fair-code, similar a Zapier o Make (anteriormente Integromat), pero creada para desarrolladores que buscan una opción autoalojada, extensible y controlable mediante código. Ofrece un enfoque visual y de bajo código para la creación de flujos de trabajo, más simple que Apache Airflow, pero manteniendo compatibilidad con código personalizado en JavaScript o Python. Su principal caso de uso es integrar múltiples servicios dentro de flujos automatizados, aunque también puede conectar LLMs con fuentes de datos, memoria y herramientas configurables. Muchos de nuestros equipos utilizan n8n para crear rápidamente prototipos de flujos de trabajo basados en agentes que se activan desde aplicaciones de chat o webhooks, aprovechando con frecuencia sus funciones de importación y exportación para generar flujos con asistencia de IA. Como siempre, recomendamos precaución al utilizar plataformas de bajo código en entornos de producción. Sin embargo, el hecho de que n8n sea autoalojable y que los flujos pueden definirse mediante código ayuda a mitigar algunos de esos riesgos.
-
41. OpenThread
OpenThread es una implementación de código abierto del protocolo de red Thread, desarrollada por Google. Admite todas las características clave de la especificación Thread, incluyendo capas de red como IPv6, 6LoWPAN y LR-WPAN, así como capacidades de red en malla que permiten que un dispositivo funcione tanto como nodo como enrutador de frontera. OpenThread se ejecuta en una amplia variedad de plataformas de hardware, aprovechando una capa de abstracción flexible y de puntos de integración que permiten a los fabricantes incorporar sus propias capacidades de radio y cifrado. Este protocolo maduro se utiliza ampliamente en productos comerciales y, en nuestra experiencia, ha demostrado ser confiable para crear soluciones de IoT diversas, desde dispositivos de bajo consumo alimentados por batería hasta grandes redes malladas de sensores.
Evaluar
-
42. AG-UI Protocol
AG-UI es un protocolo abierto y una biblioteca diseñados para estandarizar la comunicación entre interfaces de usuario avanzados y agentes. Enfocado a agentes que interactúan directamente con usuarios finales, utiliza un middleware e integraciones de cliente para generalizar en cualquier frontend y backend. El protocolo define una forma coherente para que los agentes del backend se comuniquen con las aplicaciones del frontend, permitiendo una colaboración en tiempo real y con estado entre la IA y los usuarios. Es compatible con múltiples protocolos de transporte, incluidos SSE y WebSockets, y proporciona tipos de eventos estandarizados para representar diferentes estados de ejecución del agente. Ofrece soporte integrado para frameworks de agentes populares como LangGraph y Pydantic AI, con integraciones de la comunidad para otros.
-
43. Agent-to-Agent (A2A) Protocol
Agent2Agent (A2A) es un protocolo que define un estándar para la comunicación e interacción entre agentes en flujos de trabajo complejos y multiagente. Utiliza Agent Cards para describir los elementos clave de la comunicación entre agentes, incluyendo el descubrimiento de habilidades y la especificación de esquemas de transporte y seguridad. A2A complementa el Model Context Protocol (MCP) al centrarse en la comunicación entre agentes sin exponer detalles internos como el estado, la memoria o los procesos internos de un agente. El protocolo promueve buenas prácticas como un enfoque asíncrono por defecto para tareas de larga duración, respuestas en streaming para actualizaciones incrementales y transporte seguro con HTTPS, autenticación y autorización. Existen SDKs disponibles en Python, JavaScript, Java y C# para facilitar su adopción rápida. Aunque es relativamente nuevo, A2A permite a los equipos construir agentes específicos por dominio que pueden colaborar para formar flujos de trabajo complejos, lo que lo convierte en una opción sólida para este tipo de escenarios.
-
44. Amazon S3 Vectors
Amazon S3 Vectors amplía el servicio de almacenamiento de objetos S3 con capacidades nativas de vectores, ofreciendo almacenamiento de vectores integrado y funcionalidad de búsqueda por similitud. Se integra de forma fluida con el ecosistema de AWS, incluyendo Amazon Bedrock y OpenSearch, y proporciona funciones adicionales como filtrado por metadatos y gobernanza a través de IAM. Aunque aún es una versión preliminar y está sujeta a restricciones y limitaciones, consideramos que su propuesta de valor es convincente. Este enfoque rentable y accesible para el almacenamiento de vectores podría habilitar una variedad de aplicaciones que manejan grandes volúmenes de datos y en las que la baja latencia no es la principal prioridad.
-
45. Ardoq
Ardoq es una plataforma de arquitectura empresarial (EA) que permite a las organizaciones construir, gestionar y escalar sus bases de conocimiento de arquitectura para planificar de manera más efectiva el futuro. A diferencia de la documentación estática tradicional, propensa a desactualizarse y generar silos, el enfoque basado en datos de Ardoq extrae información de los sistemas existentes para crear un grafo de conocimiento dinámico que se mantiene actualizado a medida que el entorno evoluciona. Una funcionalidad que hemos encontrado especialmente útil es Ardoq Scenarios, que permite modelar y definir visualmente escenarios hipotéticos (what-if) utilizando un enfoque de ramificación y fusión similar a Git. Las organizaciones que buscan una transformación arquitectónica deberían evaluar plataformas de EA dedicadas como Ardoq por su potencial para optimizar y acelerar este proceso.
-
46. CloudNativePG
CloudNativePG es un Kubernetes Operator que simplifica el alojamiento y la gestión de clústeres de PostgreSQL de alta disponibilidad en Kubernetes. Ejecutar un servicio con estado como PostgreSQL en Kubernetes puede ser complejo y requiere un conocimiento profundo tanto de Kubernetes como de la replicación de PostgreSQL. CloudNativePG abstrae gran parte de esta complejidad al tratar todo el clúster de PostgreSQL como un único recurso declarativo configurable. Proporciona una arquitectura primaria/secundaria sin interrupciones mediante replicación nativa en streaming e incluye funciones de alta disponibilidad integradas, como capacidades de autorreparación, conmutación por error automatizada que promueve la réplica más actualizada y recreación automática de réplicas fallidas. Si estás buscando alojar PostgreSQL en Kubernetes, CloudNativePG es un excelente punto de partida.
-
47. Coder
Coder es una plataforma para aprovisionar rápidamente entornos de desarrollo estandarizados, siguiendo la práctica de ambientes de desarrollo en la nube que hemos descrito anteriormente. En comparación con herramientas similares como Gitpod (ahora renombrada a Ona) y GitHub Codespaces, Coder ofrece un mayor control sobre la personalización de las estaciones de trabajo mediante Terraform. Aloja las estaciones de trabajo en infraestructura propia, en lugar de en los servidores de un proveedor. Este enfoque proporciona más flexibilidad, incluyendo la capacidad de ejecutar agentes de codificación con IA y acceder a sistemas internos de la organización. Sin embargo, esta flexibilidad implica compromisos: mayor esfuerzo para configurar y mantener las plantillas de estaciones de trabajo, y mayor responsabilidad en la gestión de los riesgos de seguridad de los datos en flujos de trabajo agénticos.
-
48. Graft
Graft es un motor de almacenamiento transaccional que permite una sincronización de datos sólida y eficiente en entornos edge y distribuidos. Lo logra utilizando replicación diferida para sincronizar los datos sólo bajo demanda, replicación parcial para minimizar el consumo de ancho de banda y aislamiento de instantáneas serializables para garantizar la integridad de los datos. Hemos mencionado Electric en el Radar para casos de uso similares, pero consideramos que Graft es único al convertir el almacenamiento de objetos en un sistema transaccional que admite actualizaciones consistentes a nivel de página sin imponer un formato de datos específico. Esto lo hace especialmente adecuado para potenciar aplicaciones móviles local-first, gestionar sincronización compleja entre plataformas y servir como base para réplicas sin estado en sistemas serverless o embebidos.
-
49. groundcover
groundcover es una plataforma de observabilidad cloud-native que unifica logs, trazas, métricas y eventos de Kubernetes en una vista centralizada. Utiliza eBPF para capturar datos de observabilidad granulares sin necesidad de instrumentación en el código, es decir, sin insertar agentes ni SDKs en el código de la aplicación. El sensor eBPF de groundcover se ejecuta en un nodo dedicado dentro de cada clúster monitoreado, funcionando de manera independiente a las aplicaciones que observa. Entre sus principales características se incluyen una visibilidad profunda a nivel del kernel, una arquitectura bring-your-own-cloud (BYOC) que protege la privacidad de los datos y un modelo de precios independiente del volumen de datos, lo que mantiene los costos predecibles.
-
50. Karmada
Karmada (“Kubernetes Armada”) es una plataforma para orquestar cargas de trabajo a través de múltiples clústeres de Kubernetes, nubes y centros de datos. Actualmente, muchos equipos realizan despliegues entre clústeres utilizando herramientas de GitOps como Flux o ArgoCD combinadas con scripts personalizados, por lo que una solución diseñada específicamente para este propósito es bienvenida. Karmada aprovecha las APIs nativas de Kubernetes, sin requerir cambios en las aplicaciones ya construidas para entornos nativos de nube. Ofrece capacidades avanzadas de programación para la gestión multi-nube, alta disponibilidad, recuperación ante fallos y gestión del balanceo de tráfico. Karmada sigue siendo relativamente nueva, por lo que es importante evaluar la madurez de las funcionalidades de las que dependa tu equipo. Sin embargo, como proyecto de de CNCF, tiene un fuerte impulso y varios de nuestros equipos ya lo están utilizando con éxito. Cabe destacar que ciertas áreas como la gestión de redes, estado y almacenamiento entre clústeres están fuera del alcance de Karmada. La mayoría de los equipos aún necesitarán un malla de servicios como Istio o Linkerd para el manejo del tráfico y deberán planificar cómo gestionar las cargas de trabajo con estado y los datos distribuidos.
-
51. OpenFeature
A medida que las empresas escalan, la gestión de feature flags suele volverse cada vez más compleja; los equipos necesitan una capa de abstracción que vaya más allá del feature toggle más simple posible. OpenFeature proporciona esta capa mediante una especificación de API impulsada por la comunidad y agnóstica al proveedor, que estandariza la forma en que se definen y consumen las feature flags, desacoplando el código de la aplicación de la solución de gestión. Esta flexibilidad permite a los equipos cambiar fácilmente de proveedor, desde configuraciones básicas con variables de entorno o configuraciones en memoria, hasta plataformas más avanzadas como ConfigCat o LaunchDarkly. Sin embargo, persiste una advertencia clave: los equipos deben gestionar las diferentes categorías de flags de forma separada y disciplinada para evitar la proliferación de flags, la complejidad de las aplicaciones y la sobrecarga en las pruebas.
-
52. Oxide
Construir y operar infraestructura privada es una tarea compleja. Esa es una de las principales razones por las que la nube pública se ha convertido en la opción predeterminada para la mayoría de las organizaciones. Sin embargo, para aquellos que la necesitan, Oxide ofrece una alternativa para ensamblar e integrar hardware y software desde cero. Proporciona racks preconstruidos con cómputo, red y almacenamiento, ejecutando software de sistema completamente integrado. Los equipos pueden administrar los recursos a través del API IaaS de Oxide utilizando Terraform y otras herramientas de automatización, en lo que Oxide denomina infraestructura elástica on-premises. VxRail de Dell y VMware, Nutanix y HPE SimpliVity también ofrecen soluciones de infraestructura hiperconvergente (HCI), pero lo que distingue a Oxide es su enfoque diseñado específicamente para este propósito. Oxide diseña toda la pila —desde las placas de circuito y las fuentes de alimentación hasta el firmware en lugar de ensamblar componentes de distintos proveedores. Además, ha desarrollado y publicado como código abierto Hubris, un kernel liviano, con protección de memoria y basado en paso de mensajes, escrito en Rust para sistemas embebidos, junto con otros proyectos de infraestructura también basados en Rust. Valoramos además que Oxide venda su equipamiento y software sin tarifas de licencia.
-
53. Restate
Restate es una plataforma de ejecución duradera diseñada para abordar los desafíos de los sistemas distribuidos complejos al desarrollar aplicaciones con estado y tolerantes a fallos. Registra cada paso mediante un sistema de registro (journaling) de ejecución, lo que garantiza tolerancia a fallos, recuperación confiable y comunicación exactamente una vez (exactly-once) entre servicios. La principal ventaja arquitectónica de la plataforma radica en separar la lógica de aplicación en tres tipos de servicios duraderos: Basic Services, para funciones sin estado; Virtual Objects, para modelar entidades concurrentes con estado; y Workflows, para orquestar procesos complejos y de múltiples pasos. Hemos estado evaluando Restate cuidadosamente en un gran sistema de seguros y, hasta ahora, estamos muy satisfechos con su rendimiento.
-
54. SkyPilot
SkyPilot es una plataforma de código abierto para ejecutar y escalar cargas de trabajo de IA en entornos locales o en la nube. Desarrollada por el Sky Computing Lab de la Universidad de California en Berkeley, SkyPilot actúa como un intermediario inteligente que busca y aprovisiona automáticamente las GPU más económicas y más disponibles entre los principales proveedores de nube y clústeres de Kubernetes, reduciendo con frecuencia los costos de cómputo. Para los equipos de infraestructura, simplifica la ejecución de IA en Kubernetes al ofrecer la facilidad de uso de Slurm, la solidez nativa de la nube, acceso directo por SSH a los pods y características como planificación en grupo y compatibilidad con múltiples clústeres para escalar sin problemas cargas de trabajo de entrenamiento o inferencia.
-
55. StarRocks
StarRocks es una base de datos analítica que redefine la inteligencia empresarial en tiempo real al combinar la velocidad de los sistemas OLAP tradicionales con la flexibilidad de un data lakehouse moderno. Alcanza una latencia de consulta de menos de un segundo a gran escala mediante un motor de ejecución optimizado con SIMD, almacenamiento columnar y un sofisticado optimizador basado en costos. Esta arquitectura de alto rendimiento permite ejecutar análisis complejos directamente sobre formatos de datos abiertos como Apache Iceberg, sin necesidad de precomputación ni duplicación de datos. Aunque existen muchas plataformas en este ámbito, consideramos que StarRocks es una opción sólida y rentable para soluciones que requieren alta concurrencia extrema y datos consistentes y actualizados al segundo.
-
56. Uncloud
Uncloud es una herramienta ligera de orquestación y agrupamiento de contenedores que permite a las personas desarrolladoras llevar aplicaciones de Docker Compose a producción, ofreciendo una experiencia sencilla similar a la de la nube, pero sin la carga operativa de Kubernetes. Logra escalado entre máquinas y despliegues sin tiempo de inactividad al configurar automáticamente una red de malla segura con WireGuard para la comunicación y utilizar el proxy inverso Caddy para proporcionar HTTPS automático y balanceo de carga. La principal ventaja arquitectónica de Uncloud es su diseño completamente descentralizado, que elimina la necesidad de un plano de control central y garantiza que las operaciones del clúster sigan siendo funcionales incluso si algunas máquinas quedan fuera de línea. Con Uncloud, puedes combinar libremente máquinas virtuales en la nube y servidores bare-metal en un entorno informático unificado y rentable.
Resistir
¿No encontraste algo que esperabas ver?
Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.