Platforms
Adopt
-
23. GitLab CI/CD
GitLab CI/CD has evolved into a fully integrated system within GitLab, covering everything from code integration and testing to deployment and monitoring. It supports complex workflows with features like multi-stage pipelines, caching, parallel execution and auto-scaling runners and is suitable for large-scale projects and complex pipeline needs. We want to highlight its built-in security and compliance tools (such as SAST and DAST analysis) which make it well-suited for use cases with high-compliance requirements. It also integrates seamlessly with Kubernetes, supporting cloud-native workflows, and offers real-time logging, test reports and traceability for enhanced observability.
-
24. Trino
Trino is an open-source, distributed SQL query engine designed for interactive analytic queries over big data. It’s optimized to run both on-premise and cloud environments and supports querying data where it resides, including relational databases and various proprietary datastores via connectors. Trino can also query data stored in file formats like Parquet and open-table formats like Apache Iceberg. Its built-in query federation capabilities enable data from multiple sources to be queried as a single logical table, making it a great choice for analytic workloads that require aggregating data across diverse sources. Trino is a key part of popular stacks like AWS Athena, Starburst and other proprietary data platforms. Our teams have successfully used it in various use cases, and when it comes to querying data sets across multiple sources for analytics, Trino has been a reliable choice.
Trial
-
25. ABsmartly
ABsmartly is an advanced A/B testing and experimentation platform designed for rapid, trustworthy decision-making. Its standout feature is the Group Sequential Testing (GST) engine, which accelerates test results by up to 80% compared to traditional A/B testing tools. The platform offers real-time reporting, deep data segmentation and seamless full-stack integration through an API-first approach, supporting experiments across web, mobile, microservices and ML models.
ABsmartly addresses key challenges in scalable, data-driven experimentation by enabling faster iteration and more agile product development. Its zero-lag execution, deep segmentation capabilities and support for multi-platform experiments make it particularly valuable for organizations looking to scale their experimentation culture and prioritize data-backed innovation. By significantly reducing test cycles and automating result analysis, ABsmartly helped us optimize features and user experiences more efficiently than traditional A/B testing platforms.
-
26. Dapr
Dapr has evolved considerably since we last featured it in the Radar. Its many new features include job scheduling, virtual actors as well as more sophisticated retry policies and observability components. Its list of building blocks continues to grow with jobs, cryptography and more. Our teams also note its increasing focus on secure defaults, with support for mTLS and distroless images. All in all, we've been happy with Dapr and are looking forward to future developments.
-
27. Grafana Alloy
Formerly known as Grafana Agent, Grafana Alloy is an open-source OpenTelemetry Collector. Alloy is designed to be an all-in-one telemetry collector for all telemetry data, including logs, metrics and traces. It supports collecting commonly used telemetry data formats such as OpenTelemetry, Prometheus and Datadog. With Promtail’s recent deprecation, Alloy is emerging as a go-to choice for telemetry data collection — especially for logs — if you’re using the Grafana observability stack.
-
28. Grafana Loki
Grafana Loki is a horizontally scalable and highly available multi-tenant log aggregation system inspired by Prometheus. Loki only indexes metadata about your logs as a set of labels for each log stream. Log data is stored in a block storage solution such as S3, GCS or Azure Blob Storage. The upshot is that Loki promises a reduction in operational complexity and storage costs over competitors. As you'd expect, it integrates tightly with Grafana and Grafana Alloy, although other collection mechanisms can be used.
Loki 3.0 introduced native OpenTelemetry support, making ingestion and integration with OpenTelemetry systems as simple as configuring an endpoint. It also offers advanced multi-tenancy features, such as tenant isolation via shuffle-sharding, which prevents misbehaving tenants (e.g., heavy queries or outages) from impacting others in a cluster. If you haven't been following developments in the Grafana ecosystem, now is a great time to take a look as it is evolving rapidly.
-
29. Grafana Tempo
Grafana Tempo is a high-scale distributed tracing backend that supports open standards like OpenTelemetry. Designed to be cost-efficient, it relies on object storage for long-term trace retention and enables trace search, span-based metric generation and correlation with logs and metrics. By default, Tempo uses a columnar block format based on Apache Parquet, enhancing query performance and enabling downstream tools to access trace data. Queries are executed via TraceQL and the Tempo CLI. Grafana Alloy too can be configured to collect and forward traces to Tempo. Our teams self-hosted Tempo in GKE, using MinIO for object storage, OpenTelemetry collectors and Grafana for trace visualization.
-
30. Railway
Heroku used to be an excellent choice for many developers who wanted to release and deploy their applications quickly. In recent years, we’ve also seen the rise of deployment platforms like Vercel, which are more modern, lightweight and easy to use but designed for front-end applications. A full-stack alternative in this space is Railway, a PaaS cloud platform that streamlines everything from GitHub/Docker deployment to production observability.
Railway supports most mainstream programming frameworks, databases as well as containerized deployment. As a long-term hosted platform for an application, you may need to compare the costs of different platforms carefully. At present, our team has had a good experience with Railway's deployment and observability. The operation is smooth and can be well integrated with the continuous deployment practices we advocate.
-
31. Unblocked
Unblocked is an off-the-shelf AI team assistant. Once integrated with codebase repositories, corporate documentation platforms, project management tools and communication tools, Unblocked helps answer questions about complex business and technical concepts, architectural design and implementation as well as operational processes. This is particularly useful for navigating large or legacy systems. While using Unblocked, we've observed that teams value quick access to contextual information over code and user-story generation. For scenarios requiring more extensive code generation or task automation, dedicated software engineering agents or coding assistants are more suitable.
-
32. Weights & Biases
Weights & Biases has continued to evolve, adding more LLM-focused features since it was last featured in the Radar. They are expanding Traces and introducing Weave, a full-fledged platform that goes beyond tracking LLM-based agentic systems. Weave enables you to create system evaluations, define custom metrics, use LLMs as judges for tasks like summarization and save data sets that capture different behaviors for analysis. This helps optimize LLM components and track performance at both local and global levels. The platform also facilitates iterative development and effective debugging of agentic systems, where errors can be difficult to detect. Additionally, it enables the collection of valuable human feedback, which can later be used for fine-tuning models.
Assess
-
33. Arize Phoenix
Con la creciente popularidad de los modelos de lenguaje extenso (LLM) y de las aplicaciones impulsadas por agentes, la observabilidad de estos modelos cobra cada vez mayor relevancia. En el pasado, hemos recomendado plataformas como Langfuse y Weights & Biases (W&B). Arize Phoenix representa otra plataforma emergente en este ámbito, con la cual nuestro equipo ha tenido una experiencia positiva. Ofrece funciones estándar como seguimiento de modelos (LLM tracing), evaluación y gestión de prompts, además de una integración fluida con los principales proveedores y frameworks de LLM. Esto facilita la recopilación de información sobre la salida de los modelos, la latencia y el uso de tokens con una configuración mínima. Hasta el momento, nuestra experiencia se limita a la herramienta de código abierto, pero la plataforma más amplia de Arize ofrece funcionalidades más completas. Confiamos en poder explorar en mayor detalle en el futuro.
-
34. Chainloop
Chainloop es una plataforma para cadena de suministros de seguridad de código abierto que ayuda a los equipos de seguridad a hacer cumplir sus políticas y a la vez permite a los equipos de desarrollo su fácil integración con los pipelines de CI/CD. Consiste en un plano de control que actúa como única fuente de verdad para las políticas de seguridad, y una interfaz de comandos (CLI) que ejecuta certificaciones dentro de los flujos de trabajo de CI/CD para asegurar el cumplimiento. Los equipos de seguridad definen contratos de flujos de trabajo especificando qué artefactos — como los SBOMs o los reportes de vulnerabilidades — deben ser recogidos, dónde almacenarlos y como evaluar el cumplimiento de las políticas. Chainloop usa Rego, la política de lenguaje OPA's, para validar certificaciones — por ejemplo, asegurando un estándar CycloneDX SBOM que cumpla con los requisitos de versión. Durante la ejecución del flujo de trabajo, artefactos de seguridad como SBOMs son adjuntados a una certificación y subidos al plano de control para su aplicación y auditoría. Esta estrategia asegura el cumplimiento de las políticas y puede ser impuesta de manera consistente y a escala a la vez que minimiza la fricción en los flujos de desarrollo. El resultado es un SLSA de nivel tres de conformidad de fuente de verdad única para metadatos, artefactos y certificaciones.
-
35. Deepseek R1
DeepSeek-R1 es la primera generación de modelos de razonamiento de DeepSeek. A través de una progresión de modelos no basados en razonamiento, los ingenieros de DeepSeek diseñaron y utilizaron métodos para maximizar la utilización del hardware. Estos incluyen Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, 8-bit floating points training (FP8) y low-level PTX programming. Su enfoque de co-diseño de computación de alto rendimiento permite a DeepSeek-R1 competir con los modelos de vanguardia a un costo significativamente reducido para el entrenamiento y la inferencia. DeepSeek-R1-Zero destaca también por otra innovación: los ingenieros han podido obtener capacidades de razonamiento a partir de un modelo no basado en razonamiento utilizando un simple aprendizaje por refuerzo, sin necesidad de ajustes finos supervisados. Todos los modelos de DeepSeek son de open-weight, lo que significa que están disponibles gratuitamente, aunque el código de entrenamiento y los datos siguen siendo propietarios. El repositorio incluye seis modelos densos destilados de DeepSeek-R1, basados en Llama y Qwen, con DeepSeek-R1-Distill-Qwen-32B superando a OpenAI-o1-mini en varios puntos de referencia.
-
36. Deno
Creado por Ryan Dahl, el inventor de Node.js, Deno se diseñó para solucionar lo que él consideraba errores de Node.js. Cuenta con un sistema de sandboxing más estricto, gestor de dependencias integrado y compatibilidad nativa con Typescript, un aspecto clave para su base de usuarios. Preferimos Deno para proyectos de Typescript, ya que se siente un verdadero entorno de ejecución y conjunto de herramientas de Typescript, en lugar de un complemento de Node.js.
Desde su inclusion en el Radar del 2019, Deno ha realizado significativos avances, El lanzamiento de Deno 2 introduce la retrocompatibilidad con Node.js y librerías npm, versiones de soporte a largo plazo (LTS) y otras mejoras. Antes, una de las mayores barreras para adoptar Node.js era la necesidad de reescribir las aplicaciones. Estas actualizaciones reducen la complejidad de la migración al tiempo que amplían las opciones de dependencia para herramientas y sistemas de apoyo. Dado el enorme ecosistema de Node.js y npm, estos cambios deberían impulsar una mayor aceptación.
Además, la biblioteca estándar de Deno se ha estabilizado, ayudando a combatir la proliferación de paquetes npm de bajo valor en todo el ecosistema. Sus herramientas y su biblioteca estándar hacen que TypeScript o JavaScript resulten más atractivos para el desarrollo del lado del servidor. Sin embargo, advertimos que no se debe elegir una plataforma únicamente para evitar programación políglota.
-
37. Graffiti
Graphiti crea grafos de conocimiento dinámicos y con conciencia temporal que capturan hechos y relaciones en evolución. Nuestros equipos utilizan GraphRAG para descubrir relaciones en los datos, lo que mejora la precisión en la recuperación y las respuestas. Dado que los conjuntos de datos evolucionan constantemente, Graphiti mantiene metadatos temporales en los bordes del grafo para registrar los ciclos de vida de las relaciones. Almacena datos estructurados y no estructurados en forma de episodes discretos y admite consultas mediante una fusión de algoritmos temporales, de texto completo, semánticos y de grafos. Para aplicaciones basadas en LLM — ya sea RAG o agentic - Graphiti permite la recuperación a largo plazo y el razonamiento basado en estados.
-
38. Helicone
Similar a Langfuse, Weights & Biases y Arize Phoenix, Helicone es una plataforma administrada de LLMOps diseñada para satisfacer la creciente demanda empresarial de gestión de costos de LLM, evaluación de ROI y mitigación de riesgos. De código abierto y centrada en desarrolladores, Helicone admite aplicaciones de IA listas para producción, ofreciendo experimentación con prompts, monitorización, depuración y optimización a lo largo de todo el ciclo de vida de los LLM. Permite el análisis en tiempo real de costos, utilización, rendimiento y trazas de pila de los agentes a través de varios proveedores de LLM. Aunque simplifica la gestión de operaciones de LLM, la plataforma aún está en desarrollo y puede requerir cierta experiencia para aprovechar completamente sus funciones avanzadas. Nuestro equipo la ha estado utilizando con una buena experiencia hasta ahora.
-
39. Humanloop
Humanloop es una plataforma emergente que busca hacer que los sistemas de IA sean más confiables, adaptables y alineados con las necesidades de las personas usuarias, integrando retroalimentación humana en puntos clave de decisión. Ofrece herramientas para el etiquetado humano, aprendizaje activo y ajuste fino con intervención humana, así como la evaluación de modelos de lenguaje (LLM) en función de los requisitos del negocio. Además, facilita la gestión rentable del ciclo de vida de las soluciones de IA generativa con mayor control y eficiencia. Humanloop promueve la colaboración a través de un espacio de trabajo compartido, gestión de prompts con control de versiones e integración CI/CD para prevenir regresiones. También incluye funciones de observabilidad, como trazabilidad, logs, alertas y límites de seguridad para monitorear y optimizar el rendimiento de la IA. Estas capacidades hacen que Humanloop sea especialmente relevante para organizaciones que implementan IA en entornos regulados o de alto riesgo, donde la supervisión humana es clave. Con su enfoque en prácticas de IA responsable, Humanloop es una opción que vale la pena considerar para equipos que buscan construir sistemas de IA escalables y éticos.
-
40. Model Context Protocol (MCP)
Uno de los mayores desafíos relacionados al prompting (o interacción con IA a través de lenguaje natural) es garantizar que la herramienta de IA tenga acceso a todo el contexto relevante para la tarea. Frecuentemente este contexto existe dentro de los sistemas que utilizamos en nuestro día a día: wikis, aplicaciones de gestión de tareas, bases de datos o sistemas de observabilidad. La integración fluida entre las herramientas de IA y estas fuentes de información puede mejorar significativamente la calidad de los resultados generados por la IA. El Model Context Protocol (MCP), un estándar abierto publicado por Anthropic, proporciona un marco de trabajo estandarizado para integrar aplicaciones LLM con fuentes de datos y herramientas externas. Define clientes y servidores MCP, donde los servidores acceden a las fuentes de datos y los clientes integran y usan estos datos para mejorar las solicitudes. Muchos asistentes de código ya han implementado la integración de MCP, permitiéndoles actuar como clientes MCP. Los servidores MCP pueden ejecutarse de dos maneras: localmente, como procesos Python o Node que se ejecutan en la máquina del usuario, o de forma remota, como un servidor al que el cliente MCP se conecta vía SSE (aunque todavía no hemos visto ningún uso de la variante de servidor remoto). Actualmente, MCP se usa principalmente de la primera manera, con desarrolladores(as) clonando implementaciones open-source del servidor. Si bien los servidores locales ofrecen una forma sencilla de evitar dependencias de terceros, siguen siendo menos accesibles para usuarios no técnicos e introducen desafíos tales como la gestión de actualizaciones y la gobernanza. Dicho esto, resulta sencillo imaginar cómo este estándar podría evolucionar hacia un ecosistema más maduro y accesible para sus usuarios en el futuro.
-
41. Open WebUI
Open WebUI es una plataforma de IA de código abierto y auto hospedada con un versátil conjunto de características. Soporta APIs compatibles con OpenAI y se integra con proveedores como OpenRouter y GroqCloud entre otros. Puede ejecutarse completamente sin conexión conectándose a modelos locales o auto-hospedados a través de Ollama. Open WebUI incluye una capacidad integrada para RAG, lo que permite a los usuarios interactuar con documentos locales y web mediante chat. Ofrece controles RBAC granulares, habilitando diferentes modelos y capacidades de plataforma para diferentes grupos de usuarios. La plataforma es extensible a través de Funciones — bloques de construcción basados en Python que personalizan y mejoran sus capacidades. Otra característica clave es la evaluación de los modelos, que incluye un modo competitivo que permite comparar LLMs uno frente a otro en tareas específicas. Open WebUI puede ser desplegado a diversas escalas — como un asistente personal de IA, un asistente de colaboración en equipo o una plataforma de IA a nivel empresarial.
-
42. pg_mooncake
pg_mooncake es una extensión de PostgreSQL que añade almacenamiento orientado a columnas y ejecución vectorizada. Las tablas en formato columnar se almacenan como tablas Iceberg o Delta Lake en el sistema de archivos local o en cualquier almacenamiento en la nube compatible con S3. pg_mooncake tiene soporte para cargar datos desde formatos de archivo como Parquet, CSV o incluso conjuntos de datos de Hugging Face. Puede ser una buena opción para análisis de datos masivos que normalmente requieren almacenamiento columnar, ya que elimina la necesidad de incorporar tecnologías de almacenamiento columnar dedicadas en tu infraestructura.
-
43. Modelos de razonamiento
Uno de los avances más significativos en IA desde el último Radar es el descubrimiento y proliferación de los modelos de razonamiento. También comercializados comomodelos de pensamiento, estos modelos han alcanzado un rendimiento a nivel humano en benchmarks como matemáticas avanzadas y programación. Los modelos de razonamiento suelen entrenarse mediante aprendizaje por refuerzo o fine-tuning supervisado, mejorando capacidades como el raciocinio paso a paso (CoT), la exploración de alternativas (ToT) o la auto-corrección. Algunos ejemplos incluyen o1/o3 de OpenAI, DeepSeek R1 y Gemini 2.0 Flash Thinking. Sin embargo, estos modelos deben considerarse una categoría propia de LLMs en lugar de simples versiones más avanzadas. Estas prestaciones mejoradas tienen un costo. Los modelos de razonamiento requieren un tiempo de respuesta y consumo de tokens mayor, lo que ha llevado a llamarlos de manera jocosaIA más lenta, del inglés “Slower AI” (como si la IA actual no fuera ya lo suficientemente lenta). No todas las tareas justifican este sacrificio. Para tareas más simples como la sumarización de texto, generación de contenido o chatbots de respuesta rápida, los LLMs de propósito general siguen siendo la mejor opción. Recomendamos usar modelos de razonamiento en campos del STEM, y en resolución de problemas complejos y toma de decisiones como, por ejemplo, usando LLMs como jueces o para mejorar la explicabilidad mediante salidas explícitas de CoT. Al momento de escribir esto, Claude 3.7 Sonnet, un modelo híbrido de razonamiento, acaba de ser lanzado, adelantando una posible fusión entre los LLMs tradicionales y los modelos de razonamiento.
-
44. Restate
Restate es una plataforma de ejecución duradera, similar a Temporal, desarrollada por los creadores originales de Apache Flink. Entre sus características, ofrece flujos de trabajo como código, procesamiento de eventos con estado, el patrón saga y máquinas de estado duraderas. Escrito en Rust y desplegado como un único binario, utiliza un registro distribuido para almacenar eventos, implementado mediante un algoritmo de consenso virtual basado en Flexible Paxos, lo que garantiza durabilidad incluso en caso de fallo de un nodo. Los SDKs están disponibles para los lenguajes más comunes: Java, Go, Rust y TypeScript. Seguimos sosteniendo que es mejor evitar transacciones distribuidas en sistemas distribuidos, debido tanto a la complejidad adicional como al inevitable sobrecoste operativo que implican. Sin embargo, esta plataforma merece ser evaluada si en tu entorno no puedes evitar el uso de transacciones distribuidas.
-
45. Supabase
Supabase es una alternativa de código abierto a Firebase para construir backends escalables y seguros. Ofrece un conjunto de servicios integrados, incluyendo una base de datos PostgreSQL, autenticación, APIs instantáneas, funciones Edge, suscripciones en tiempo real, almacenamiento y representaciones vectoriales. Supabase tiene como objetivo agilizar el desarrollo back-end, permitiendo a los desarrolladores permitiendo a los desarrolladores concentrarse en la creación de front-end mientras aprovechan el poder y la flexibilidad de tecnologías de código abierto. A diferencia de Firebase, Supabase está construido sobre PostgreSQL. Si estás trabajando en un prototipo o MVP, deberías considerar usar Supabase ya que será más sencillo migrar a otra solución en SQL después de la fase de prototipado.
-
46. Synthesized
Un desafío común en el desarrollo de software es la generación de datos de prueba para entornos de desarrollo y prueba. Idealmente, estos datos deberían asemejarse lo más posible a los de producción, asegurando al mismo tiempo que no se exponga información personal identificable ni datos sensibles. Aunque esto puede parecer sencillo, la generación de datos de prueba está lejos de serlo. De ahí el motivo de nuestro interés en Synthesized — una plataforma que permite enmascarar y crear subconjuntos de datos de producción existentes o generar datos sintéticos estadísticamente relevantes. Se integra directamente en los procesos de compilación y ofrece enmascaramiento de privacidad, proporcionando anonimización a nivel de atributo mediante técnicas irreversibles de ofuscación de datos como hashing, substitución aleatoria o descarte. Synthesized también puede generar grandes volúmenes de datos sintéticos para pruebas de carga. Aunque incluye las funcionalidades esperadas de GenAI, su propuesta central aborda un desafío real y persistente para los equipos de desarrollo, lo que la convierte en una opción que vale la pena explorar.
-
47. Tonic.ai
Tonic.ai forma parte de una tendencia creciente en plataformas diseñadas para generar datos sintéticos realistas y anonimizados para entornos de desarrollo, pruebas y control de calidad. Similar a Synthesized, Tonic.ai es una plataforma con un conjunto completo de herramientas que abordan diversas necesidades de síntesis de datos, en contraste con el enfoque basado en bibliotecas de Synthetic Data Vault. Tonic.ai genera datos tanto estructurados como no estructurados, manteniendo las propiedades estadísticas de los datos de producción al mismo tiempo que garantiza la privacidad y el cumplimiento mediante técnicas de privacidad diferencial. Las características clave incluyen la detección, clasificación y redacción automática de información sensible en datos no estructurados, junto con el aprovisionamiento de bases de datos bajo demanda a través de Tonic Ephemeral. También ofrece Tonic Textual, un lago de datos seguro que ayuda a los desarrolladores de IA a aprovechar los datos no estructurados para sistemas de generación mejorada por recuperación (RAG) y el ajuste fino de LLM. Los equipos que buscan acelerar la velocidad de ingeniería mientras generan datos escalables y realistas — todo ello cumpliendo con estrictos requisitos de privacidad de datos — deberían considerar evaluar Tonic.ai.
-
48. turbopuffer
turbopuffer es un motor de búsqueda serverless y multi-tenant que integra a la perfección búsquedas vectoriales y de texto sobre almacenamiento de objetos. Nos gusta su arquitectura y sus decisiones de diseño, especialmente su foco en la durabilidad, escalabilidad y eficiencia de coste. Gracias a su uso del almacenamiento de objetos como log de escritura anticipada mientras mantiene sus nodos de consulta sin estado, es adecuado para cargas de búsqueda a gran escala.
Diseñado para el rendimiento y la precisión, turbopuffer ofrece una alta exhaustividad de forma predeterminada, incluso en búsquedas complejas basadas en filtros. Almacena en caché los resultados de consultas en SSD NVMe y mantiene en memoria los namespaces de acceso frecuente, permitiendo búsquedas de baja latencia sobre miles de millones de documentos. Esto lo hace ideal para la recuperación de documentos de gran escala, búsqueda vectorial y generación mejorada por recuperación (RAG) de aplicaciones IA. Sin embargo, su dependencia en el almacenamiento de objetos introduce algunas desventajas en la latencia de consultas, haciéndolo más efectivo para cargas de trabajo que se benefician de la computación distribuida y sin estado. turbopuffer potencia sistemas de producción de gran escala como Cursor, pero actualmente solo está disponible a través de referencia o invitación.
-
49. VectorChord
VectorChord es una extensión de PostgreSQL para búsquedas vectoriales por similaridad (vector similarity search), desarrollada por los creadores del pgvecto.rs como su sucesora. Es de código abierto, compatible con los tipos de datos de pgvector y diseñada para búsquedas vectoriales de alto rendimiento, eficientes en disco. Utiliza IVF (Inverted File Index - Indexado Invertido de Archivos) junto con la cuantificación de RaBitQ para permitir una búsqueda vectorial rápida, escalable y precisa mientras reduce significativamente la carga computacional. Como las demás extensiones de PostgreSQL en este ámbito, aprovecha el ecosistema PostgreSQL, permitiendo la búsqueda vectorial junto con operaciones transaccionales estándar. Aunque aún se encuentra en sus primeros pasos, vale la pena evaluar VectorChord para cargas de trabajo de búsqueda vectorial.
Hold
-
50. Gestión de API híbridas con Tyk
Hemos observado múltiples equipos han tenido problemas con el gestor de API híbridas Tyk. Si bien la idea de contar con un plano de control gestionado y planos de datos autogestionados ofrece flexibilidad para la configuración de infraestructura compleja (cómo el multi-cloud y de nube híbrida), los equipos han experimentado incidentes en el plano de control que fueron descubiertos internamente en lugar de por Tyk, demostrando posibles brechas de observabilidad en los ambientes alojados en AWS de Tyk. Es más, el nivel de soporte ante incidentes parece ser lento; la comunicación mediante tickets y correos electrónicos no es lo ideal en estas situaciones. Los equipos también han reportado problemas con la madurez de la documentación de Tyk, considerándolo a menudo inadecuado para escenarios y problemas complejos. Además, otros productos del ecosistema de Tyk que también parecen inmaduros, por ejemplo se ha reportado que el portal para desarrolladores empresariales no es compatible con versiones anteriores y tiene capacidades de personalización limitadas. Especialmente en el caso de la configuración híbrida de Tyk, recomendamos proceder con cautela y continuaremos monitoreando su madurez.
Unable to find something you expected to see?
Each edition of the Radar features blips reflecting what we came across during the previous six months. We might have covered what you are looking for on a previous Radar already. We sometimes cull things just because there are too many to talk about. A blip might also be missing because the Radar reflects our experience, it is not based on a comprehensive market analysis.
