Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volumen 30 | Abril 2024

Plataformas

Plataformas

Adoptar ?

  • Los eventos son mecanismos comunes de la arquitectura basada en eventos o aplicaciones sin servidor. Sin embargo, los productores o proveedores de la nube tienden a soportarlos de diferentes maneras, lo que impide la interoperabilidad entre plataformas e infraestructuras.

    CloudEvents es una especificación para describir datos de eventos en formatos comunes para proporcionar interoperabilidad entre servicios, plataformas y sistemas. Proporciona SDKs para varios lenguajes de programación para integrar la especificación dentro de la aplicación o cadena de herramientas. Nuestros equipos lo usan no sólo para fines alrededor de las plataformas en la nube, sino también para la especificación de eventos de dominio, entre otros escenarios. CloudEvents está alojado por la Cloud Native Computing Foundation (CNCF) y es un proyecto ya graduado. Nuestros equipos utilizan CloudEvents de forma predeterminada para crear arquitecturas basadas en eventos y, por ese motivo, lo trasladamos a Adoptar.

Probar ?

  • Las instancias de cómputo Arm en la nube se han vuelto cada vez más populares en los últimos años debido a su costo y eficiencia enérgetica comparado con las instancias tradicionales basadas en x86. Muchos proveedores de la nube ahora ofrecen instancias basadas en Arm, incluidos AWS, Azure y GCP. El costo beneficio de ejecutar Arm en la nube puede ser particularmente beneficioso para negocios que efectúan grandes cargas de trabajo o tienen necesidad de escalar. Estamos observando a muchos de nuestros equipos migrar a instancias Arm para cargas de trabajo como servicios JVM e incluso bases de datos (incluyendo RDS) sin ningún cambio en el código y cambios mínimos en los scripts de construcción. Las nuevas aplicaciones y sistemas basados en la nube utilizan cada vez más Arm de forma predeterminada. Basados en nuestras experiencias, recomendamos las instancias de cómputo Arm para todas las cargas de trabajo a menos que existan dependencias de arquitectura específicas. Las herramientas que brindan soporte de múltiples arquitecturas, como multi-arch Docker images, también simplifican la construcción y ejecución de los flujos de trabajo.

  • Azure Container Apps es una plataforma de aplicaciones Kubernetes gestionada que agiliza el despliegue de cargas de trabajo en contenedores. En comparación con Azure Kubernetes Service (AKS), la carga operativa y administrativa de la ejecución de aplicaciones en contenedores se reduce, a expensas de cierta flexibilidad y control, hecho que los equipos deben tener en cuenta. Otro producto en esta área, Azure Container Instances, suele ser demasiado limitado para su uso en producción. Nuestros equipos empezaron a utilizar Azure Container Apps el año pasado, cuando aún estaba en fase de vista previa pública, con buenos resultados incluso al ejecutar contenedores grandes. Ahora que está disponible de forma general, lo estamos considerando para más casos de uso. Tanto Dapr como KEDA Autoscaler son compatibles.

  • Azure OpenAI Service proporciona acceso a GPT-4, GPT-35-Turbo, Embeddings, modelo DALL-E y más de OpenAI a través de una API REST, un SDK de Python y una interfaz web. Los modelos se pueden adaptar a tareas como la generación de contenido, resúmenes, búsqueda semántica y traducción de lenguaje natural a código. Fine-tuning también está disponible mediante el aprendizaje con pocos datos o ejemplos (few-shot learning) y la personalización de hiper parámetros. En comparación con la propia API de OpenAI, Azure OpenAI Service se beneficia de las características de seguridad y cumplimiento de nivel empresarial de Azure, está disponible para más regiones (aunque la disponibilidad es limitada para cada una de las regiones geográficas más grandes) y admite redes privadas, filtrado de contenido y control manual de versiones del modelo. Por estos motivos y nuestra experiencia positiva con él, recomendamos que las empresas que ya utilizan Azure consideren utilizar Azure OpenAI Service en lugar de la API de OpenAI.

  • Al construir productos de datos usando un enfoque en el producto, es necesario considerar el linaje, la visibilidad y la gobernanza de los datos. Nuestros equipos han encontrado que DataHub puede ser de gran ayuda en estos casos. A pesar de que las primeras versiones de DataHub necesitaban que se genere una rama y se gestione la sincronización desde el producto principal a mano (si existiese la necesidad de actualizar el modelo de metadatos), las mejoras recientes han introducido características que permiten a nuestros equipos implementar modelos personalizados de metadatos con una arquitectura basada en complementos. Otra característica útil de DataHub es el robusto linaje de datos de extremo a extremo, desde el origen, pasando por el procesamiento, hasta el consumo. DataHub soporta integraciones de tipo push y pull para la extracción de linajes que automáticamente examinan los metadatos de orígenes, schedulers, orquestadores (scanning the Airflow DAG), tareas de procesamiento de pipelines y tableros (dashboards), por nombrar algunos. Como opción de código abierto para un catálogo de datos holístico, DataHub se está convirtiendo en la opción por defecto de nuestros equipos.

  • La base de código para la orquestación de infraestructura interna con frecuencia se convierte en una pérdida de tiempo para mantener y solucionar problemas. La aparición de plataformas de orquestación de infraestructuras promete estandarizar y producir varios aspectos de los flujos de trabajo de despliegue y entrega de código de infraestructura. Estos incluyen herramientas de compilación como Terragrunt y Terraspace, servicios de los proveedores de herramientas IaC como Terraform Cloud y Pulumi Cloud así como herramientas y servicios de plataformas independientes como env0 y Spacelift. Existe un rico ecosistema de herramientas y servicios de orquestación de Terraform, frecuentemente llamado TACOS (Terraform Automation and Collaboration Software), incluyendo Atlantis, Digger, Scalr, Terramate y Terrateam. Cada una de estas herramientas permite diferentes flujos de trabajo, incluyendo GitOps, Entrega Continua y cumplimiento como código. Damos la bienvenida al crecimiento de soluciones en este espacio. Recomendamos que los equipos de plataforma e ingeniería exploren cómo usarlos para reducir la cantidad de código diferenciador que necesitan para desarrollar y mantener sus infraestructuras. La estandarización de cómo se estructura, comparte, entrega y despliega el código de infraestructura, también debería crear oportunidades para el surgimiento de un ecosistema de herramientas compatibles para probar, medir y monitorear la infraestructura.

  • Las herramientas en el espacio de la infraestructura como código siguen evolucionando, y nos complace ver que Pulumi no es la excepción a esta tendencia. La plataforma recientemente añadio soporte para Java y YAML, para gestionar la infraestructura a escala, así como para multitud de configuraciones e integraciones en la nube, haciendo a la plataforma aún más convincente. Para nuestros equipos, sigue siendo la principal alternativa a Terraform para desarrollar código para múltiples plataformas en la nube.

  • Los cambios en las licencias de Docker Desktop nos han dejado buscando desesperadamente alternativas para ejecutar una flota de contenedores en el entorno local del portátil de las personas desarrolladoras. Hemos tenido éxito recientemente con Rancher Desktop. Esta aplicación gratuita y de código abierto es relativamente fácil de descargar e instalar en máquinas Apple, Windows o Linux y proporciona un práctico clúster local de Kubernetes con una interfaz gráfica de usuario para la configuración y monitorización. Aunque Colima se ha convertido en nuestra alternativa predilecta a Docker Desktop, es fundamentalmente una herramienta de línea de comandos. En contraposición, Rancher Desktop atraerá a aquellas personas que no quieran renunciar a la interfaz gráfica que Docker Desktop proporciona. Al igual que Colima, Rancher Desktop te permite elegir entre dockerd o containerd como el entorno de ejecución de contenedores subyacente. La elección de containerd directo te libera de DockerCLI, pero la opción de dockerd proporciona compatibilidad con otras herramientas que dependen de él para comunicarse con el demonio de ejecución.

  • Weights & Biases es una plataforma de aprendizaje automático (ML por sus siglas en inglés) para construir modelos rápidamente mediante el seguimiento de experimentos, versionado de conjuntos de datos, visualización del rendimiento del modelo y gestión de modelos. Puede integrarse con el código de ML existente para obtener métricas en vivo, registros de terminal y estadísticas del sistema transmitidas al tablero para un análisis más profundo. Recientemente, Weights & Biases ha expandido su alcance a la observabilidad de modelos de lenguaje de gran escala (LLM) con Traces. Traces visualiza el flujo de ejecución de cadenas de prompts, así como las entradas/salidas intermedias, y proporciona metadatos sobre la ejecución de la cadena (como los tokens utilizados y el tiempo de inicio y finalización). Nuestros equipos lo encuentran útil para depurar y obtener un mayor entendimiento de la arquitectura de secuencias de prompts.

Evaluar ?

  • Bun es un nuevo motor de tiempo de ejecución (run time) para JavaScript, similar a Node.js o Deno. A diferencia de éstos, Bun está creado a partir del componente JavaScriptCore de WebKit en vez del motor V8 de Chrome. Diseñado como un sustituto directo para Node.js, Bun es un archivo ejecutable (escrito en Zig) que actúa como un empaquetador (bundler), transpilador (transpiler), y administrador de paquetes para aplicaciones JavaScript y TypeScript. Desde nuestra última edición, Bun ha dejado la fase beta con la versión estable 1.0. Su implementación se ha hecho contemplando varias optimizaciones, como un arranque rápido, renderización mejorada en el servidor y un gestor de paquetes alternativo mucho más veloz, por lo que te animamos a probarlo.

  • Cuando se gestionan arquitecturas distribuidas, tener en cuenta el coste de ordenar, indexar y acceder a los datos es tan importante como la observabilidad. Chronosphere Adopta un enfoque único a la gestión de costes, haciendo un seguimiento del uso de los datos de observabilidad para que las organizaciones puedan considerar las compensaciones coste-valor de distintas métricas. Con la ayuda del Analizador de uso de métricas, que forma parte del Panel de control de Chronosphere, los equipos pueden identificar y excluir las métricas que rara vez (o nunca) utilizan, lo que significa un importante ahorro de costes al reducir la cantidad de datos que las organizaciones tienen que revisar. Dadas estas ventajas, así como la capacidad de Chronosphere para igualar la funcionalidad de otras herramientas de observabilidad para soluciones alojadas en la nube, creemos que es una opción convincente que las organizaciones deben considerar.

  • Con el incremento de la adopción de data mesh, nuestros equipos han estado en la búsqueda de plataformas de datos que traten a los productos de datos como entidades de primera clase. DataOS es uno de esos productos. Proporciona una gestión del ciclo de vida de extremo a extremo para diseñar, construir, desplegar y evolucionar productos de datos. Ofrece especificaciones declarativas estandarizadas escritas en YAML que abstraen la complejidad de bajo nivel de la instanciación de la infraestructura y permiten a las personas desarrolladoras definir fácilmente los productos de datos a través de un CLI/API. Este soporta políticas de control de acceso con ABAC y políticas de datos para filtrar y enmascarar los datos. Otra funcionalidad a resaltar es la habilidad de federar datos por toda una gran variedad de fuentes de datos, lo que reduce la duplicación y el movimiento de datos a un lugar centralizado. DataOS funciona mejor para escenarios nuevos donde hace el trabajo pesado ya que proporciona una solución lista para usar para la gobernanza y descubrimiento de datos, para el manejo de los recursos de infraestructura y para la observabilidad. En proyectos con antigüedad, la habilidad de orquestar recursos fuera de DataOS (por ejemplo, pilas de datos como Databricks) está en estado emergente y aún en evolución. Si tu ecosistema no tiene mucha opinión sobre las herramientas de datos, DataOS es una buena manera de acelerar tu camino de construir, desplegar y consumir productos de datos de extremo a extremo.

  • Dify es una plataforma visual para el desarrollo de aplicaciones basadas en grandes modelos de lenguaje (LLM, large language model) que hace que la creación de prototipos sea aún más accesible. Soporta el desarrollo de aplicaciones de chat y de generación de texto con plantillas de prompts. Además, Dify soporta generación aumentada por recuperación (RAG, retrieval-augmented generation) con conjuntos de datos importados y puede trabajar con múltiples modelos. Estamos entusiasmados con esta categoría de aplicaciones. Sin embargo, basados en nuestra experiencia, Dify aún no está totalmente lista, ya que algunas de sus características presentan errores o no parecen estar completamente desarrolladas. No obstante, por el momento, no conocemos de ningún competidor que sea mejor.

  • A pesar de que las bases de datos vectoriales han ganado popularidad para los casos de uso de generación mejorada por recuperación (RAG), Investigaciones y reportes de experiencia sugieren que combinar la busqueda de textos completos tradicional con la busqueda por vectores (a una busqueda hibrida) genera mejores resultados. A través de Elasticsearch Relevance Engine (ESRE) , la bien establecida plataforma de búsqueda de texto completo Elasticsearch soporta modelos embebidos tanto incorporados como adaptados, búsqueda vectorial y busqueda hibrida con mecanismos de clasificación como la Fusion Reciproca Categorica. A pesar de que este espacio está aún madurando, en nuestra experiencia, utilizar estas funcionalidades ESRE en conjunto con las capacidades de filtrado, clasificación y ordenamiento tradicionales que vienen con Elasticsearch han otorgado resultados prometedores, sugiriendo que las plataformas de búsqueda establecidas que soportan búsqueda semántica no deben ser pasadas por alto.

  • Los datos sobre facturación en la nube y SaaS pueden ser complejos, inconsistentes entre proveedores y difíciles de entender. FOCUS (FinOps Open Cost & Usage Specification) busca reducir la fricción con una especificación que contiene un conjunto de terminologías (alineadas con el framework de FinOps), un esquema y un conjunto mínimo de requerimientos para los datos de facturación. La especificación está destinada a soportar casos de uso común a una variedad de profesionales de FinOps. A pesar de que sigue en una fase temprana de desarrollo y adopción, vale la pena echarle un vistazo porque, con la creciente adopción de la industria, FOCUS hará más fácil para las plataformas y los usuarios finales obtener una visión holística de sus gastos en la nube a través de una larga lista de proveedores de la nube y SaaS.

  • Gemini es una familia de LLMs fundamentales diseñados para ser ejecutados en una gran variedad de hardware, desde data centers hasta teléfonos celulares. Gemini Nano ha sido específicamente optimizado y reducido para ejecutarse en aceleradores de silicio móviles. Esto habilita capacidades como resúmen de texto de alta calidad, respuestas de contexto inteligentes y correcciones gramaticales avanzadas. Por ejemplo, el entendimiento de lenguaje de Gemini Nano le permite al Pixel 8 Pro resumir contenido en la app de Grabación. La ejecución en el dispositivo elimina muchas de las preocupaciones de latencia y privacidad relacionadas con sistemas basados en la nube y además permite que algunas características sigan funcionando sin conexión de red. Android AICore simplifica la integración del modelo en aplicaciones Android, pero solo unos pocos dispositivos son soportados al momento de escribir este volumen del radar.

  • HyperDX es una plataforma de observabilidad de código abierto, que unifica los tres pilares de la observabilidad: registros, métricas y seguimiento. Con esto, puedes correlacionar un extremo a otro y pasar desde la reproducción de sesiones hasta los registros y seguimiento en solo unos pocos clics. La plataforma aprovecha a ClickHouse como un almacén central de datos para toda la información de telemetría, y escala para agregar patrones de registro y condensar miles de millones de eventos en distintos clusters. Aunque puedes elegir entre varias plataformas de observabilidad, queremos destacar a HyperDX por su experiencia de desarrollo unificada.

  • IcePanel facilita el modelado de arquitectura y la creación de diagramas utilizando el modelo C4 de forma colaborativa, lo cual permite a los stakeholders técnicos y comerciales acercarse al nivel de detalle técnico que necesitan. Admite el modelado de componentes de arquitectura cuyos metadatos y conexiones se pueden reutilizar entre diagramas, junto con la visualización de flujos entre esos componentes. El control de versiones y el etiquetado permiten a los colaboradores modelar diferentes estados de la arquitectura (por ejemplo, tal como está versus lo que será) y realizar un seguimiento de las clasificaciones definidas por el usuario de varias partes de la misma. Estamos atentos a IcePanel por su potencial para mejorar la colaboración en arquitectura, particularmente para organizaciones con arquitecturas complejas. Para encontrar una alternativa con mejor soporte para diagramas como código, consulta https://structurizr.com/.

  • Langfuse es una plataforma de ingeniería para observabilidad, testabilidad y monitorización de aplicaciones que utilizan Modelos de Lenguaje de Gran Tamaño (LLM). Su SDK permite utilizar Python, JavaScript y TypeScript, OpenAI, LangChain y LiteLLM entre otros lenguajes y frameworks. Puedes auto-hospedar la versión abierta o utilizarla como un servicio de pago en la nube. Nuestros equipos han tenido una experiencia positiva, particularmente depurando cadenas LLM complejas, analizando la completitud y monitorizando métricas clave como coste y latencia entre usuarios, sesiones, geografías, prestaciones y versiones del modelo. Si estás considerando construir aplicaciones LLM dirigidas por datos, Langfuse es una buena opción a tener en cuenta.

  • Qdrant es una base de datos de vectores escrita en Rust de código abierto. En la edición del Radar de septiembre 2023, hablamos de pgvector, una extensión de PostgreSQL para buscar vectores. Sin embargo, si tienes que escalar la base de datos de vectores horizontalmente entre nodos, te recomendamos evaluar Qdrant. Tiene integrado soporte de aceleración single instruction, multiple data (SIMD) para mejorar el rendimiento de la búsqueda y ayudarte a asociar los payloads de JSON con vectores.

  • Mientras la arquitectura Arm continúa expandiendo su impacto — hemos actualizado nuestra evaluación de Arm en la nube en abril de 2024 — el interés en la nueva y menos establecida arquitectura RISC-V también crece. RISC-V no trae avances en rendimiento o eficiencia — de hecho, su rendimiento por vatio es similar al de Arm y no puede competir en rendimiento absoluto — pero es de código abierto, modular y no está atado a una única compañía. Esto lo convierte en una propuesta atractiva para sistemas embebidos, donde el costo de las licencias de arquitecturas propietarias es una preocupación significativa. Esta también es la razón por la cual el campo de RISC-V para sistemas embebidos está madurando y algunas compañías, incluyendo SiFive y espressif están ofreciendo tableros de desarrollo y SoCs para una amplia gama de aplicaciones. Microcontroladores y microprocesadores capaces de ejecutar el kernel de Linux están disponibles actualmente, junto con la pila de software y el conjunto de herramientas correspondientes. Seguimos atentos a este espacio y esperamos ver una mayor adopción en los próximos años.

  • Tigerbeetle es una base de datos distribuida de código abierto para contabilidad financiera. A diferencia de otras bases de datos, está diseñada para ser una máquina de estado de dominio específico para mayor seguridad y rendimiento. El estado de un nodo en el clúster se replica de forma determinista en otros nodos mediante el protocolo de consenso Viewstamped Replication. Nos gustan bastante las decisiones de diseño detrás de Tigerbeetle para implementar la contabilidad de doble entrada con estrictas garantías de serialización.

  • WebTransport es un protocolo basado en HTTP/3 que ofrece comunicación bidireccional entre servidores y aplicaciones. WebTransport ofrece varios beneficios sobre su predecesor, WebSockets, incluyendo conexiones más rápidas, menor latencia y la capacidad para manejar flujos de datos, tanto ordenados y confiables, como no ordenados (como UDP). Puede manejar múltiples flujos en la misma conexión sin bloqueos de línea de cabecera, permitiendo una comunicación más eficiente en aplicaciones complejas. En general, WebTransport es adecuado para un amplio rango de casos de uso, entre ellos aplicaciones web en tiempo real, streaming de medios y comunicaciones de datos para Internet de las Cosas (IoT). Aunque WebTransport aún está en una etapa inicial de su desarrollo (el soporte entre los navegadores va madurando gradualmente, con librerías populares como socket.io que ya lo admite) nuestros equipos están actualmente evaluando su potencial para aplicaciones de IoT en tiempo real.

  • Zarf es un gestor de paquetes declarativo para ambientes offline y semiconectados de Kubernetes. Con Zarf, puedes crear y configurar aplicaciones mientras está conectado a Internet; una vez creados, puedes empacar y enviar a un ambiente desconectado para ser desplegado. Como herramienta independiente, Zarf trae consigo varias características útiles, incluyendo generación de Lista de Materiales de Software (SBOM en inglés), registro de Docker incorporado, Gitea y tableros de K9s para administrar clústers desde la terminal. Entrega de software Air-gap para aplicaciones nativas en la nube tiene algunos desafíos; Zarf aborda la mayoría de ellos.

  • ZITADEL es una herramienta de gestión de identidades y usuarios de código abierto, y una alternativa a Keycloak. Es ligera (escrita en Golang), tiene opciones de despliegue flexibles y es fácil de configurar y gestionar. También es multi-tenant, ofrece características completas para la construcción de sistemas de autenticación seguros y escalables, en particular para aplicaciones B2B, tiene características de seguridad integradas como la autenticación multifactor y pistas de auditoría. Con ZITADEL, los desarrolladores pueden reducir el tiempo de desarrollo, mejorar la seguridad de las aplicaciones y conseguir escalabilidad para bases de usuarios en crecimiento. Si buscas una herramienta de código abierto, segura y fácil de usar para la gestión de usuarios, ZITADEL es un firme candidato.

Resistir ?

 
  • platforms quadrant with radar rings Adoptar Probar Evaluar Resistir Adoptar Probar Evaluar Resistir
  • Nuevo
  • Modificado
  • Ningún cambio

¿No encontraste algo que esperabas ver?

 

Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.

¿No encontraste algo que esperabas ver?

 

Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores