Menú

Plataformas

Adoptar?

  • Anteriormente teníamos .NET Core en Adoptar, indicando que se ha convertido en la opción predeterminada para proyectos .NET. Sin embargo, creemos que merece la pena resaltarlo nuevamente. Con la versión 3.x de .NET Core liberada el año pasado la mayor parte de las características de .NET Framework han sido migradas a .NET Core. Con el anuncio de que .NET Framework está en su última versión Microsoft ha reforzado la opinión de que .NET Core es el futuro de .NET. Microsoft ha realizado mucho trabajo para hacer .NET Core fácil de usar con contenedores. La mayoría de nuestros proyectos basados en .NET Core apuntan a Linux y a menudo se despliegan en contenedores. La próxima versión de .NET 5 parece prometedora, y estamos deseando que llegue.

    Historia
  • Si estás construyendo y operando una arquitectura de microservicios a escala con Kubernetes, adoptar una malla de servicios para gestionar todos los aspectos transversales del funcionamiento de la arquitectura es una elección segura. Entre las diversas implementaciones de malla de servicios, Istio ha obtenido una adopción mayoritaria. Tiene un amplio conjunto de características, que incluyen descubrimiento de servicios, administración de tráfico, seguridad de servicio a servicio y de origen a servicio, observabilidad (incluyendo telemetría y rastreo distribuido), lanzamiento de nuevas versiones recurrentes y resiliencia. Su experiencia de usuario ha mejorado en las últimas versiones lanzadas, debido a su facilidad de instalación y arquitectura del panel de control. Istio ha bajado la vara en lo que se refiere a la implementación de microservicios a gran escala y con calidad operativa para muchos de nuestros clientes, pero también hay que admitir que la operación de instancias propias de Istio y Kubernetes requiere de una serie de conocimientos y recursos apropiados, lo que, lastimosamente, no es para cualquier persona.

    Historia

Probar?

  • Anka es un conjunto de herramientas para crear, gestionar, distribuir, construir y probar ambientes virtuales reproducibles de macOS para iOS y macOS. Provee una experiencia semejante a la de Docker para los ambientes macOS: arranque instantáneo, una interfaz de línea de comandos (CLI) para administrar máquinas virtuales y un registro para versionar y etiquetar máquinas virtuales para distribución. Hemos utilizado Anka para construir una nube privada de ambientes macOS para un cliente. Vale tomar en cuenta a esta herramienta cuando se trata de virtualizar ambientes macOS e iOS.

    Historia
  • Sin juzgar la técnica de GitOps, nos gustaría hablar sobre Argo CD dentro del ámbito de desarrollo y monitoreo de aplicaciones en ambientes Kubernetes. En base a su capacidad para automatizar el despliegue del estado deseado de las aplicaciones en los ambientes de destino en Kubernetes, y por la buena experiencia al solucionar problemas con despliegues fallidos, para verificar registros de eventos y para monitorear el estado de los despliegues, recomendamos que pruebes a Argo CD. Podrás ver en forma gráfica lo que está pasando en el cluster, cómo se propagan los cambios e incluso ver cómo los pods son creados y destruidos en tiempo real.

    Historia
  • La mayoría de proyectos con soporte para múltiples idiomas comienzan con equipos de desarrollo creando funcionalidades en un idioma y manejando el resto a través de traducciones fuera de línea, a través de correos electrónicos y hojas de cálculo. Aunque esta forma simple de trabajo funciona, las cosas pueden salirse de las manos rápidamente. Es posible debas que seguir respondiendo a las mismas preguntas de diferentes traductores, restándole energía a la colaboración entre traductores, correctores y el equipo de desarrollo. Crowdin es una de las pocas plataformas que ayudan a organizar de manera efectiva el flujo de trabajo de internacionalización de tu proyecto. Con Crowdin, el equipo de desarrollo puede continuar creando funcionalidades, mientras la plataforma organiza el texto que necesita ser traducido en un flujo de trabajo en línea. Nos gusta que Crowdin empuja a los equipos para que incorporen traducciones de forma continua e incremental en lugar de administrarlas en grandes lotes al final del desarrollo.

    Historia
  • Durante varios años, el núcleo de Linux ha incluido la máquina virtual extendida para el Filtro de Paquetes de Berkeley ( eBPF ) y ha proporcionado la posibilidad de adjuntar filtros eBPF a sockets concretos. Pero la extensión BPF va más allá del filtrado de paquetes y permite ejecutar scripts personalizados en varios puntos del kernel con muy poca sobrecarga. Aunque esta tecnología no es nueva, es ahora cuando se le puede sacar todo el partido con el incremento en el uso de microservicios desplegados como contenedores orquestados. Las comunicaciones servicio-servicio pueden ser complejas en estos sistemas, haciendo difícil relacionar problemas de latencia o rendimiento con una llamada a una API. Ahora estamos encontrando publicaciones de herramientas con scripts eBPF ya escritos para recolectar y visualizar tráfico de paquetes o informar sobre el uso de la CPU. Con el ascenso de Kubernetes, nos encontramos con una nueva generacion de aplicaciones de seguridad e instrumentación basadas en scripts eBPF para dominar la complejidad de grandes despliegues de microservicios.

    Historia
  • Google Firebase ha experimentado una evolución significativa desde que lo mencionamos como parte de una arquitectura sin servidor en 2016. Firebase es una plataforma completa para construir aplicaciones móviles y web de una manera compatible con la infraestructura subyacente y escalable de Google. En particular nos gusta la Distribución de Aplicaciones de Firebase, que facilita publicar versiones de prueba de una aplicación a través de un pipeline de entrega continua, y Configuración Remota de Firebase, que permite que los cambios de configuración se envíen dinámicamente a las aplicaciones sin necesidad de volver a publicarlas.

    Historia
  • El ecosistema y la comunidad de GraphQL siguen creciendo. Hot Chocolate es un servidor de GraphQL para .NET (Core y Clásico). Este permite construir y alojar esquemas para luego servir consultas contra ellos utilizando los mismos componentes base de GraphQL: data loaders, resolvers, esquemas, operaciones y tipos. El equipo detrás de Hot Chocolate recientemente agregó la funcionalidad de schema stitching, que permite la existencia de un único punto de entrada para consultar a través de múltiples esquemas agregados desde diferentes ubicaciones. A pesar de la posibilidad de hacer un mal uso de este enfoque, nuestros equipos están contentos con Hot Chocolate porque está bien documentado y nos permite ofrecer valor rápidamente a nuestros clientes.

    Historia
  • No todos necesitan una solución alojada de OAuth2, pero si es así, vale la pena mirar a Hydra, un servidor de código abierto completamente compatible con la especificación OAuth2 y además proveedor de conexiones OpenID. Hydra tiene soporte para almacenamiento en memoria para ambientes de desarrollo y una base de datos relacional (PostgreSQL) para los casos de uso en producción. Hydra no tiene estado y fácilmente escala horizontalmente en plataformas como Kubernetes. Dependiendo de los requerimientos de rendimiento, podría ser necesario afinar el número de instancias de la base de datos al escalar las instancias de Hydra. Y dado que no provee ninguna solución de administración de identidades de manera predeterminada, se puede integrar con cualquier gestor de identidad disponible, a través de una API limpia. Esta clara separación de identidad del resto del marco de trabajo de OAuth2 hace más fácil integrar a Hydra con un ecosistema de autenticación existente.

    Historia
  • OpenTelemetry es un proyecto de código abierto que integra OpenTracing y OpenCensus. El proyecto de OpenTelemetry incluye especificaciones, librerías, agentes y otros componentes requeridos para capturar telemetría desde los servicios para poder observar, mantener y depurarlos de mejor manera. Cubre los tres pilares de la observabilidad (rastreo distribuido, métricas y logs, actualmente en beta) y su especificación conecta estas tres piezas a traves de correlaciones; por lo tanto se pueden usar métricas para determinar un problema, localizar los rastros correspondientes para descubrir dónde se produjo el problema y finalmente estudiar los registros de eventos correspondientes para encontrar la causa raíz. Los componentes de OpenTelemetry pueden conectarse con sistemas de observabilidad en backend como Prometheus y Jaeger entre otros. La formación de OpenTracing es un paso positivo hacia la convergencia de estándares y la simplificación de las herramientas.

    Historia
  • Snowflake ha probado ser un SaaS robusto para soluciones de almacenamiento de big data, warehouse, o lago de datos para muchos de nuestros clientes. Tiene una arquitectura superior para escalar almacenamiento, cómputo y servicios para cargar, descargar y utilizar datos. También es muy flexible: soporta almacenamiento de datos estructurados, semi estructurados y sin estructura; provee una lista creciente de conectores para distintos patrones de acceso como Spark para ciencia de datos y SQL para analíticas; y corre en múltiples proveedores de nube. Nuestro consejo para muchos de nuestros clientes es hacer uso de servicios gestionados según la utilidad de su tecnología, como almacenamiento de big data; sin embargo, si el riesgo y las regulaciones prohíben el uso de servicios gestionados, entonces Snowflake es un buen candidato para compañías con grandes volúmenes de datos y cargas pesadas de trabajo. Si bien hemos tenido éxito utilizando Snowflake en empresas medianas, nos falta aún experimentar Snowflake en ecosistemas grandes donde los datos necesitan ser reconocidos como propiedad de varios segmentos de la organización.

    Historia

Evaluar?

  • Observamos un cambio de los planes casuales de migración a la nube híbrida o pura, a sofisticados planes pensados intencionalmente para estrategias híbridas, multi-cloud, o portables, donde las organizaciones aplican principios multidimensionales para establecer y ejecutar su estrategia en la nube: donde albergar sus múltiples datos y activos funcionales basados en riesgo, habilidad de control y perfiles de rendimiento; cómo utilizar sus inversiones en infraestructura on-premise al mismo tiempo que reducen costes operacionales y cómo aprovechar los múltiples proveedores cloud y sus servicios únicos y diferenciados sin crear complejidad y fricción para los usuarios y aplicaciones existentes.

    Anthos es la respuesta de Google para habilitar estrategias híbridas y multi-cloud brindando un nivel de control y gestión de alto nivel sobre un conjunto de tecnologías de código abierto como GKE, Service Mesh y una Gestion de configuración basada en Git. Posibilita la ejecución de cargas de trabajo portables y otros componentes en diferentes entornos de hosting, incluyendo Google Cloud y hardware on-premises. Mientras otros proveedores cloud tienen ofertas comparativas, Anthos apunta más allá de la nube híbrida, a posibilitar una nube portable usando componentes de código libre, pero todavía está por verse. Vemos un aumento de interés en Athos. Mientras la aproximación de Google a una nube híbrida gestionada parece prometedora, no es una bala de plata y requiere cambios tanto en la nube existente como en los componentes on-premise. Nuestro consejo para nuestros clientes que están considerando Anthos, es buscar un balance seleccionando tanto servicios del ecosistema de Google Cloud como otras opciones, para mantener su nivel de neutralidad y control.

    Historia
  • Apache Pulsar es una plataforma de código abierto para la publicación y suscripción de mensajería/streaming, compitiendo en un espacio similar con Apache Kafka. Provee la funcionalidad esperada, como la entrega de mensajes síncrona y asíncrona con baja latencia y almacenamiento escalable y persistente de mensajes, así como varias bibliotecas de clientes. Lo que nos ha llevado a evaluar a Pulsar es su facilidad para escalar, en particular en organizaciones grandes con múltiples segmentos de usuarios. Pulsar soporta nativamente la tenencia múltiple, geo-replicación, control de acceso basado en roles y segregación de facturación. También vemos a Pulsar para resolver el problema de un registro sin fin de mensajes de registros de eventos para nuestros sistemas de datos de alta escala donde se espera que los eventos se persistan indefinidamente y que los suscriptores puedan empezar a consumir mensajes en retrospectiva. Esto se soporta con un modelo de almacenamiento escalonado. Aunque Pulsar es una plataforma prometedora para grandes organizaciones, hay posibilidades de mejora. Su instalación actual requiere administrar ZooKeeper y BookKeeper entre otras piezas de tecnología. Esperamos que con su adopción en aumento, los usuarios puedan pronto contar con un apoyo comunitario más amplio.

    Historia
  • El desempeño de la tecnología blockchain ha mejorado ostensiblemente desde que la evaluamos inicialmente en el Radar. Sin embargo, aún no existe ni una sola blockchain que haya logrado alcanzar un rendimiento de “nivel de internet”. A medida que se han desarrollado varias plataformas blockchain, vemos nuevos datos y silos de valor. Esto explica el porqué la tecnología “cross-chain” siempre ha sido un tema clave en la comunidad blockchain: el futuro de blockchain puede ser una red de blockchains paralelas e independientes. Esta es también la visión de Cosmos. Cosmos publica Tendermint y CosmosSDK para permitir a las personas desarrolladoras configurar blockchains independientes. Estas blockchains paralelas pueden intercambiar valores mediante el protocolo de Inter-Blockchain Communication (IBC) y Peg-Zones. Nuestros equipos han tenido buenas experiencias con CosmosSDK, y el protocolo IBC está madurando. Esta arquitectura puede resolver los problemas de interoperabilidad y escalabilidad de blockchain.

    Historia
  • A menudo entrenar y predecir los resultados en modelos de aprendizaje automático (machine-learning) requiere código para llevar los datos al modelo. Google BigQuery ML invierte esto llevando el modelo a los datos. Google BigQuery es un almacen de datos diseñados para servir consultas a gran escala usando SQL, para casos de usos analitico. Google BigQuery ML extiende esta funcionalidad y su interfaz SQL para crear, entrenar y evaluar modelos de aprendizaje automático usando sus conjuntos de datos; y eventualmente correr modelos predictivos para crear un nuevo conjunto de datos BigQuery. Soporta un limitado conjunto de modelos out of the box, como regresión lineal para predicción o regresión binaria y multiclase para clasificación. También soporta, con limitada funcionalidad, la importación de modelos de TensorFlow previamente entrenados. Aunque BigQuery ML y su enfoque basado en SQL disminuye la barra para usar machine learning para hacer predicciones y recomendaciones, particularmente para exploración rapida, esto puede ser una desventaja al dejar de lado aspectos del entrenamiento del modelo tal como pruebas de sesgo ético, explicabilidad y entrega continua para modelos de machine learning.

    Historia
  • JupyterLab es la nueva generación de la interfaz de usuario basada en web para el Proyecto Jupyter. Si has estado usando Jupyter Notebooks, es recomendable que pruebes JupyterLab; te provee de un ambiente interactivo para datos y código en Jupyter Notebooks. Vemos esto como una evolución de Jupyter Notebook: entrega una mejor experiencia al extender las habilidades originales que permiten código, visualización y documentación coexistiendo en un solo lugar.

    Historia
  • Marquez es un proyecto de código abierto relativamente nuevo para recolectar y servir información de metadatos sobre un ecosistema de datos. Marquez representa un modelo de datos simple para capturar metadatos como el linaje, las tareas de procesamiento ascendentes y descendentes de los datos y su estado de ejecución, y un conjunto flexible de etiquetas para capturar los atributos de los conjuntos de datos. Provee un API RESTful simple para gestionar los metadatos, que simplifica la integración de Marquez con otras herramientas dentro del ecosistema de datos.

    Hemos usado Marquez como punto de partida y lo hemos extendido para que se adapte a nuestras necesidades, como aplicar políticas de seguridad, y hemos hecho cambios a su lenguaje de dominio. Si estás buscando una herramienta pequeña y simple para comenzar con el almacenamiento y la visualización de tus tareas de procesamiento de datos y conjuntos de datos, Marquez está bien para empezar.

    Historia
  • Matomo (antes conocido como Piwik) es una plataforma de código abierto para analíticas web que proporciona control total sobre los datos. Puedes usar Matomo en modo auto-alojado y proteger los datos de analíticas web de los proveedores externos. Matomo también facilita la integración de estos datos con tu plataforma de datos corporativa y te permite construir modelos de uso ajustados a tus necesidades.

    Historia
  • MeiliSearch es un motor de búsqueda de texto rápido, de fácil uso y despliegue. A lo largo de los años Elasticsearch se ha vuelto la elección popular para búsquedas de texto escalables. No obstante, si no posees un volumen de datos que justifique una solución distribuida pero aún deseas proveer un motor de búsqueda rápido y tolerante a errores de tipografía, recomendamos evaluar MeiliSearch.

    Historia
  • Ultraleap (anteriormente Leap Motion) ha sido un líder en el espacio de XR desde hace un tiempo, creando hardware de seguimiento de manos extraordinario, que permite a las manos del usuario dar el salto a la realidad virtual. Stratos es la plataforma háptica, de sensores y de software subyacente a Ultraleap, pudiendo ser usada para dirigir ultrasonidos para crear respuestas hápticas en el aire. Un posible caso de uso sería responder a los gestos manuales del conductor para cambiar el aire acondicionado del coche y proporcionar respuesta háptica como parte del interfaz. Estamos emocionados con ver el desarrollo de esta tecnología y cómo va a ser utilizada por gente técnica creativa para incorporarla a sus casos de uso.

    Historia
  • Trillian es un almacén de datos centralizado criptográficamente verificable. Para entornos descentralizados y sin confianza podemos usar registros de transacciones distribuidos basados en blockchain. Sin embargo, para entornos empresariales, donde la gran cantidad de CPU utilizada por los protocolos de consenso resulta en costos injustificados, recomendamos probar Trillian.

    Historia

Resistir?

  • Las tecnologías, especialmente las ampliamente populares, tienen tendencia a ser sobreutilizadas. Lo que estamos viendo en este momento es un uso excesivo de Node , una tendencia a usar Node.js indiscriminadamente o por razones equivocadas. Entre ellas, en nuestra opinión destacan dos. La primera, escuchamos con frecuencia que se debe usar Node para que todo el código pueda ser escrito en el mismo lenguaje de programación. Nuestra visión sigue siendo que la programación políglota es una mejor aproximación, y esto funciona en ambos sentidos. La segunda, en ocasiones escuchamos a equipos citar el rendimiento como razón para elegir Node.js. Aunque hay infinidad de pruebas comparativas más o menos razonables, esta percepción radica en la historia. Cuando Node.js se hizo popular, fue el principal framework en adoptar el modelo de programación no bloqueante y esto le permitió ser muy eficiente en tareas con alta carga de E/S (ya lo mencionamos cuando escribimos sobre Node.js en 2012), pero puesto que ahora los frameworks con capacidades no bloqueantes — algunos con modernas y elegantes APIs — existen en otras plataformas, el rendimiento ya no es una razón para elegir Node.js

    Historia
¿No encuentras aquello que querías ver?

Cada edición del radar incluye blips que contienen la información encontrada durante los últimos seis meses. Es posible que ya hayamos incluido el tema que estás buscando en radares anteriores. Hay veces que omitimos algunos temas debido a que hay demasiado de que hablar. O también, puede faltar algo debido a que en el radar buscamos reflejar nuestra experiencia, no lo basamos en un análisis exhaustivo del mercado.

Nuevo,Modificado,Ningún cambio