Menú

Plataformas

Adoptar?

    Probar?

    • Azure DevOps es una colección de servicios administrados que incluye repositorios Git, pipelines de CI/CD, herramientas para pruebas automatizadas, herramientas para la gestión de tareas y planeación ágil y repositorio de paquetes. Hemos visto a nuestros equipos ganar más experiencia en esta plataforma y obtener buenos resultados, lo que significa que Azure DevOps está madurando. Nos gusta especialmente su flexibilidad ya que permite utilizar los servicios que se necesite, incluso si son de distintos proveedores. Por ejemplo, se podría usar un repositorio Git externo con los servicios de pipeline de Azure DevOps. Nuestros equipos están especialmente entusiasmados con Azure DevOps Pipelines. No obstante, todos los servicios ofrecen una buena experiencia de desarrollo que ayuda a nuestros equipos a entregar valor.

      Historia
    • Debezium es una plataforma para la captura de cambios en los datos (change data capture, CDC) que puede transmitir las modificaciones que ocurren en las bases de datos a tópicos de Kafka. CDC es una técnica popular con muchos casos de uso como la replicación de datos a otras bases de datos, la alimentación de sistemas analíticos, la extracción de microservicios a partir de aplicaciones monolíticas y la invalidación de cachés. Debezium reacciona a cambios en los archivos de registro de la base de datos y cuenta con conectores de CDC para múltiples bases de datos, incluyendo Postgres, MySQL, Oracle y MongoDB. Estamos usando Debezium en varios proyectos y los resultados han sido muy buenos.

      Historia
    • Honeycomb es un servicio de observabilidad que recoge datos enriquecidos de los sistemas de producción y permite su gestión mediante un muestreo dinámico. Las personas desarrolladoras pueden registrar grandes cantidades de eventos enriquecidos para decidir posteriormente como dividirlos y relacionarlos. Este enfoque interactivo es útil cuando se trabaja con los grandes sistemas distribuidos actuales, porque hemos pasado el punto en donde podemos anticipar de forma razonable qué preguntas querríamos hacer a los sistemas en producción. El equipo de Honeycomb está desarrollando activamente complementos para varios lenguajes y frameworks, y ya hay versiones disponibles para Go, Node, Java y Rails, entre otros; además, nuevas funcionalidades están siendo añadidas con frecuencia. El modelo de precios también se ha simplificado para hacerlo más atractivo. A nuestros equipos les encanta.

      Historia
    • Desde que presentamos a JupyterLab en el anillo Evaluar de nuestra última edición, esta aplicación se ha convertido en la interfaz web preferida para el proyecto Jupyter por muchas de nuestras practicantes de datos. La adopción de JupyterLab está superando rápidamente a Jupyter Notebooks, a la que terminará reemplazando. Si todavía estás utilizando Jupyter Notebooks deberías probar JupyterLab. Su entorno interactivo es una evolución de Jupyter Notebooks: extiende sus capacidades originales con autocompletado y celdas de arrastrar y soltar, entre otras nuevas funcionalidades.

      Historia

    Evaluar?

    • Las personas científicas de datos utilizan gran parte de su tiempo en el descubrimiento de datos, lo que significa que las herramientas que contribuyen en este ámbito generan cierto entusiasmo. Si bien el proyecto Apache Atlas se ha convertido en la herramienta de referencia para la gestión de metadatos, el descubrimiento de datos aún no es fácil de realizar. Para ello aparece Amundsen, una herramienta que se puede desplegar conjuntamente con Apache Atlas para proporcionar una interfaz de búsqueda más apropiada para el descubrimiento de datos.

      Historia
    • Para muchos de nuestros equipos, Terraform se ha convertido en la opción por defecto para definir infraestructura en la nube. Sin embargo, algunos de nuestros equipos han estado experimentando con el kit de desarrollo en la nube de AWS (CDK de AWS) y les gusta lo que han visto hasta el momento. En particular, les gusta el uso de lenguajes de programación de primera clase en vez de archivos de configuración, lo que les permite utilizar las herramientas existentes, las técnicas para pruebas y sus habilidades. Al igual que con herramientas similares, se debe tener cuidado para asegurar que los despliegues sigan siendo fáciles de entender y mantener. Actualmente el CDK soporta TypeScript, JavaScript, Python, Java y C# con .NET. Seguiremos pendientes de este desarrollo, especialmente porque los equipos de AWS y HashiCorp recientemente presentaron un avance del CDK para Terraform que permite generar configuraciones de Terraform y habilitar el aprovisionamiento con esta tecnología.

      Historia
    • Las organizaciones están buscando soportar y simplificar los entornos de desarrollo a través de portales para desarrolladores o plataformas. A medida que el número de herramientas y tecnologías se incrementa, se hace cada vez más necesaria alguna forma de estandarización para lograr consistencia, de forma que las personas desarrolladoras puedan enfocarse en la innovación y el desarrollo de productos en lugar de atascarse en reinventar la rueda. Un portal centralizado para desarrolladores puede ofrecer descubrimiento fácil de servicios y buenas prácticas. Backstage es una plataforma de código abierto creada por Spotify para la creación de portales para desarrolladores. Se basa en plantillas de software, unificando herramientas de infraestructura y documentación técnica consistente y centralizada. Su arquitectura de componentes permite su extensibilidad y adaptabilidad al ecosistema de infraestructura de la organización.

      Historia
    • Dremio es un motor de lago de datos en la nube que proporciona consultas interactivas sobre almacenes de lagos de datos alojados en la nube. Con Dremio no hay que manejar pipelines de datos para extraer y transformar datos dentro de un almacén de datos separado para alcanzar un rendimiento predictivo. Dremio crea conjuntos de datos virtuales a partir de los datos ingeridos dentro del lago de datos y proporciona una visión uniforme a los consumidores. Presto popularizó la técnica de separar el almacenamiento de la capa de computación y Dremio la lleva más lejos mejorando el rendimiento y optimizando los costos operativos.

      Historia
    • DuckDB es una base de datos embebida, basada en columnas, para cargas de trabajo analíticas y de ciencia de datos. Las personas analistas pasan una cantidad significativa de tiempo limpiando y visualizando los datos localmente antes de llevarlos a los servidores. A pesar de que hemos contado con sistemas de bases de datos por décadas, la mayoría están diseñadas para casos de uso cliente-servidor y, por lo tanto, no son adecuadas para consultas locales interactivas. Para superar esta limitación, las personas analistas normalmente recurren a herramientas de procesamiento de datos en memoria, como Pandas o data.table. Aunque estas herramientas son efectivas, limitan el alcance del análisis al volumen de datos que cabe en la memoria. Nos parece que DuckDB llena bien este vacío proporcionando un motor embebido basado en columnas, optimizado para funciones analíticas en conjuntos de datos locales y de tamaños mayores que la memoria disponible.

      Historia
    • K3s es una distribución ligera de Kubernetes construida para IoT y edge computing. Está empaquetada como un único binario y tiene pocas o ninguna dependencias con el sistema operativo, por lo que es realmente fácil de operar y usar. Utiliza sqlite3 como el motor de almacenamiento predeterminado en lugar de etcd. Tiene un uso de memoria reducido, debido a que ejecuta todos los componentes relevantes en un solo proceso. También consigue ser un binario más pequeño al excluir los controladores de almacenamiento de terceros y de los proveedores de nube que no son relevantes para los casos de uso de K3s. Creemos que vale la pena considerar esta herramienta cuando se cuenta con ambientes con recursos limitados.

      Historia
    • Materialize es una base de datos en streaming que permite realizar cálculos incrementales sin pipelines de datos complicados. Se debe simplemente describir los cálculos mediante vistas SQL estándar y conectar Materialize al stream de datos. El motor de flujo de datos diferencial subyacente ejecuta cálculos incrementales para proporcionar resultados consistentes y correctos con mínima latencia. A diferencia de las bases de datos tradicionales, no hay restricciones para definir estas vistas materializadas y los cálculos se ejecutan en tiempo real.

      Historia
    • Hemos visto un creciente pero lento interés en Pulumi. Esta utilidad llena una brecha en el mundo de la infraestructura como código, donde Terraform está muy afianzado. Si bien Terraform ha sido ampliamente usado y probado, su naturaleza declarativa presenta capacidades inadecuadas de abstracción y carece de la capacidad de ser probado. Terraform es adecuado cuando la infraestructura es completamente estática, pero para la definición de infraestructuras dinámicas se necesita un lenguaje de programación real. Pulumi se distingue por permitir que las configuraciones se escriban en TypeScript o JavaScript, Python y Go, sin ser necesario un lenguaje de marcado o de plantillas. Pulumi está altamente enfocado en arquitecturas nativas a la nube, incluyendo contenedores, funciones serverless y servicios de datos, proporcionando buen soporte para Kubernetes. Recientemente, el CDK de AWS se ha posicionado como contendor, pero Pulumi se mantiene como la única herramienta neutral del área, en lo que respecta a los proveedores. Anticipamos una amplia adopción de Pulumi en el futuro y esperamos la aparición de herramientas viables y de ecosistemas de conocimiento que le den soporte.

      Historia
    • Tekton es una nueva plataforma nativa de Kubernetes para la gestión de pipelines de integración y entrega continua (CI/CD). Esta plataforma no solamente se instala y ejecuta sobre Kubernetes sino que también define sus pipelines de CI/CD como recursos personalizados de Kubernetes. Esto significa que el pipeline puede ser controlado por las aplicaciones cliente nativas de Kubernetes (CLI o APIs) y que se puede aprovechar las funcionalidades de gestión de recursos subyacentes como los rollbacks. El formato de declaración de pipelines es flexible y permite definir flujos de trabajo condicionales, rutas de ejecución paralelas y manejar tareas finales para hacer limpieza, entre otras funcionalidades. Como resultado, Tekton puede soportar flujos de despliegue complejos e híbridos con rollbacks, canary releases y más. Tekton es de código abierto y también se ofrece como un servicio administrado en GCP. A pesar de que la documentación podría ser mejor y la comunidad está creciendo, hemos estado usando Tekton exitosamente con cargas de trabajo en producción para AWS.

      Historia
    • Los retos continuos respecto a la forma en que los individuos y las organizaciones establecen confianza digitalmente en internet está dando lugar a un nuevo enfoque sobre cómo comprobar la identidad, cómo compartir y verificar los atributos necesarios para establecer la confianza y cómo asegurar las transacciones. Nuestro Radar presenta algunas de las tecnologías fundamentales como la identidad descentralizada y credenciales verificables que posibilitan esta nueva era en la confianza digital.

      Sin embargo, este cambio de escala global no sería posible sin la estandarización de las tecnologías de gobernanza que permitan la interoperabilidad. La nueva Trust over IP Foundation, perteneciente a Linux Foundation, está destinada a conseguirlo. Tomando en cuenta la forma en que la estandarización de TCP/IP, como el puente estrecho de Internet, ha favorecido la interoperabilidad entre millones de dispositivos, el grupo está definiendo Trust over IP Stack mediante cuatro capas técnicas y de gobierno. El stack incluye servicios públicos como identificadores descentralizados, comunicaciones descentralizadas de identidad para protocolos estandarizados para que agentes, como las billeteras digitales, se comuniquen; protocolos de intercambio de datos como flujos para proporcionar y verificar credenciales verificables, así como ecosistemas de aplicaciones tales como educación, finanzas, salud, etc. Si estás revisando los sistemas de identidades y cómo se establecen los mecanismos de confianza en tu ecosistema, te sugerimos considerar el stack de ToIP y sus herramientas de soporte conocidas como Hyperledger Aries.

      Historia

    Resistir?

    • Las tecnologías, especialmente las ampliamente populares, tienen tendencia a ser sobreutilizadas. Lo que estamos viendo en este momento es un uso excesivo de Node , una tendencia a usar Node.js indiscriminadamente o por razones equivocadas. Entre ellas, en nuestra opinión destacan dos. La primera, escuchamos con frecuencia que se debe usar Node.js para que todo el código pueda ser escrito en el mismo lenguaje de programación. Nuestra visión sigue siendo que la programación políglota es una mejor aproximación, y esto funciona en ambos sentidos. La segunda, en ocasiones escuchamos a equipos citar el rendimiento como razón para elegir Node.js. Aunque hay infinidad de pruebas comparativas más o menos razonables, esta percepción radica en la historia. Cuando Node.js se hizo popular, fue el principal framework en adoptar el modelo de programación no bloqueante y esto le permitió ser muy eficiente en tareas con alta carga de E/S (ya lo mencionamos cuando escribimos sobre Node.js en 2012), pero puesto que ahora los frameworks con capacidades no bloqueantes — algunos con modernas y elegantes APIs — existen en otras plataformas, el rendimiento ya no es una razón para elegir Node.js

      Historia
    ¿No encuentras aquello que querías ver?

    Cada edición del radar incluye blips que contienen la información encontrada durante los últimos seis meses. Es posible que ya hayamos incluido el tema que estás buscando en radares anteriores. Hay veces que omitimos algunos temas debido a que hay demasiado de que hablar. O también, puede faltar algo debido a que en el radar buscamos reflejar nuestra experiencia, no lo basamos en un análisis exhaustivo del mercado.

    Nuevo,Modificado,Ningún cambio