Menú

ADOPTAR?

    PROBAR?

    • Apache Flink ha visto una creciente adopción desde nuestra evaluación inicial en 2016. Flink es reconocido como el motor líder de procesamiento de flujos y también ha madurado gradualmente en los campos del procesamiento por lotes (batch) y del machine learning. Uno de los diferenciadores clave de Flink con respecto a otros motores de procesamiento de flujos es el uso de puntos de control consistentes del estado de una aplicación. En caso de fallo, la aplicación se reinicia y su estado se carga desde el último punto de control, de modo que la aplicación puede seguir procesando como si el fallo nunca hubiera ocurrido. Esto nos ayuda a reducir la complejidad de la construcción y operación de sistemas externos para la tolerancia a fallos. Vemos cada vez más empresas que utilizan Flink para construir su plataforma de procesamiento de datos.

      Historia
    • Durante mucho tiempo exclusiva para los gigantes tecnológicos, la tecnología de vehículos autónomos ya está al alcance de todo el mundo, como ha demostrado Apollo Auto. El objetivo del programa Apolo de Baidu es convertirse en el Android de la industria del vehículo autónomo. La plataforma Apollo posee componentes como percepción, simulación, planeamiento y control inteligente que permiten a las compañías automotoras integrar sus propios sistemas de conducción autónoma en el hardware de sus vehículos. La comunidad de personas desarrolladoras es aún nueva pero con una gran cantidad de proveedores incorporándose para contribuir con más ports. Uno de nuestros proyectos fue ayudar a nuestro cliente a completar exámenes de permiso de conducir para vehículos autónomos con el sistema de piloto automático basado en Apollo. Apollo también provee un enfoque de arquitectura evolutiva para adoptar funcionalidades avanzadas de manera gradual, lo que nos permite integrar más sensores y funciones de un modo ágil e iterativo.

      Historia
    • GCP Pub/Sub es la plataforma de transmisión de eventos de Google Cloud. Es una pieza de infraestructura popular para muchas de nuestras arquitecturas que ejecutan Google Cloud Platform, incluída la ingestión masiva de eventos, la comunicación de cargas de trabajo sin servidor y los flujos de trabajo de procesamiento de datos de transmisión. Una de sus características únicas es el soporte de suscripciones pull y push: suscribirse para recibir todos los mensajes publicados disponibles en el momento de la suscripción, o enviar mensajes a un endpoint en particular. Nuestros equipos han disfrutado de su confiabilidad y escala, y de que funciona tal como se anuncia.

      Historia
    • Mongoose OS continúa siendo uno de nuestros sistemas operativos de microcontroladores de código abierto y marcos de desarrollo de firmware integrados preferidos. Vale la pena señalar que Mongoose OS llena un vacío notable para las personas desarrolladoras de software integrado: el vacío entre el firmware Arduino adecuado para la creación de prototipos y los SDK nativos de microcontroladores bare metal. Nuestros equipos han utilizado con éxito la nueva plataforma de administración de dispositivos de extremo a extremo de Cesanta, mDash, para proyectos de hardware greenfield a pequeña escala. Los principales proveedores de la plataforma en la nube de Internet de las cosas (IoT) admiten hoy el marco de desarrollo de Mongoose OS para la gestión de sus dispositivos, conectividad y actualizaciones de firmware por aire (OTA). Desde la última vez que informamos sobre Mongoose OS, la cantidad de placas y microcontroladores compatibles ha crecido hasta incluir STM, Texas Instruments y Espressif. Continuamos disfrutando de su compatibilidad sin problemas para las actualizaciones de OTA y su seguridad integrada a nivel de dispositivo individual.

      Historia
    • ROS (Robot Operating System) es un conjunto de librerías y herramientas para ayudar a las personas desarrolladoras a crear aplicaciones de robot. Es un framework que provee abstracciones sobre el hardware, drivers de dispositivos, librerías, visualizadores, transmisión de mensajes, administrador de paquetes, y mucho más. Apollo Auto está basado en ROS. En otros de nuestros proyectos de simulación ADAS, hemos utilizado también el sistema de mensajes (bag) de ROS. La tecnología no es nueva, pero ha vuelto a captar la atención de los/las desarrolladores/as con el desarrollo de ADAS.

      Historia

    EVALUAR?

    • Para muchos de nuestros equipos, Terraform se ha convertido en la opción predeterminada para definir la infraestructura de la nube. Sin embargo, algunos de nuestros equipos han estado experimentando con AWS Cloud Development Kit (AWS CDK) y les ha gustado lo que han visto hasta ahora. En particular, les gusta el uso de lenguajes de programación de primera clase en lugar de archivos de configuración que les permite usar herramientas existentes, enfoques de prueba y habilidades. Al igual que otras herramientas similares, aún se necesita ser cautelosos para garantizar que las implementaciones sigan siendo fáciles de entender y mantener. Dado que el soporte para C# y Java llegará pronto e ignorando, por ahora, algunos vacíos en la funcionalidad, creemos que vale la pena ver AWS CDK como alternativa a otros enfoques basados en archivos de configuración.

      Historia
    • Los servicios de Azure DevOps incluyen un conjunto de servicios administrados, como repositorios Git alojados, pipelines de CI/CD, herramientas de prueba automatizadas, herramientas de administración de trabajos pendientes y repositorio de artefactos. Los pipelines de Azure DevOps han ido madurando con el tiempo. Nos gusta especialmente su capacidad para definir Pipelines como código y su ecosistema de extensiones en el mercado de Azure DevOps. Al momento de escribir esto, nuestros equipos aún se encuentran con algunas características inmaduras, incluída la falta de una interfaz de usuario efectiva para la visualización y navegación de pipelines, y la incapacidad de activar un pipeline a partir de artefactos u otras pipelines.

      Historia
    • Azure Pipelines es un producto de Azure DevOps que ofrece soluciones cloud para implementar pipelines como código para proyectos alojados en el servidor Azure DevOps Git u otra solución Git como GitHub o Bitbucket. La parte interesante de esta solución es la habilidad de ejecutar scripts en agentes Linux, MacOS y Windows sin el sobrecoste de tener que gestionar una máquina virtual. Representa un gran paso adelante, especialmente para equipos que trabajan en entornos Windows con soluciones en el framework .NET; también estamos evaluando este servicio para entrega continua en iOS.

      Historia
    • La mayoría de los proyectos que tienen soporte en varios idiomas, comienzan con el equipo desarrollando funcionalidades en un idioma, para luego ocuparse del resto a través de traducciones mediante correos electrónicos y hojas de cálculo. Aunque este simple proceso funciona, puede irse rápidamente de las manos. Probablemente tengas que responder la misma pregunta una y otra vez a los diferentes traductores de los distintos idiomas, quitando la energía a la colaboración entre traductores, correctores de las traducciones, y el equipo de desarrollo. Crowdin es una de las tantas plataformas que ayudan a facilitar el proceso de localización de idiomas de tus proyectos. Con Crowdin, el equipo de desarrollo puede continuar desarrollando funcionalidades y la plataforma simplifica el proceso de los textos que deben ser traducidos, mediante un flujo de trabajo en línea. Nos gusta que Crowdin empuje a los equipos a incorporar continua e incrementalmente las traducciones, en vez de tener que manejarlas todas juntas al final.

      Historia
    • Crux es una base de datos de documentos de código libre con consultas gráficas bitemporales. La mayoría de los sistemas de bases de datos son temporales, lo que significa que nos ayudan a modelar los hechos junto al momento en que ocurrieron. Los sistemas de bases de datos bitemporales te permiten modelar no solo el momento válido en que ocurrió el hecho, sino también el tiempo de transacción en que fue recibido. Si necesitas un almacén de documentos con capacidades gráficas para consultar el contenido, prueba Crux. Actualmente está en alfa y carece de soporte SQL, pero se puede utilizar una interfaz de consulta de Datalog para leer y atravesar las relaciones.

      Historia
    • Delta Lake es una capa de almacenamiento de open-source de Databricks que intenta llevar las transacciones al procesamiento de big data. Uno de los problemas que a menudo encontramos al usar Apache Spark es la falta de transacciones ACID. Delta Lake se integra con la API de Spark y resuelve este problema mediante el uso de un registro de transacciones y archivos de Parquet versionados. Su aislamiento serializable, permite que lectores y escritores puedan trabajar sobre archivos Parquet simultáneamente. Dentro de las bien recibidas características se incluye la aplicación de esquemas al escribir y versionar, lo que nos permite consultar y volver a versiones anteriores de datos de ser necesario. Hemos comenzando a usarlo en algunos de nuestros proyectos y nos resulta interesante.

      Historia
    • El ecosistema serverless de Kubernetes está creciendo. En radares anteriores hemos hablado acerca de Knative; ahora estamos viendo a Fission ganar terreno. Fission permite las/os desarrolladoras/es enfocarse en escribir funciones de vida corta y transformarlas a peticiones HTTP, mientras que el framework maneja el resto de las conexiones y automatización de recursos Kubernetes por detrás escenas. Fission también permite crear funciones compuestas, se integra con proveedores externos por medio de web hooks y permite automatizar la administración de la infraestructura de Kubernetes.

      Historia
    • FoundationDB es una base de datos multimodelo open-source que fue comprada por Apple en 2015 y cuyo código se liberó en 2018. El núcleo de FoundationDB es un almacenamiento clave-valor que provee transacciones serializables estrictas. Uno de los aspectos más interesantes de FoundationDB es su concepto de capas para ofrecer modelos adicionales. Estas capas son esencialmente componentes sin estado construidos sobre dicho almacenamiento clave-valor, como por ejemplo Record layer y Document layer. FoundationDB pone el listón alto con su Simulation testing: donde corren diariamente pruebas donde se simula diferentes fallos de sistema. Su performance, testing riguroso y facilidad de manejo, hacen que FoundationDB no sólo esté dirigida para personas que buscan una base de datos sino también para aquellas que buscan construir sistemas distribuidos donde FoundationDB puede ser usada como núcleo primitivo sobre el que se construyen dichos sistemas.

      Historia
    • GraalVM es una máquina virtual universal de Oracle para correr aplicaciones escritas en lenguajes JVM, JavaScript, Python, Ruby, y R, así como C/C+ y otros lenguajes basados en LLVM. En su forma más simple, GraalVM puede ser usado como una MV con mayor rendimiento para JVM y otros lenguajes no-JVM soportados. Pero también nos permite escribir aplicaciones políglotas con muy poco impacto en el rendimiento; y su utilidad de Imagen Nativa (de momento solo disponible como una tecnología de Early Adopter) nos permite realizar una compilación anticipada de código Java a ejecutables autónomos para un inicio más rápido y con un menor uso de memoria. GraalVM ha despertado mucho entusiasmo en la comunidad de Java, y varios frameworks de Java (incluyendo a Micronaut, Quarkus, y Helidon) ya están sacando provecho suyo.

      Historia
    • No todos necesitamos una solución OAuth2 con alojamiento propio pero, en caso de necesitarla, consideramos que Hydra — un proveedor de conexiones OpenID y servidor OAuth2 de open-source que cumple con estas especificaciones— es bastante útil. Nos gusta mucho que Hydra no provea ninguna solución de gestión de identidades propia, ya que esto nos permite integrar cualquier tipo de gestión de identidades que ya tengamos con Hydra mediante una API limpia. Esta completa separación de la identidad del resto de OAuth2 facilita la integración de Hydra con un entorno de autenticación ya existente.

      Historia
    • Kuma es una malla de servicio agnóstica a nivel de plataforma para Kubernetes, máquinas virtuales y entornos físicos. Kuma está implementada como un plano de control por encima de Envoy y como tal, puede instrumentalizar cualquier tráfico de las capas 4 y 7 para asegurar, observar, enrutar y mejorar la conectividad entre servicios. La mayor parte de las implementaciones de mallas de servicios están enfocadas de manera nativa al ecosistema de Kubernetes, lo que en sí mismo no está mal pero obstaculiza la adopción de mallas de servicio para aplicaciones existentes fuera de Kubernetes. En vez de esperar a que termine un gran esfuerzo de transformación de plataforma, ahora puedes usar Kuma y modernizar tu infraestructura de red.

      Historia
    • Ya hemos hablado de Kubernetes anteriormente y todavía sigue siendo la primera elección para desplegar y gestionar contenedores en clústers de producción. Sin embargo, cada vez es más difícil proveer la misma experiencia para las personas que desarrollan de forma desconectada. Entre otras opciones hemos encontrado bastante útil a MicroK8s. Para instalar el snap de MicroK8, elige el canal de lanzamiento (stable, candidate, beta o edge) y luego, con algunos comandos, puedes tener a Kubernetes en ejecución. También es posible monitorear los próximos lanzamientos y elegir actualizar tu instalación automáticamente.

      Historia
    • Hemos seguido la trayectoria de AR/VR (realidad aumentada/virtual) por largo tiempo en nuestro Radar, pero su atractivo se ha limitado a plataformas y opciones de enlace específicos. Oculus Quest ha revolucionado el mercado al convertirse en uno de los primeros visores de VR autónomos para el público general que no requiere de ningún tipo de enlace o soporte aparte de un teléfono inteligente. Este dispositivo abre el camino para dar una mayor visibilidad a las aplicaciones de VR, cuya demanda empujará el mercado hacia innovaciones más ambiciosas. Por ello, aplaudimos la democratización de VR que este dispositivo promueve y esperamos con ansias ver lo que depara el futuro.

      Historia
    • El entorno de herramientas y marcos de trabajo para redes neuronales ha evolucionado a gran velocidad, pero la interoperabilidad entre ellas ha supuesto todo un reto. En la industria del aprendizaje de máquina (Machine Learning) es habitual diseñar un modelo y entrenarlo rápidamente con una herramienta, y después desplegarlo en otra para sacar conclusiones. Dado que los formatos internos de estas herramientas son incompatibles, necesitamos implementar y mantener conversores complejos para lograr esa compatibilidad. El formato Open Neural Network Exchange (ONNX) resuelve este problema. En ONNX, las redes neuronales se representan con gráficos usando especificaciones de operadores convencionales que, junto con un formato de serialización para los pesos entrenados, permite que los modelos de redes neuronales puedan transferirse de una herramienta a otra. Esto allana el camino para muchas posibilidades, como Model Zoo, una colección de modelos pre-entrenados en formato ONNX.

      Historia
    • En teoría, los contenedores se deben controlar desde el respectivo tiempo de ejecución del contenedor, sin privilegios de usuario root. Esto no es sencillo ni trivial pero cuando se consigue, reduce la superficie de ataque y previene muchos problemas de seguridad, en particular la escalación de privilegios fuera del contenedor. Ya desde hace tiempo se habla de los contenedores sin raíces, y es parte de la especificación del tiempo de ejecución de contenedores abiertos y sus estándares de implementación runc, parte de Kubernetes. Por otra parte, Docker 19.03 introduce contenedores sin privilegios, como una funcionalidad experimental. Aunque esta funcionalidad no va bien todavía con varias de otras funcionalidades como los controles de recursos cgroups y los perfiles de seguridad AppArmor.

      Historia
    • A menudo relacionamos el almacenamiento de datos (o “Data Warehousing”) a una infraestructura central que es difícil de escalar y administrar con las crecientes demandas alrededor de los datos. Snowflake, sin embargo, es una nueva solución de SQL Data Warehouse como servicio (SQL as a Service) construida desde cero para la nube. Con varias características cuidadosamente construidas tales como atomicidad a nivel de base de datos, soporte para datos estructurados y semiestructurados, funciones analíticas nativas, y sobre todo una separación clara de capas de almacenamiento, cómputo, y servicios, Snowflake aborda la mayoría de los desafíos a encontrarse en el área de Data Warehousing.

      Historia
    • Teleport es una pasarela de seguridad para el acceso a infraestructuras nativas en la nube. Una de las características interesantes de Teleport es su capacidad para actuar como Autoridad de Certificación (CA) para tu infraestructura. Puedes emitir certificados de corta duración y construir accesos basados en roles (RBAC) más ricos para la infraestructura sobre Kubernetes (o solo para SSH). Al aumentar el foco en la seguridad de la infraestructura es importante mantener la pista de los cambios. Sin embargo, no todos los eventos requieren el mismo nivel de auditoría. Con Teleport puedes continuar registrando en el log la mayoría de los eventos, y a la vez proporcionar un plus al registrar también la actividad en la pantalla de usuario para las sesiones de root que tienen mayores privilegios.

      Historia

    RESISTIR?

      ¿No encuentras aquello que querías ver?

      Cada edición del radar incluye blips que contienen la información encontrada durante los últimos seis meses. Es posible que ya hayamos incluido el tema que estás buscando en radares anteriores. Hay veces que omitimos algunos temas debido a que hay demasiado de que hablar. O también, puede faltar algo debido a que en el radar buscamos reflejar nuestra experiencia, no lo basamos en un análisis exhaustivo del mercado.

      Nuevo o modificado,Ningún cambio