Plataformas
Adoptar
-
Colima es ahora nuestra alternativa por defecto a Docker Desktop en macOS. Continuamos usándola en varios proyectos para provisionar el tiempo de ejecución (runtime) de los contenedores docker en una Lima VM, para configurar el CLI de docker en macOS y para gestionar el reenvío de puertos y el montaje de volúmenes. Colima puede configurarse para ejecutar containerd como su tiempo de ejecución, que también es el tiempo de ejecución en la mayoría de los servicios gestionados de Kubernetes, mejorando la importante paridad entre dev-prod.
Probar
-
Los eventos son mecanismos comunes en arquitecturas orientadas a eventos o en aplicaciones serverless. Sin embargo, los productores o proveedores cloud tienden a admitirlos de forma diferente, lo que dificulta la interoperabilidad entre plataformas e infraestructuras. CloudEvents es una especificación para usar formatos comunes en la descripción de los datos de eventos asegurando, de esta manera, la interoperabilidad entre servicios, plataformas y sistemas. Ofrece SDKs (kits de desarrollo) en varios lenguajes para integrar la especificación dentro de tu aplicación o herramientas de desarrollo. Nuestros equipos no solo lo usan para soluciones multiplataforma cloud, sino también para la especificación de eventos de dominio, entre otros escenarios. CloudEvents está mantenido por la Cloud Native Computing Foundation (CNCF) y ahora funciona como un proyecto incubadora, ganando cada vez más interés por parte de la industria.
-
DataOps.live es una plataforma de datos que automatiza entornos en Snowflake. Inspirada en prácticas de DevOps, DataOps.live te permite tratar a la plataforma de datos como a cualquier otra plataforma web al adoptar integración y entrega continua (CI/CD, por sus siglas en inglés), comprobaciones automáticas, observabilidad y administración de código. Nuestros equipos lo están usando para administrar el ciclo de vida de productos de datos, que incluye desarrollo, ramificación y despliegue tanto de código como de datos. Con su administración de entornos automatizada, resulta muy fácil construir entornos basados en ramas de funcionalidad, modificarlos y destruirlos automáticamente. También vale la pena mencionar su prestación de especificación declarativa (SOLE), que hace posible tener una experiencia de desarrollo simplificada. Esto le permite a los equipos reducir el tiempo que toma construir productos de datos de meses a días. Nuestros equipos han estado utilizando DataOps.live exitosamente en producción, y es por eso que recomendamos esta plataforma a la hora de trabajar con Snowflake.
-
Han ocurrido desarrollos significativos en el mundo de la IA desde la primera vez que publicamos al respecto.Google Cloud Vertex AI. Desde mayo de 2023, Google ha presentado distintos servicios y funcionalidades que han enriquecido este ámbito. Estos incluyen,Model Garden, un repositorio con más de 100 modelos previamente entrenados; Generative AI Studio, una consola destinada a explorar y prototipar rápidamente modelos de IA generativa; y Extensiones Vertex AI las cuales proveen herramientas para desarrolladores totalmente manejadas para conectar modelos IA y data en tiempo real o acciones vía APIs. La plataforma ha evolucionado para ofrecer modelos de IA generativa y soporte de integración, y estamos emocionados de utilizarlo.
-
Desde la última vez que escribimos acerca de Immuta, nuestros equipos han ganado significativa experiencia con esta plataforma de seguridad de datos. Su capacidad para definir políticas de datos y suscripción como código, control de versiones y el despliegue de estas políticas automáticamente en entornos superiores son características que están entre sus puntos más destacados. Su soporte ABAC ermite asociar etiquetas a los orígenes de datos; si la misma etiqueta está asociada con el usuario, el acceso es concedido. Haciendo uso de Immuta y su integración con Snowflake hemos sido capaces de automatizar la concesión de acceso a un producto o conjunto de datos como autoservicio. Cuando un “usuario” solicita acceso a un producto o conjunto de datos, una vez que es aprobado, la etiqueta de producto de datos es asociada con el “usuario” como un atributo. Dado que el atributo en el “usuario” coincide con la etiqueta en el origen de datos, el acceso es concedido automáticamente por la política de Suscripción Global de Immuta. También cabe mencionar las políticas de enmascarado de datos de Immuta que conservan la privacidad de la información al enmascar y restringir la Información de Identificación Personal (PII por sus siglas en inglés) a un usuario específico. El acceso adicional a información sensible se puede definir a un nivel mucho más granular usando políticas de seguridad a nivel de fila que aseguran que los usuarios sólo tendrán acceso a información específica para la que están autorizados a ver. Estamos contentos con Immuta, y es por eso que le estamos moviendo a Probar — ya que provee una buena experiencia al desarrollador y facilita el manejo de políticas de datos en organizaciones de gran tamaño.
-
Lokalise es una plataforma de localización totalmente automatizada que permite traducciones específicas según el contexto. Nuestros equipos utilizan la API de Lokalise en sus pipelines de ETL o en sus flujos de trabajo de desarrollo para traducir información localizable. Lokalise soporta múltiples formatos de archivo para las strings localizables. Un aspecto destacado es la capacidad de subir un fichero completo, donde cada par clave-valor se trata y se traduce como un registro separado. De forma transparente, aprovechamos la integración de Lokalise con Google MT para gestionar las traducciones. La interfaz web de usuario de Lokalise proporciona facilidad de acceso para revisiones manuales de las traducciones, acortarlas y reescribirlas según se considere adecuado. En el pasado, hemos destacado herramientas similares como Phrase. Nuestros equipos han tenido una buena experiencia con Lokalise y recomendamos que evalúes la plataforma para flujos de trabajo colaborativos de traducción.
-
Orca Es una plataforma de seguridad de nube propietaria que identifica, prioriza y corrige riesgos de seguridad, así como problemas de cumplimientos regulatorios. Es compatible con los principales proveedores de nube y con configuraciones híbridas. Orca tiene un sinfín de consultas/reglas de seguridad para monitorear continuamente cargas de trabajo con configuraciones incorrectas, vulnerabilidades y problemas de cumplimiento regulatorio. Soporta también máquinas virtuales cloud, funciones serverless, contenedores y aplicaciones en Kubernetes para las cargas de trabajo desplegadas. Estas reglas de seguridad predeterminadas son constantemente actualizadas para estar al día con los estándares regulatorios y vectores de amenazas en constante evolución. Como Orca no tiene agente, ofrece una buena experiencia de desarrollo y es fácil de configurar. Otra característica notable es que facilita seguridad continua (shift-left security). Nuestros equipos usan Orca CLI para examinar vulnerabilidades y configuraciones incorrectas en imágenes de contenedores y plantillas de Infraestructura (IaC) como hooks en git previo a realizar commits, o como parte de flujos de trabajo de CI/CD. Asimismo, monitorea y examina continuamente los registros de contenedores (por ejemplo, AWS ECR) para detectar vulnerabilidades en imágenes base o dependencias débiles del sistema operativo en imágenes ya publicadas. Acorde a la experiencia de nuestros equipos, Orca ofrece una vista unificada de la postura de seguridad en el camino hacia producción, y por este motivo lo ubicamos en Trial.
-
Trino, anteriormente conocido como PrestoSQL, es un motor de consulta SQL distribuido de código abierto diseñado para consultas analíticas interactivas sobre big data. Está optimizado para funcionar tanto en on-premise como en la nube. Soporta la consulta de los datos donde se encuentren, incluidos Hive, Cassandra, bases de datos relacionales e incluso almacenes de datos propietarios. Para autenticación admite contraseñas, LDAP y OAuth. Para autorización y control de acceso, Trino proporciona la capacidad de otorgar acceso a nivel de catálogo, esquema y tabla. Nuestros equipos utilizan grupos de recursos segmentados en función a patrones de consumo, como visualización, informes o casos de uso de ML, para administrar y limitar el uso de recursos. La monitorización basada en JMX proporciona un rico conjunto de métricas para habilitar la atribución de costos a nivel de consulta o de usuario. Nuestros equipos utilizan Trino como puerta de entrada para el acceso a datos de varias fuentes. Cuando se trata de consultar datos a gran escala, Trino es una apuesta segura para nuestros equipos. Dato curioso, en el pasado presentamos Presto, es el proyecto de Facebook del que procede Trino, apareció por primera vez en Radar en noviembre de 2015.
-
Wiz es otro de los contendientes en el panorama de las plataformas de seguridad en la nube que permite a sus usuarios prevenir, detectar y responder a riesgos de seguridad y amenazas en una sola plataforma. Wiz puede detectar y alertar sobre malas configuraciones, vulnerabilidades y secretos filtrados sea en artefactos que aún tienen que ser desplegados en producción (imágenes de contenedores, código de infraestructura) así como en cargas de trabajo en vivo (contenedores, máquinas virtuales y servicios en la nube). También contextualiza los hallazgos en el contexto del panorama de nube específico del cliente para permitir que los equipos de respuesta comprendan mejor el problema y prioricen las mitigaciones. Nuestros equipos han tenido una buena experiencia con Wiz. Encuentran que Wiz está evolucionando rápidamente y añadiendo nuevas funcionalidades, y aprecian que los habilita para detectar riesgos y amenazas antes que otras herramientas similares ya que busca constantemente cambios.
Evaluar
-
Con la actual agitación en el espacio de plataformas de micro-blogging, el protocolo ActivityPub está ganando prominencia. ActivityPub es un protocolo abierto para compartir información como artículos (posts), publicaciones y eventos. Puede utilizarse para implementar una plataforma de redes sociales, pero su principal ventaja radica en que ofrece interoperabilidad entre diferentes plataformas de redes sociales. Esperamos que ActivityPub desempeñe un papel significativo en este espacio, pero lo mencionamos aquí porque nos intrigan las posibilidades más allá de los casos de uso obvios en las redes sociales. Un ejemplo es el soporte de ActivityPub para merge requests, recientemente propuesto por GitLab.
-
Azure Container Apps es un Namespace de Kubernetes gestionado como un servicio que agiliza el despliegue de cargas de trabajo en contenedores mediante la eliminacion de un mantenimiento intrincado de los clusters de kubernetes y sus componentes de infraestructura internos, asi mismo minimizando las cargas operacionales y administrativas. Sin embargo, es esencial tener cuidado al considerar esta opción; que está actualmente en su fase de desarrollo y ha mostrado inconsistencias en la representación de sus capacidades en el portal de Azure y ha encontrado problemas de integración, en especial con el proveedor estándar de terraform para Azure con el retraso de la replicación de las funcionalidades actuales de la herramienta. Dicho esto, recomendamos analizar cuidadosamente esta herramienta.
-
Con el enorme interés en la inteligencia artificial generativa, han surgido muchas soluciones para acceder a los modelos principales. Si estás considerando usar o ya estás usando Azure, entonces merece la pena que evalúes Azure OpenAI Service. Proporciona acceso a los modelos GPT-4 y GPT35-Turbo y Embeddings de OpenAI a través de una API REST, un SDK para Python y una interfaz web. Los modelos se pueden adaptar a tareas específicas como la generación de contenidos, realización de resúmenes, búsquedas semánticas, procesamiento de lenguaje natural o traducción de código. El ajuste fino del modelo es también posible a través del aprendizaje con pocas muestras (few-shot learning) y el ajuste de sus hiperparámetros. En comparación con la propia API de OpenAI, el servicio de OpenAI de Azure se beneficia de las características de seguridad y cumplimiento de nivel empresarial de Azure; también está disponible en más regiones, aunque la disponibilidad está limitada para cada una de las regiones geográficas más grandes y en el momento en que escribimos estas líneas, India no está incluida.
-
Hay muchos modelos de lenguajes grandes (LLM) emergentes en el mundo de habla inglesa. Aunque estos modelos suelen estar previamente entrenados en varios idiomas, es posible que su rendimiento en otros idiomas no sea tan bueno como en el inglés. ChatGLM, desarrollado por la Universidad Tsinghua, es un modelo de lenguaje bilingüe abierto optimizado para la conversación en chino basado en la arquitectura del Modelo de lenguaje general. Dado que el chino puede ser más complejo que el inglés con su diferente segmentación de palabras y gramática, es importante tener un LLM optimizado para el chino. Nuestro equipo descubrió que ChatGLM superó a otros LLM en precisión y robustez, cuando creamos una aplicación china de detección de emociones para un centro de llamadas. Teniendo en cuenta que muchos LLM no están disponibles en China debido a licencias o restricciones regionales, ChatGLM se convirtió en una de las pocas opciones de código abierto.
-
Chroma Es un almacén de vectores de código abierto y una base de datos integrada, útil para mejorar aplicaciones impulsadas por modelos de lenguaje grandes (LLM) al facilitar el almacenamiento y la utilización del conocimiento del dominio en los LLM, que generalmente carecen de memoria interna. Particularmente en aplicaciones de texto a texto, Chroma puede automatizar el proceso complejo de generar word embeddings y analizar similitudes entre palabras y query embeddings, simplificando considerablemente las operaciones. También te brinda la opción de almacenar incrustaciones personalizadas, fomentando una combinación de automatización y personalización. A la luz de sus capacidades para mejorar la funcionalidad de las aplicaciones impulsadas por LLM, recomendamos a los equipos que evalúen Chroma, aprovechando su potencial para refinar la forma en que se integra el conocimiento del dominio en dichas aplicaciones.
-
Las plataformas de investigación UX como Dovetail ofrecen a las organizaciones una herramienta para entender y mejorar su experiencia de usuario. Con ella, los negocios son capaces de ganar un mejor conocimiento sobre las necesidades, preferencias y comportamientos de sus consumidores de forma fácil y rápida, recogiendo y analizando datos de feedback, encuestas, entrevistas, etc de clientes. El análisis de sentimiento, la segmentación de consumidores, la búsqueda de mercado o los análisis de datos y generación de conocimiento son tareas valiosas en el desarrollo de producto — estas encajan con lo que los LLMs saben hacer bien, por tanto, vemos un gran potencial como elemento disruptor en el campo del desarrollo de producto.
Kraftful — auto-descrito como un co-piloto para creadores de producto — ha adquirido ventaja. Es sólo una versión beta y se accede a la lista de herramientas a través de email. Hemos jugado un poco con Kraftful y hemos visto grandes resultados. Puedes conectar más de 30 referencias de feedback de usuario en la plataforma y analiza los datos e identifica solicitudes de funcionalidades, quejas comunes, qué es lo que les gusta a los usuarios sobre el producto e incluso el nombre de los competidores. Para recolectar más detalles, puedes hacer preguntas como lo harías a ChatGPT o a Google Bard — el beneficio aquí es la optimización de tus datos. Una vez se prioriza lo que se va a usar del feedback recibido, Kratful genera historias de usuario basadas en toda la información subyacente — incluyendo criterios de aceptación — convirtiéndolo en un gran asistente incluso para gerentes de producto y analistas de negocio experimentados.
-
Con el auge de las aplicaciones impulsadas por la Gen AI, observamos un patrón de almacenamiento y búsqueda eficiente de similitud de vectores incrustados o embeddings. pgvector es una extensión de búsqueda de similitud vectorial de código abierto para PostgreSQL. Nos gusta especialmente porque permite buscar embeddings en PostgreSQL sin necesidad de trasladar los datos a otro sistema de almacenamiento solo para buscar similitudes. Aunque existen varios motores de búsqueda vectorial especializados, queremos que evalúes pgvector.
-
Pinecone es una base de datos vector, completamente gestionada, developer-friendly y cloud-native con una API sencilla y sin problemas de infraestructura. Pinecone funciona con queries filtradas con baja latencia y con una escala de billones de vectores. Nuestros equipos han encontrado bases de datos propietarias y Pinecone en concreto, muy útiles y fáciles de utilizar en casos de uso cómo almacenar los conocimientos básicos de un equipo o los contenidos de un portal de ayuda (help desk) mejor que afinar LLMs complejas.
-
wazero es un entorno de ejecución de WebAssembly (WASM) libre de dependencias, escrito en Go. Aunque el propio entorno es agnóstico a lenguaje, wazero puede ser especialmente interesante para desarrolladores de Go ya que ofrece una forma conveniente de extenderprogramas escritos en este lenguaje con módulos WASM escritos en cualquiera de los lenguajes soportados. Al no depender de CGO, tus aplicaciones Go pueden ser compiladas para otras plataformas fácilmente. Aunque existen muchas opciones de entornos de ejecución para WASM, creemos que merece la pena tener en cuenta wazero.
Resistir
- Nuevo
- Modificado
- Ningún cambio
¿No encontraste algo que esperabas ver?
Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.
¿No encontraste algo que esperabas ver?
Cada edición del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. También es posible que falte algún dato porque el Radar refleja nuestra experiencia, no se basa en un análisis exhaustivo del mercado.