Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 33 | Novembro 2025

Plataformas

Inscreva-se
  • Plataformas

    Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração

Plataformas

Adote ?

  • 32. Arm na nuvem

    As instâncias de computação Arm na nuvem tornaram-se cada vez mais populares nos últimos anos devido ao seu menor custo e maior eficiência energética em comparação às instâncias tradicionais baseadas em x86. Os principais provedores de nuvem — incluindo AWS, Azure e GCP — agora oferecem opções robustas baseadas em Arm. Essas instâncias são especialmente atraentes para workloads de grande escala ou sensíveis a custos. Muitos de nossos times migraram com sucesso workloads como microsserviços, bancos de dados de código aberto e até mesmo aplicações de computação de alta performance para Arm, exigindo apenas alterações mínimas de código e pequenos ajustes em scripts de build. Novas aplicações e sistemas nativos da nuvem estão cada vez mais adotando Arm na nuvem como padrão. Com base em nossa experiência, recomendamos instâncias de computação Arm para a maioria dos workloads, a menos que existam dependências específicas de arquitetura. Ferramentas modernas, como as imagens Docker multi-arquitetura, tornam ainda mais simples o processo de build e deploy em ambientes Arm e x86.

Experimente ?

  • 33. Apache Paimon

    Apache Paimon é um formato de data lake de código aberto projetado para viabilizar a arquitetura lakehouse. Ele se integra perfeitamente com mecanismos de processamento como Flink e Spark, suportando tanto operações de streaming quanto em lote (batch). Uma vantagem fundamental da arquitetura do Paimon está na fusão de um formato de data lake padrão com uma estrutura LSM (log-structured merge-tree). Essa combinação resolve os desafios tradicionais de atualizações de alta performance e leituras de baixa latência em data lakes. O Paimon suporta tabelas de chave primária para atualizações em tempo real e de alta vazão, e inclui um motor de merge customizável para deduplicação, atualizações parciais e agregações. Esse design permite a ingestão eficiente de dados de streaming e o gerenciamento de estado mutável diretamente no lake. O Paimon também oferece recursos maduros de data lake, como metadados escaláveis, transações ACID, time travel, evolução de schema e layouts de dados otimizados por meio de compressão e Z-ordering. Recomendamos avaliar o Paimon para projetos que precisem de uma camada de armazenamento unificada, capaz de lidar eficientemente com dados append-only em grande escala e atualizações complexas de streaming em tempo real.

  • 34. DataDog LLM Observability

    Datadog LLM Observability oferece rastreamento de ponta a ponta, monitoramento e diagnósticos para modelos de linguagem de grande porte e workflows de aplicações agênticas. Ele mapeia cada comando, chamada de ferramenta e passo intermediário em segmentos e traços; rastreia latência, uso de tokens, erros e métricas de qualidade; e se integra com a suíte mais ampla de APM e observabilidade do Datadog. Organizações que já utilizam o Datadog — e estão familiarizadas com sua estrutura de custos — podem achar a ferramenta de observabilidade de LLM uma maneira direta de ganhar visibilidade sobre workloads de IA, presumindo que esses workloads possam ser instrumentados. No entanto, configurar e usar a instrumentação de LLM exige cuidado e um entendimento sólido tanto dos workloads quanto de sua implementação. Recomendamos que as pessoas de engenharia de dados e de operações colaborem de perto ao implantá-lo. Veja também nosso conselho sobre evitar times de engenharia de dados separados.

  • 35. Delta Sharing

    Delta Sharing é um padrão e protocolo aberto para o compartilhamento seguro e multiplataforma de dados, desenvolvido pela Databricks e pela Linux Foundation. Ele é agnóstico à nuvem, permitindo que as organizações compartilhem dados em tempo real entre provedores de nuvem e locais on-premise sem copiar ou replicar os dados — preservando a atualidade dos dados e eliminando custos de duplicação. Vimos uma empresa de e-commerce usar o Delta Sharing com sucesso para substituir um sistema fragmentado de compartilhamento de dados com parceiros por uma plataforma centralizada, segura e que funciona em tempo real, melhorando significativamente a colaboração. O protocolo usa uma API REST simples para emitir URLs pré-assinadas de curta duração, permitindo que os destinatários recuperem grandes conjuntos de dados usando ferramentas como pandas, Spark ou Power BI. Ele suporta o compartilhamento de tabelas de dados, views, modelos de IA e notebooks. Embora forneça uma governança e auditoria centralizadas fortes, as pessoas usuárias devem permanecer atentas aos custos de saída de dados da nuvem, que podem se tornar um risco operacional significativo se não forem gerenciados.

  • 36. Dovetail

    A plataforma aborda o desafio persistente de gerenciar dados fragmentados de pesquisas qualitativas. Ela fornece um repositório centralizado para entrevistas com pessoas usuárias, transcrições e insights, transformando dados brutos em um ativo estruturado e analisável. Nós a consideramos extremamente valiosa em fluxos de trabalho de descoberta de produto, especialmente para criar uma trilha de evidências que conecta citações de clientes e temas sintetizados diretamente às hipóteses de produto e ao ROI estimado. Ao fazer isso, o Dovetail fortalece o papel dos dados qualitativos na tomada de decisão de produto.

  • 37. Langdock

    Langdock é uma plataforma para que organizações desenvolvam e executem agentes e workflows de IA generativa para operações internas. Ela fornece um ambiente unificado com assistentes de chat internos, uma camada de API para conexão com múltiplos LLMs e ferramentas para construir workflows com agentes que se integram a sistemas como Slack, Confluence e Google Drive. A plataforma destaca a soberania de dados, oferecendo opções on-premise e hospedadas na União Europeia com padrões de conformidade empresariais. As organizações que implantam o Langdock ainda devem prestar muita atenção à governança de dados e usar técnicas como a análise de fluxo tóxico para evitar a combinação letal (lethal trifecta). Quem o adota também deve considerar a maturidade da plataforma, avaliar as integrações específicas requeridas por eles e planejar qualquer desenvolvimento customizado que possa ser necessário.

  • 38. LangSmith

    LangSmith é uma plataforma hospedada do time do LangChain que oferece observabilidade, tracing e avaliação para aplicações de LLM. Ela captura rastreamentos detalhados de chains, ferramentas e prompts, permitindo que os times façam o debug e meçam o comportamento do modelo, monitorem regressões de performance e gerenciem conjuntos de dados de avaliação. O LangSmith é um SaaS proprietário com suporte limitado para workflows que não são do LangChain, o que o torna mais atraente para times que já investiram nesse ecossistema. Seu suporte integrado para avaliação e experimentação de prompts é notavelmente mais polido do que o de alternativas de código aberto como o Langfuse.

  • 39. Model Context Protocol (MCP)

    O Model Context Protocol (MCP) é um padrão aberto que define como as aplicações e agentes de LLM se integram com fontes de dados e ferramentas externas, melhorando significativamente a qualidade dos resultados gerados por IA. O MCP foca no acesso a contexto e ferramentas, o que o torna diferente do protocolo Agent2Agent (A2A), que governa a comunicação entre agentes. Ele especifica servidores (para dados e ferramentas como bancos de dados, wikis e serviços) e clientes (agentes, aplicações e assistentes de programação). Desde nosso último blip, a adoção do MCP aumentou, com grandes empresas como JetBrains (IntelliJ) e Apple se juntando ao ecossistema, ao lado de frameworks emergentes como o FastMCP. Um padrão de preview do Registro MCP agora suporta a descoberta de ferramentas públicas e proprietárias. No entanto, a rápida evolução do MCP também revelou algumas lacunas arquiteturais, atraindo críticas por ignorar as melhores práticas estabelecidas de RPC (Chamada de Procedimento Remoto). Para aplicações em produção, os times devem olhar além do hype e aplicar um escrutínio adicional, mitigando fluxos tóxicos usando ferramentas como o MCP-Scan e monitorando de perto o rascunho do módulo de autorização para segurança.

  • 40. n8n

    n8n é uma plataforma de automação de workflow com licença fair-code, semelhante ao Zapier ou Make (anteriormente Integromat), mas construída para pessoas desenvolvedoras que desejam uma opção auto-hospedada, extensível e controlável por código. Ela oferece low-code e uma abordagem mais visual para a criação de workflows em comparação com o Apache Airflow, enquanto ainda suporta código customizado em JavaScript ou Python. Seu principal caso de uso é a integração de múltiplos serviços em workflows automatizados, mas também pode conectar LLMs com fontes de dados, memória e ferramentas configuráveis. Muitos de nossos times usam o n8n para prototipar rapidamente workflows agênticos acionados por aplicações de chat ou webhooks, muitas vezes aproveitando suas capacidades de importação e exportação para gerar workflows com a assistência de IA. Como sempre, aconselhamos cautela ao usar plataformas de baixo código (low-code) em produção. No entanto, os workflows auto-hospedados e definidos por código do n8n podem mitigar alguns desses riscos.

  • 41. OpenThread

    OpenThread é uma implementação de código aberto do protocolo de rede Thread desenvolvida pelo Google. Ele suporta todas as features principais da especificação Thread — incluindo camadas de rede como IPv6, 6LoWPAN e LR-WPAN — bem como capacidades de rede mesh que permitem que um dispositivo funcione tanto como um nó quanto como um roteador de borda. O OpenThread roda em uma ampla gama de plataformas de hardware, aproveitando uma camada de abstração flexível e hooks de integração que permitem aos fornecedores incorporar suas próprias capacidades de rádio e criptografia. Este protocolo maduro é amplamente utilizado em produtos comerciais e, em nossa experiência, provou ser confiável para a construção de diversas soluções de IoT — desde dispositivos de baixa potência operados por bateria até redes de sensores mesh em grande escala.

Avalie ?

  • 42. Protocolo AG-UI

    AG-UI é um protocolo aberto e uma biblioteca projetados para padronizar a comunicação entre interfaces de usuário ricas e agentes. Focado em agentes que interagem diretamente com a pessoa usuária, ele utiliza middleware e integrações de cliente para se generalizar entre qualquer frontend e backend. O protocolo define uma maneira consistente para que agentes de backend se comuniquem com aplicações de frontend, permitindo uma colaboração stateful e em tempo real entre a IA e pessoas usuárias humanas. Ele suporta múltiplos protocolos de transporte, incluindo SSE e WebSockets, e fornece tipos de eventos padronizados para representar diferentes estados de execução do agente. Há suporte nativo para frameworks de agentes populares, como LangGraph e Pydantic AI, com integrações da comunidade para outros.

  • 43. Protocolo agente-para-agente (A2A)

    Agent2Agent (A2A) é um protocolo que define um padrão para comunicação e interação entre agentes em workflows complexos e multiagente. Ele utiliza Agent Cards para descrever os elementos-chave da comunicação entre agentes, incluindo a descoberta de habilidades e a definição dos esquemas de transporte e segurança. O A2A complementa o Model Context Protocol (MCP), concentrando-se na comunicação entre agentes sem expor detalhes internos, como estado, memória ou funcionamento interno de cada agente. O protocolo incentiva boas práticas, como uma abordagem asynchronous-first para tarefas de longa duração, respostas via streaming para atualizações incrementais e transporte seguro com HTTPS, autenticação e autorização. SDKs estão disponíveis em Python, JavaScript, Java e C#, facilitando a adoção rápida. Embora ainda recente, o A2A possibilita que equipes construam agentes de domínio específico capazes de colaborar para formar workflows complexos — tornando-o uma opção promissora para esse tipo de cenário.

  • 44. Amazon S3 Vectors

    O Amazon S3 Vectors estende o armazenamento de objetos do S3 com capacidades vetoriais nativas, oferecendo armazenamento e busca por similaridade de vetores integrados. Ele se integra de forma transparente com o ecossistema da AWS, incluindo o Amazon Bedrock e o OpenSearch, e fornece recursos adicionais como filtragem de metadados e governança via IAM. Embora ainda esteja em prévia e sujeito a restrições e limitações, consideramos sua proposta de valor convincente. Essa abordagem acessível e de custo-benefício para o armazenamento de vetores poderia viabilizar uma gama de aplicações que envolvem grandes volumes de dados e onde a baixa latência não é a principal preocupação.

  • 45. Ardoq

    Ardoq é uma plataforma de arquitetura corporativa (EA) que permite às organizações construir, gerenciar e escalar suas bases de conhecimento de arquitetura para que possam planejar o futuro com mais eficácia. Diferente da documentação estática tradicional, que é propensa a se desatualizar e a ficar isolada, a abordagem orientada a dados do Ardoq extrai informações de sistemas existentes para criar um grafo de conhecimento dinâmico que se mantém atualizado à medida que o cenário evolui. Uma feature que achamos particularmente útil é o Ardoq Scenarios, que permite modelar e definir visualmente estados futuros hipotéticos what-if usando uma abordagem de branching e merging semelhante à do Git. Organizações que buscam uma transformação arquitetônica devem avaliar plataformas de EA dedicadas como o Ardoq pelo seu potencial de otimizar e acelerar esse processo.

  • 46. CloudNativePG

    CloudNativePG é um Kubernetes Operator que simplifica a hospedagem e o gerenciamento de clusters PostgreSQL de alta disponibilidade no Kubernetes. Rodar um serviço stateful como o PostgreSQL no Kubernetes pode ser complexo, exigindo conhecimento profundo tanto do Kubernetes quanto da replicação do PostgreSQL. O CloudNativePG abstrai grande parte dessa complexidade ao tratar todo o cluster PostgreSQL como um único recurso declarativo e configurável. Ele fornece uma arquitetura primário/standby transparente, usando replicação via streaming nativa, e inclui features de alta disponibilidade prontas para uso, incluindo capacidades de autorrecuperação, failover automatizado que promove a réplica mais alinhada e recriação automática de réplicas que falharam. Se você está procurando hospedar o PostgreSQL no Kubernetes, o CloudNativePG é um ponto de partida sólido.

  • 47. Coder

    Coder É uma plataforma para provisionar rapidamente ambientes de programação padronizados, seguindo a prática de ambientes de desenvolvimento na nuvem que descrevemos anteriormente. Em comparação com ferramentas similares como o Gitpod (agora rebatizado como Ona) e o GitHub Codespaces, o Coder oferece maior controle sobre a customização da estação de trabalho por meio do Terraform. Ele hospeda as estações de trabalho em sua própria infraestrutura, seja na nuvem ou em um data center, em vez de nos servidores de um fornecedor. Essa abordagem proporciona mais flexibilidade, incluindo a capacidade de executar agentes de programação de IA e acessar sistemas organizacionais internos. No entanto, essa flexibilidade vem com contrapartidas: mais esforço para configurar e manter os templates das estações de trabalho e maior responsabilidade no gerenciamento dos riscos de segurança de dados em workflows com agentes.

  • 48. Graft

    Graft é um motor de armazenamento transacional que permite a sincronização de dados fortemente consistente e eficiente em ambientes de edge e distribuídos. Ele consegue isso usando replicação preguiçosa para sincronizar dados apenas sob demanda, replicação parcial para minimizar o consumo de largura de banda e isolamento de snapshot serializável para garantir a integridade dos dados. Mencionamos o Electric no Radar para um caso de uso semelhante, mas vemos o Graft como único ao transformar o armazenamento de objetos em um sistema transacional que suporta atualizações consistentes em nível de página sem impor um formato de dados. Isso o torna bem adequado para potencializar aplicações móveis local-first, gerenciar sincronizações complexas multiplataforma e servir como a espinha dorsal para réplicas stateless em sistemas serverless ou embarcados.

  • 49. groundcover

    groundcover é uma plataforma de observabilidade cloud-native que unifica logs, traces, métricas e eventos do Kubernetes em um painel unificado. Ele utiliza o eBPF para capturar dados granulares de observabilidade sem instrumentação de código — ou seja, sem inserir agentes ou SDKs no código da aplicação. O sensor eBPF do groundcover roda em um nó dedicado em cada cluster monitorado, operando de forma independente das aplicações que observa. As features principais incluem visibilidade profunda em nível de kernel, uma arquitetura traga-sua-própria-nuvem (BYOC) para privacidade de dados e um modelo de precificação agnóstico ao volume de dados que mantém os custos previsíveis.

  • 50. Karmada

    Karmada ("Kubernetes Armada") é uma plataforma para orquestrar workloads em múltiplos clusters Kubernetes, nuvens e data centers. Atualmente, muitos times fazem deploy em vários clusters usando ferramentas de GitOps como Flux ou ArgoCD combinadas com scripts customizados, portanto, uma solução de propósito específico é bem-vinda. O Karmada utiliza APIs nativas do Kubernetes, sem exigir alterações em aplicações já desenvolvidas para ambientes cloud-native. Ele oferece capacidades avançadas de agendamento para gerenciamento multi-cloud, alta disponibilidade, recuperação de falhas e roteamento de tráfego. O Karmada ainda é relativamente novo, então é importante avaliar a maturidade dos recursos dos quais seu time depende. No entanto, como um projeto da CNCF, ele tem um forte impulso, e vários de nossos times já o utilizam com sucesso. Vale notar que certas áreas — como rede, gerenciamento de estado e armazenamento entre clusters — estão fora do escopo do Karmada. A maioria dos times ainda precisará de uma service mesh como Istio ou Linkerd para lidar com tráfego e deve planejar como gerenciar workloads stateful e dados distribuídos.

  • 51. OpenFeature

    À medida que as empresas escalam, o gerenciamento de feature flags muitas vezes se torna cada vez mais complexo; os times precisam de uma camada de abstração que vá além do feature toggle mais simples possível. OpenFeature fornece essa camada por meio de uma especificação de API independente de fornecedor e orientada pela comunidade, que padroniza como as feature flags são definidas e consumidas, desacoplando o código da aplicação da solução de gerenciamento. Essa flexibilidade permite que os times troquem de provedores facilmente — desde configurações básicas usando variáveis de ambiente ou configurações em memória, até plataformas maduras como ConfigCat ou LaunchDarkly. No entanto, uma ressalva crítica permanece: os times devem gerenciar diferentes categorias de flags separadamente e com disciplina para evitar a proliferação de flags, a complexidade da aplicação e a sobrecarga excessiva de testes.

  • 52. Oxide

    Construir e operar infraestrutura privada é complexo. Essa é uma das principais razões pelas quais a nuvem pública é o padrão para a maioria das organizações. No entanto, para aquelas que precisam, a Oxide oferece uma alternativa à montagem e integração de hardware e software do zero. Ela fornece racks pré-construídos com computação, rede e armazenamento, rodando um software de sistema totalmente integrado. Os times podem gerenciar os recursos por meio das APIs IaaS da Oxide usando Terraform e outras ferramentas de automação — o que a Oxide chama de infraestrutura elástica on-premises. A VxRail da Dell e VMware, a Nutanix e a HPE SimpliVity também fornecem soluções de infraestrutura hiperconvergente (HCI), mas o que distingue a Oxide é sua abordagem de propósito específico. Ela projeta toda a stack — desde as placas de circuito e as fontes de alimentação até o firmware — em vez de montar componentes de diferentes fornecedores. A Oxide também desenvolveu e tornou de código aberto o Hubris, um kernel leve, com memória protegida e de passagem de mensagens, escrito em Rust para sistemas embarcados, juntamente com outros projetos de infraestrutura baseados em Rust. Também apreciamos que a Oxide venda seus equipamentos e software sem taxas de licença.

  • 53. Restate

    Restate é uma plataforma de execução durável projetada para lidar com desafios complexos de sistemas distribuídos na construção de aplicações stateful e tolerantes a falhas. Ela registra cada passo por meio de journaling de execução, garantindo tolerância a falhas, recuperação confiável e comunicação exactly-once entre os serviços. A principal vantagem arquitetônica da plataforma reside na separação da lógica da aplicação em três tipos de serviços duráveis: Serviços Básicos para funções stateless; Objetos Virtuais para modelar entidades concorrentes e stateful; e Workflows para orquestrar processos complexos e de múltiplos passos. Temos avaliado cuidadosamente o Restate em um grande sistema de seguros e estamos bastante satisfeitas com sua performance até agora.

  • 54. SkyPilot

    SkyPilot É uma plataforma de código aberto para executar e escalar workloads de IA on-premises ou na nuvem. Desenvolvido pelo Sky Computing Lab na UC Berkeley, o SkyPilot atua como um intermediário inteligente que encontra e provisiona automaticamente as GPUs mais baratas e disponíveis nas principais nuvens e clusters Kubernetes, muitas vezes cortando custos de computação. Para os times de infraestrutura, ele simplifica a execução de IA no Kubernetes, oferecendo uma facilidade de uso semelhante ao Slurm, robustez nativa da nuvem, acesso SSH direto aos pods e features como gang scheduling e suporte multi-cluster para escalar de forma transparente os workloads de treinamento ou inferência.

  • 55. StarRocks

    StarRocks é um banco de dados analítico que redefine o business intelligence em tempo real. Ele combina a velocidade dos sistemas OLAP tradicionais com a flexibilidade de uma data lakehouse moderna. Ele alcança latência de consulta abaixo de um segundo em escala massiva por meio de um motor de execução otimizado para SIMD, armazenamento colunar e um otimizador sofisticado baseado em custo. Essa arquitetura de alta performance permite que as pessoas usuárias executem análises complexas diretamente em formatos de dados abertos como o Apache Iceberg, sem pré-computação ou cópia de dados. Embora existam muitas plataformas nesta área, vemos o StarRocks como um forte candidato para soluções de custo-benefício que exigem tanto concorrência extrema quanto dados consistentemente atualizados ao segundo.

  • 56. Uncloud

    Uncloud é uma ferramenta leve de orquestração de contêineres e clustering que permite às pessoas desenvolvedoras levarem aplicações do Docker Compose para a produção, oferecendo uma experiência simples, semelhante à da nuvem, sem o overhead operacional do Kubernetes. Ele alcança o escalonamento entre máquinas e deploys sem tempo de inatividade ao configurar automaticamente uma rede mesh segura com WireGuard para comunicação e ao usar o proxy reverso Caddy para fornecer HTTPS automático e balanceamento de carga. A principal vantagem arquitetônica do Uncloud é seu design totalmente descentralizado, que elimina a necessidade de um plano de controle central e garante que as operações do cluster permaneçam funcionais mesmo que máquinas individuais fiquem offline. Com o Uncloud, você pode misturar e combinar livremente VMs da nuvem e servidores bare-metal em um ambiente de computação unificado e de custo-benefício.

Evite ?

Sem blips

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores