Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 30 | Abril 2024

Plataformas

Plataformas

Adote ?

  • Eventos são mecanismos comuns em arquiteturas baseadas em eventos ou em aplicações sem servidor. Entretanto, produtores e provedores de nuvem tendem a oferecer suporte a eles em diferentes formatos, o que impede a interoperabilidade entre plataformas e infraestruturas. O CloudEvents é uma especificação para descrever dados de eventos em formatos comuns para fornecer interoperabilidade entre serviços, plataformas e sistemas. Ele fornece SDKs em várias linguagens para que você possa incorporar a especificação em seu aplicativo ou chain de ferramentas. Nossas equipes o utilizam não apenas para fins de plataformas em nuvem cruzadas, mas também para especificação de eventos de domínio, entre outros cenários. O CloudEvents é hospedado pela Cloud Native Computing Foundation (CNCF) e agora é um projeto graduado. Nossas equipes adotam o CloudEvents como padrão para construir arquiteturas baseadas em eventos e por esse motivo estamos movendo-o para Adoção.

Experimente ?

  • As instâncias de computação Arm na nuvem se tornaram cada vez mais populares nos últimos anos devido ao seu custo e eficiência energética em comparação com as instâncias tradicionais baseadas em x86. Muitos provedores de nuvem agora oferecem instâncias baseadas em Arm, incluindo AWS, Azure e GCP. Os benefícios de custo ao executar Arm na nuvem podem ser particularmente vantajosos para empresas que executam grandes cargas de trabalho ou precisam escalar. Estamos observando muitas equipes migrando para instâncias Arm para cargas de trabalho como serviços JVM e até mesmo bancos de dados (incluindo RDS) sem nenhuma alteração no código e com modificações mínimas nos scripts de compilação. Novos aplicativos e sistemas baseados em nuvem estão cada vez mais optando por Arm como padrão. Com base em nossas experiências, recomendamos instâncias de computação Arm para todas as cargas de trabalho, a menos que haja dependências específicas da arquitetura. As ferramentas para suportar arquiteturas múltiplas, como imagens Docker multi-arquitetura, também simplificam os fluxos de trabalho de compilação e implantação.

  • O Aplicativos de Contêiner do Azure é uma plataforma de aplicativo gerenciada baseada em Kubernetes que simplifica a implantação de cargas de trabalho em contêineres. Comparado ao Azure Kubernetes Service (AKS), o Aplicativos de Contêiner do Azure reduz a sobrecarga operacional e administrativa da execução de aplicativos em contêineres. No entanto, isso ocorre em detrimento de alguma flexibilidade e controle, o que é um trade-off que as equipes precisam considerar. Outro produto nessa área, o Azure Container Instances, geralmente é muito limitado para uso em produção. Nossas equipes começaram a utilizar o Aplicativos de Contêiner do Azure no ano passado, quando ainda estava em preview pública, obtendo bons resultados, mesmo ao executar contêineres grandes. Agora que está disponível para o público em geral, estamos considerando-o para mais casos de uso. Ambos os recursos, Dapr e o KEDA Autoscaler, são suportados.

  • O Serviço de Open AI do Azure fornece acesso ao GPT-4, GPT-3.5-Turbo, Embeddings, modelo DALL-E e outros da OpenAI por meio de uma API REST, um SDK Python e uma interface baseada na web. Os modelos podem ser adaptados para tarefas como geração de conteúdo, sumarização, busca semântica e tradução de linguagem natural para código. O ajuste fino também está disponível por meio de aprendizado de poucos exemplos e personalização de hiperparâmetros. Em comparação com a API própria da OpenAI, o Serviço OpenAI do Azure se beneficia dos recursos de segurança e conformidade de nível corporativo do Azure, está disponível para mais regiões (embora a disponibilidade seja limitada para cada uma das grandes regiões geográficas) e suporta rede privada, filtragem de conteúdo e controle de versão manual do modelo. Por esses motivos e por nossa experiência positiva com ele, recomendamos que as empresas que já utilizam o Azure considerem usar o Serviço OpenAI do Azure em vez da API da OpenAI.

  • Ao construir produtos de dados utilizando o conceito de mentalidade para produtos de dados, é essencial considerar a linhagem da dados, sua descoberta e governança. Nossos times descobriram que o DataHub oferece suporte particularmente útil nesses quesitos. Embora versões anteriores do DataHub exigissem a bifurcação (fork) e o gerenciamento da sincronização a partir do produto principal (caso fosse necessária a atualização do modelo de metadados), melhorias em lançamentos recentes trouxeram recursos que permitem que nossos times implementem modelos de metadados customizados com uma arquitetura baseada em plugins. Outra funcionalidade útil do DataHub é a robusta linhagem de dados ponta-a-ponta, da origem ao processamento e consumo. O DataHub suporta integração baseada em push e também extração de linhagem baseada em pull, que automaticamente varre os metadados técnicos em fontes de dados, agendadores, orquestradores (como Airflow DAG scanning), tarefas de pipelines de processamento e painéis, entre outros. Como uma opção de código aberto para um catálogo de dados holístico, o DataHub está se tornando a escolha padrão para nossos times.

  • O código-fonte interno para orquestração de infraestrutura frequentemente se torna um desperdício de tempo para manutenção e resolução de problemas. É nesse contexto que estão surgindo plataformas de orquestração de infraestrutura , prometendo padronizar e transformar em produtos os diversos aspectos do ciclo de vida de entrega e implantação de código de infraestrutura. Isso inclui ferramentas de build como Terragrunt e Terraspace, serviços de fornecedores de ferramentas IaC como Terraform Cloud and Pulumi Cloud, e também plataformas e serviços agnósticos a ferramentas como env0 e Spacelift. Existe um rico ecossistema de ferramentas e serviços de orquestração específicos para Terraform, frequentemente chamados de TACOS (Terraform Automation and Collaboration Software), incluindo Atlantis, Digger, Scalr, Terramate e Terrateam. Cada uma dessas plataformas possibilita diferentes fluxos de trabalho, incluindo GitOps, Continuous Delivery e compliance as code (conformidade como código). Estamos otimistas com o crescimento de soluções nesta área. Recomendamos que as equipes de engenharia de infraestrutura e plataforma explorem como utilizar essas plataformas para reduzir a quantidade de código customizado não-diferencial que precisam desenvolver e manter para sua infraestrutura. A padronização de como o código de infraestrutura é estruturado, compartilhado, entregue e implantado também deve criar oportunidades para o surgimento de um ecossistema de ferramentas compatíveis para testes, medição e monitoramento de infraestrutura.

  • O ecossistema de ferramentas para o gerenciamento de infraestrutura como código segue em constante evolução, e ficamos contentes em ver que o Pulumi não é exceção. A plataforma recentemente adicionou suporte para Java e YAML, para gerenciamento de infraestrutura em escala, assim como para uma variedade de configurações e integrações com a nuvem, tornando a plataforma ainda mais atraente. Para nossas equipes, o Pulumi continua sendo a principal alternativa ao Terraform para o desenvolvimento de código para múltiplas plataformas de nuvem.

  • As mudanças no licenciamento do Docker Desktop nos levaram a buscar alternativas para executar uma frota de contêineres na máquina local das pessoas desenvolvedoras. Recentemente, tivemos um bom resultado com o Rancher Desktop. Este aplicativo gratuito e de código aberto é relativamente fácil de baixar e instalar em máquinas Apple, Windows ou Linux e oferece um prático cluster local do Kubernetes com uma interface gráfica (GUI) para configuração e monitoramento. Embora o Colima tenha se tornado nossa alternativa preferida ao Docker Desktop, ele é principalmente uma ferramenta de linha de comando (CLI). Por outro lado, o Rancher Desktop atrairá aquelas pessoas que não querem abrir mão da interface gráfica oferecida pelo Docker Desktop. Assim como o Colima, o Rancher Desktop permite escolher entre dockerd ou containerd como o runtime de contêiner subjacente. A opção de usar o containerd diretamente libera a dependência do Docker CLI, mas a opção dockerd oferece compatibilidade com outras ferramentas que dependem dele para se comunicar com o daemon de execução.

  • Weights & Biases é uma plataforma de aprendizado de máquina (ML) que auxilia no desenvolvimento mais ágil de modelos por meio do rastreamento de experimentos, controle de versão de conjuntos de dados, visualização do desempenho do modelo e gerenciamento de modelos. A plataforma pode ser integrada ao código de ML existente para acesso das métricas em tempo real, logs de terminal e estatísticas do sistema transmitidas ao painel para análises posteriores. Recentemente, o Weights & Biases expandiu sua atuação para a observabilidade de LLM com o Traces. O Traces visualiza o fluxo de execução de cadeias de prompts, assim como entradas e saídas intermediárias, além de fornecer metadados sobre a execução da cadeia (como tokens usados e horário de início e término). Nossas equipes consideram a ferramenta útil para depuração e obtenção de uma melhor compreensão da arquitetura da cadeia.

Avalie ?

  • Bun é um novo runtime JavaScript, similar ao Node.js ou Deno. Ao contrário do Node.js ou Deno, o Bun é construído usando o JavaScriptCore do WebKit em vez do motor V8 do Chrome. Projetado como uma substituição direta para o Node.js, o Bun é um único binário (escrito em Zig) que funciona como bundler, transpilador e gerenciador de pacotes para aplicações JavaScript e TypeScript. Desde o nosso último volume, o Bun passou da fase beta para uma versão estável 1.0. O Bun foi construído do zero com diversas otimizações - incluindo inicialização rápida, renderização do lado do servidor aprimorada e um gerenciador de pacotes alternativo muito mais rápido. Incentivamos que você o avalie como seu motor de execução JavaScript.

  • Ao gerenciar arquiteturas distribuídas, contabilizar o custo de ordenação, indexação e acesso a dados é tão crítico quanto a observabilidade. O Chronosphere adota uma abordagem única para o gerenciamento de custos, rastreando o uso de dados de observabilidade para que as organizações possam considerar as compensações entre custo e valor de várias métricas. Com a ajuda do Analisador de Uso de Métricas, que faz parte do Plano de Controle do Chronosphere, as equipes podem identificar e excluir métricas que raramente (ou nunca) usam, gerando assim economias significativas de custo ao reduzir a quantidade de dados que as organizações precisam vasculhar. Dadas essas vantagens, somadas à capacidade do Chronosphere de corresponder à funcionalidade de outras ferramentas de observabilidade para soluções hospedadas em nuvem, consideramos que seja uma opção atraente para organizações analisarem.

  • Com a crescente adoção do data mesh, nossas equipes estão em busca de plataformas de dados que tratem os produtos de dados como entidades de primeira classe. O DataOS é um desses produtos. Ele oferece gerenciamento de ciclo de vida completo para projetar, construir, implantar e evoluir produtos de dados. O DataOS fornece especificações declarativas padronizadas escritas em YAML, que abstraem a complexidade de baixo nível da configuração de infraestrutura e permitem que as pessoas desenvolvedoras definam os produtos de dados facilmente via CLI/API. Suporte a políticas de controle de acesso com ABAC e políticas de dados para filtrar e mascarar dados.Capacidade de federar dados em uma variedade de fontes de dados, o que reduz a duplicação de dados e a movimentação para um local central. O DataOS se encaixa melhor em cenários greenfield, pois fornece uma solução pronta para uso para governança de dados, descoberta de dados, gerenciamento de recursos de infraestrutura e observabilidade. Para cenários brownfield, a capacidade de orquestrar recursos fora do DataOS (por exemplo, data stacks como Databricks) ainda está em fase inicial de evolução. Se o seu ecossistema não tem uma forte opinião sobre ferramentas de dados, o DataOS é uma boa maneira de agilizar o processo de construção, implantação e consumo de produtos de dados de forma completa.

  • Dify é uma plataforma com interface gráfica para desenvolvimento de aplicativos com modelos de linguagem de grande porte (LLMs), tornando a prototipação ainda mais acessível. Ele suporta o desenvolvimento de apps de chat e geração de texto com modelos de comandos. Além disso, o Dify suporta geração aumentada por recuperação com conjuntos de dados importados e pode funcionar com vários modelos. Estamos entusiasmados com essa categoria de aplicativos. No entanto, com base em nossa experiência, o Dify ainda não está totalmente pronto para uso, pois alguns recursos apresentam bugs ou não parecem totalmente finalizados. No momento, porém, não conhecemos nenhum concorrente que seja melhor.

  • Apesar do crescente interesse em vector databases para casos de uso de geração aumentada por recuperação (RAG), pesquisas e relatórios de experiência sugerem que a combinação de busca tradicional de texto completo com busca vetorial (em uma busca híbrida) pode gerar resultados superiores. Por meio do Elasticsearch Relevance Engine (ESRE), a consagrada plataforma de busca de texto completo Elasticsearch suporta modelos de embedding incorporados e personalizados, busca vetorial e busca híbrida com mecanismos de classificação como o Reciprocal Rank Fusion. Embora essa área ainda esteja amadurecendo, em nossa experiência, o uso desses recursos do ESRE juntamente com os recursos tradicionais de filtragem, ordenação e classificação fornecidos pelo Elasticsearch tem produzido resultados promissores, sugerindo que plataformas de busca estabelecidas que suportam busca semântica não devem ser negligenciadas.

  • Dados de faturamento de nuvem e SaaS podem ser complexos, inconsistentes entre fornecedores e difíceis de entender. A Especificação de Custo e Uso Aberto FinOps (FOCUS) visa reduzir esse atrito com uma especificação contendo um conjunto de terminologias (alinhadas com a estrutura FinOps framework), um schema e um conjunto mínimo de requisitos para dados de faturamento. A especificação se destina a suportar casos de uso comuns a uma variedade de profissionais FinOps. Embora ainda esteja nos estágios iniciais de desenvolvimento e adoção, vale a pena acompanhar porque, com a crescente adoção da indústria, o FOCUS tornará mais fácil para plataformas e pessoas usuárias obter uma visão holística dos gastos com nuvem em uma longa lista de provedores de nuvem e SaaS.

  • O Gemini do Google é uma família de LLMs (modelos de linguagem de grande porte) básicas projetadas para rodar em uma ampla variedade de hardwares, desde data centers até celulares. O Gemini Nano foi especificamente otimizado e dimensionado para funcionar em aceleradores de silício móveis. Ele permite recursos como sumarização de texto de alta qualidade, respostas inteligentes contextuais e correção gramatical avançada. Por exemplo, a compreensão de linguagem do Gemini Nano permite ao Pixel 8 Pro resumir o conteúdo no aplicativo Gravador. A execução no dispositivo remove muitos dos problemas de latência e privacidade associados aos sistemas baseados em nuvem e permite que os recursos funcionem sem conexão de rede. O Android AICore simplifica a integração do modelo em aplicativos Android, mas apenas alguns dispositivos são suportados no momento da redação.

  • HyperDX é uma plataforma de código-aberto para observabilidade que unifica os três pilares da área: logs, métricas e rastreamento. Com ela, você pode realizar correlações ponta-a-ponta e ir da reprodução de sessões do navegador até logs e traces com poucos cliques. A plataforma utiliza o ClickHouse como armazenamento central para todos os dados de telemetria, escalando para agregar padrões de logs e condensar bilhões de eventos em clusters distintos. Embora existam diversas plataformas de observabilidade, destacamos o HyperDX pela sua experiência unificada para pessoas desenvolvedoras.

  • O IcePanel facilita a modelagem e o diagramação colaborativa de arquitetura utilizando o modelo C4, que permite que stakeholders técnicos e de negócios aumentem ou diminuam o zoom no nível de detalhes técnicos que necessitam. A ferramenta suporta a modelagem de objetos de arquitetura, onde metadados e conexões podem ser reutilizados entre diagramas, juntamente com a visualização de fluxo entre esses objetos. O versionamento e marcação permitem que os colaboradores modelem diferentes estados da arquitetura (por exemplo, como está versus como deveria ser) e rastreiem classificações definidas pela pessoa usuária de várias partes da arquitetura. Estamos de olho no IcePanel por seu potencial para melhorar a colaboração em arquitetura, especialmente para organizações com arquiteturas complexas. Para uma alternativa que ofereça um suporte melhor para diagramas como código, confira o Structurizr.

  • Langfuse é uma plataforma de engenharia para observabilidade, teste e monitoramento de aplicações baseadas em modelos de linguagem de grande porte (LLMs). Seus SDKs suportam Python, JavaScript e TypeScript, OpenAI, LangChain e LiteLLM entre outras linguagens e frameworks. Você pode hospedar a versão de código aberto por conta própria ou usá-la como um serviço de nuvem pago. Nossos times tiveram uma experiência positiva, particularmente na depuração de cadeias complexas de LLMs, análise de completações e monitoramento de métricas chave como custo e latência entre pessoas usuárias, sessões, regiões geográficas, funcionalidades e versões de modelos. Se você busca construir aplicações de LLM baseadas em dados, o Langfuse é uma boa opção a ser considerada.

  • Qdrant é um banco de dados vetoriais de código aberto escrito em Rust. Na edição de setembro de 2023 do Radar, falamos sobre pgvector, uma extensão do PostgreSQL para busca vetorial. No entanto, se você precisar dimensionar o banco de dados vetorial horizontalmente em vários nós, recomendamos avaliar o Qdrant. Ele possui suporte integrado de aceleração SIMD (single instruction, multiple data) para melhorar o desempenho da pesquisa e permite associar payloads JSON a vetores.

  • Enquanto a arquitetura Arm continua expandindo seu impacto — atualizamos nossa avaliação do Arm na nuvem nesta edição — o interesse na arquitetura RISC-V, mais recente e menos estabelecida, também cresce. RISC-V não traz inovações revolucionárias em performance ou eficiência — na verdade, seu desempenho por watt é similar ao de Arm, e não chega a competir em performance absoluta. No entanto, possui código aberto, é modular e não está atrelada a uma única companhia. Isso a torna uma proposta atraente para sistemas embarcados, onde o custo de licenciamento de arquiteturas proprietárias é uma preocupação significativa. É por isso também que o campo de RISC-V para embedded está amadurecendo, e diversas empresas, incluindo SiFive e espressif, estão oferecendo placas de desenvolvimento e SoCs para uma ampla variedade de aplicações. Microcontroladores e microprocessadores capazes de rodar o kernel Linux já estão disponíveis atualmente, juntamente com a pilha de software e cadeias de ferramentas correspondentes. Estamos de olho nesse espaço e esperamos ver uma maior adoção nos próximos anos.

  • Tigerbeetle é um banco de dados distribuído de código aberto voltado para contabilidade financeira. Ao contrário de outros bancos de dados, ele foi projetado como uma máquina de estado específica de domínio, priorizando segurança e performance. O estado de um nó no cluster é replicado em ordem determinística para outros nós por meio do protocolo de consenso Viewstamped Replication. Percebemos muito potencial nas decisões de design por trás do Tigerbeetle para implementar a contabilidade de partidas dobradas com rigorosas garantias de serialização.

  • O WebTransport é um protocolo construído sobre o HTTP/3 e oferece comunicação bidirecional entre servidores e aplicativos. O WebTransport oferece vários benefícios em relação ao seu predecessor, o WebSockets, incluindo conexões mais rápidas, menor latência e a capacidade de lidar com fluxos de dados confiáveis e ordenados, bem como não ordenados (como UDP). Ele pode lidar com vários fluxos na mesma conexão sem bloqueio de inicio de linha, permitindo uma comunicação mais eficiente em aplicativos complexos. No geral, o WebTransport é adequado para uma ampla variedade de casos de uso, incluindo aplicativos web em tempo real, streaming de mídia e comunicação de dados da Internet das Coisas (IoT). Embora o WebTransport ainda esteja nos estágios iniciais - o suporte entre navegadores está gradualmente amadurecendo, com bibliotecas populares como o socket. io adicionando suporte para WebTransport - nossas equipes estão atualmente avaliando seu potencial para aplicativos IoT em tempo real.

  • Zarf é um gerenciador de pacotes declarativo para ambientes Kubernetes offline e semi-conectados. Com o Zarf, você pode construir e configurar aplicações enquanto estiver conectado à internet; uma vez criadas, é possível empacotar e enviar para um ambiente desconectado para implantação. Como uma ferramenta autônoma, o Zarf oferece diversos recursos úteis, incluindo a geração automática de Lista de Materiais de Software (SBOM), registro Docker integrado, painéis Gitea e K9s para gerenciar clusters a partir do terminal. A entrega de software em ambientes isolados (air-gap) para aplicações em nuvem híbrida possui seus desafios; o Zarf soluciona a maior parte deles.

  • ZITADEL é uma ferramenta open-source de gerenciamento de identidade e pessoa usuária, e uma alternativa ao Keycloak. É leve (escrito em Golang), possui opções flexíveis de implementação e é fácil de configurar e gerenciar. Ele também é multitenant, oferece recursos abrangentes para a construção de sistemas de autenticação seguros e escaláveis, especialmente para aplicativos B2B, e possui recursos de segurança integrados, como autenticação multifator e trilhas de auditoria. Ao usar o ZITADEL, as pessoas desenvolvedoras podem reduzir o tempo de desenvolvimento, melhorar a segurança do aplicativo e alcançar escalabilidade para bases de usuários em crescimento. Se você está procurando uma ferramenta amigável, segura e open-source para gerenciamento de pessoas usuárias, o ZITADEL é um forte candidato.

Evite ?

 
  • platforms quadrant with radar rings Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores