Enable javascript in your browser for better experience. Need to know to enable it? Go here.
  • Ferramentas

    Adote Experimente Avalie Cautela Adote Experimente Avalie Cautela
  • Novo
  • Modificado
  • Sem alteração

Ferramentas

Adote ?

  • 66. Axe-core

    O Axe-core é uma ferramenta de código aberto para testes de acessibilidade que detecta problemas em sites e outras aplicações baseadas em HTML. Ele verifica as páginas quanto à conformidade com padrões como o WCAG — incluindo os níveis de conformidade A, AA e AAA — e sinaliza as melhores práticas comuns de acessibilidade. Desde que apareceu pela primeira vez no Radar em Trial em 2021, vários de nossos times adotaram o Axe-core com seus clientes. A acessibilidade é cada vez mais um atributo de qualidade obrigatório. Na Europa, por exemplo, regulamentações como a Lei Europeia de Acessibilidade exige que as organizações garantam que seus serviços digitais atendam aos requisitos de acessibilidade. O Axe-core se encaixa bem nos fluxos de trabalho (workflows) de desenvolvimento modernos, permitindo verificações automatizadas em pipelines de CI. Isso ajuda os times a prevenir regressões, manter a conformidade e receber feedbacks antecipados durante o desenvolvimento, garantindo que a acessibilidade faça parte do ciclo de feedback, principalmente à medida que as ferramentas de programação assistidas por IA e baseadas em agentes são adotadas mais amplamente.

  • 67. Claude Code

    O Claude Code da Anthropic é uma ferramenta de IA autônoma para programação para planejar e executar workflows complexos de múltiplas etapas. Estamos trazendo o Claude Code para o Adopt porque times dentro e fora da Thoughtworks agora o utilizam no dia a dia na entrega de software em produção, onde ele é amplamente tratado como um benchmark de capacidade e usabilidade. O cenário das CLI de agentes se expandiu rapidamente com ferramentas como o Codex CLI da OpenAI, o Gemini CLI do Google, o OpenCode e o pi, mas o Claude Code continua sendo a opção preferida para muitos times. Seu uso agora vai além da criação de código para a execução mais ampla de workflows, incluindo especificações, histórias de usuários, configuração, infraestrutura, documentação e processos de negócios definidos em markdown. O Claude Code continua introduzindo recursos que acabam sendo seguidos por outras ferramentas, como skills, subagentes, controle remoto e workflows de times autônomos. Os times que adotam o Claude Code devem combiná-lo com práticas operacionais metódicas. A programação com agentes desloca o esforço da pessoa desenvolvedora da implementação manual para a especificação de intenção, restrições e revisão de limites. Isso pode acelerar a entrega, mas também aumenta o risco de complacência com código gerado por IA, o que pode tornar os sistemas mais difíceis de manter e evoluir tanto para pessoas quanto para agentes. Estamos vendo uma atenção crescente à harness engineering como uma maneira de implementar engenharia de contexto (seleção de contexto baseada em escopo e ciente de tópico) e instruções compartilhadas com curadoria para tornar os workflows baseados em agentes mais confiáveis.

  • 68. Cursor

    O Cursor está entre os agentes de programação mais amplamente adotados que vemos hoje, aparecendo consistentemente ao lado do Claude Code como uma escolha padrão para nossos times de entrega. Ele amadureceu para um ambiente abrangente baseado em agentes com recursos como modo de planejamento, hooks e subagentes. Embora os agentes baseados em terminal continuem populares, muitas de nossas pessoas desenvolvedoras acham que supervisionar um agente dentro de uma IDE fornece uma experiência mais rica para revisar e refinar planos antes da execução. A adoção do Agent Client Protocol reduziu ainda mais as barreiras para a grande base de pessoas usuárias da Jetbrains, tornando os recursos do Cursor acessíveis dentro dessas IDEs. Valorizamos particularmente a capacidade de inspecionar etapas individuais do agente ou reverter (roll back) para estágios anteriores quando um plano se desvia. Ao alavancar as Skills de agentes, os times podem empacotar instruções reutilizáveis para ajudar a padronizar como os agentes interagem com bases de código complexas. Embora os ganhos de produtividade sejam evidentes, a autonomia do agente ainda requer testes automatizados rigorosos e supervisão humana para capturar regressões sutis.

  • 69. Kafbat UI

    O Kafbat UI é uma interface web gratuita e de código aberto para monitorar e gerenciar clusters do Apache Kafka. Ele tem se mostrado especialmente útil quando as equipes precisam inspecionar payloads que, de outra forma, seriam difíceis de ler durante a depuração no dia a dia. Em nossa experiência, os times frequentemente encontram dificuldades ao depurar mensagens criptografadas, e o suporte do Kafbat UI a SerDes nativos e extensíveis oferece uma maneira prática de aplicar descriptografia ou decodificação personalizada para que as mensagens se tornem legíveis novamente. Em comparação a scripts de depuração pontuais, ele oferece feedback mais rápido e uma melhor experiência operacional para desenvolvedores e equipes de suporte. Recomendamos o Kafbat UI para ambientes com uso intenso de Kafka, onde a inspeção segura de mensagens e a resolução eficiente de problemas devem ser práticas padrão.

  • 70. mise

    Desde nossa última avaliação, o mise evoluiu de uma alternativa de alto desempenho ao asdf para um frontend padrão para o ambiente de desenvolvimento. Estamos movendo-o para Adote porque ele consolida três preocupações fragmentadas — versionamento de ferramentas e linguagens, gerenciamento de variáveis de ambiente e execução de tarefas — em uma única ferramenta de alto desempenho baseada em Rust, configurada por meio de um arquivo declarativo mise.toml. O mise é fácil de configurar e funciona bem com pipelines de CI/CD. Ele também adiciona uma camada de segurança da cadeia de suprimentos por meio da integração com o Cosign e o GitHub Artifact Attestations, o que frequentemente falta em outros gerenciadores de versão. Para times que buscam padronizar a configuração de seus ambientes para as pessoas desenvolvedoras, o mise se tornou nosso padrão recomendado. Em ambientes poliglotas com múltiplos microsserviços, isso é especialmente útil quando as bases de código adotam novas versões de linguagem ao mesmo tempo. O melhor de tudo é que o mise também funciona com as ferramentas específicas de linguagem já existentes, para que os times não precisem migrar tudo de uma vez.

Experimente ?

  • 71. cargo-mutants

    O cargo-mutants é uma ferramenta de teste de mutação para Rust que ajuda nossos times a ir além de simples métricas de cobertura de código. Ao injetar automaticamente pequenos bugs intencionais — como trocar operadores ou retornar valores padrão — ele verifica se os testes existentes realmente capturam regressões. Descobrimos que sua abordagem de configuração zero é particularmente eficaz; diferente de ferramentas anteriores, ele não exige alterações na árvore de código-fonte. Para times menos experientes em Rust, ele fornece um ciclo de feedback útil, identificando edge cases esquecidos e melhorando a confiabilidade dos testes de unidade e de integração. Essa ferramenta é uma implementação especializada de testes de mutação (mutation testing), que também estamos experimentando em outros ecossistemas. O custo principal é o aumento do tempo de execução dos testes, pois cada mutante requer uma compilação incremental. Para gerenciar isso, recomendamos focar em módulos específicos durante o desenvolvimento local ou rodar suítes completas de forma assíncrona na CI. Embora, ocasionalmente, os times precisem filtrar mutantes logicamente equivalentes, o aumento na confiança dos testes supera esse ruído adicional.

  • 72. Claude Code plugin marketplace

    Anteriormente, compartilhar comandos personalizados, agentes especializados, servidores MCP e skills era um processo manual que dependia de pessoas desenvolvedoras copiarem e colarem instruções do Confluence ou de outras fontes externas. Isso frequentemente levava a desvios de versão, com pessoas do time usando instruções de projeto desatualizadas. Nossos times agora estão usando o Claude Code plugin marketplace para distribuir comandos, prompts e skills compartilhados usando um modelo de distribuição baseado em Git. Ao hospedar marketplaces internos do time no GitHub ou em plataformas semelhantes, as organizações podem distribuir esses artefatos de forma mais segura e consistente. As pessoas desenvolvedoras podem, então, sincronizar os workflows e ferramentas impulsionados por IA diretamente em seus ambientes locais via CLI. Outros agentes de programação, como o Cursor, também suportam um plugin marketplace para times, permitindo uma maneira mais otimizada e governada de compartilhar esses artefatos.

  • 73. Dev Containers

    Os Dev Containers fornecem uma maneira padronizada de definir ambientes de desenvolvimento em contêineres e reprodutíveis usando um arquivo de configuração devcontainer.json. Originalmente projetados para dar aos times configurações de desenvolvimento consistentes, os Dev Containers encontraram um novo e atraente caso de uso como ambientes de execução em sandbox para agentes de programação. Executar um agente de programação de IA dentro de um Dev Container o isola do sistema de arquivos do host, das credenciais e da rede, permitindo que os times concedam amplas permissões aos agentes sem colocar a máquina host em risco. A especificação aberta é suportada nativamente pelo VS Code e por ferramentas baseadas no VS Code, como o Cursor. O DevPod estende o suporte do devcontainer para qualquer editor ou workflow de terminal via SSH. Os Dev Containers adotam uma abordagem efêmera por padrão — ou seja, o contêiner é reconstruído a partir da configuração a cada inicialização —, o que fornece um limite de segurança limpo ao custo de ter que reinstalar ferramentas e dependências. Para times que precisam de estado persistente ou recursos de checkpoint e restauração, alternativas como o Sprites adotam uma abordagem diferente. Os Dev Containers também oferecem benefícios de segurança da cadeia de suprimentos além do sandboxing de agentes. Ao definir o conjunto de ferramentas em uma configuração declarativa, os times reduzem a exposição a pacotes comprometidos e a dependências inesperadas nas máquinas das pessoas desenvolvedoras.

  • 74. Figma Make

    Anteriormente, nós colocamos no Radar a prototipagem de UI de autoatendimento com GenAI, e essa técnica agora é amplamente adotada pelos times de desenvolvimento, incluindo product managers e designers, para gerar protótipos de alta fidelidade que podem ser testados pelas pessoas usuárias finais. O Figma Make é uma boa opção para construir esses protótipos, pois aproveita componentes e camadas reais do design de um sistema, fazendo com que os resultados se assemelhem muito às aplicações em produção. O Figma Make usa um modelo de IA sob medida, treinado com base em padrões de design de alta qualidade. Nossos times estão usando-o para criar novos design de telas, aprimorar as telas existentes e construir protótipos compartilháveis para coletar feedback rápido das pessoas usuárias.

  • 75. OpenAI Codex

    O OpenAI Codex evoluiu para uma ferramenta de programação baseada em agentes independente, disponível via CLI e com um aplicativo dedicado para macOS. Ele foi projetado para a delegação autônoma de tarefas: dado um prompt, ele planeja, implementa e itera em arquivos com o mínimo de intervenção. Nossos times o consideraram eficaz como uma ferramenta de rascunho de alta velocidade, particularmente para tarefas greenfield e trabalho de implementação repetitivo. No entanto, sua tendência de sugerir padrões de biblioteca logicamente sólidos, mas funcionalmente desatualizados, significa que testes automatizados e revisão humana são essenciais. Assim como com outras ferramentas baseadas em agentes neste Radar, o risco de acumular dívida técnica sutil é real e proporcional ao nível de autonomia que os times concedem a ele.

  • 76. Typst

    O Typst é um sistema de composição tipográfica baseado em marcação posicionado como um sucessor moderno do LaTeX para geração programática de documentos. Ele combina tipografia de alta qualidade com uma sintaxe mais simples e um pipeline de compilação significativamente mais rápido, compilando até mesmo documentos muito grandes em uma fração do tempo exigido pelos conjuntos de ferramentas tradicionais do LaTeX. O Typst oferece mensagens de erro mais claras e recursos de script integrados, como condicionais e loops. Ele também é capaz de carregar dados estruturados de JSON ou CSV, tornando-o muito adequado para geração automatizada de documentos. Nossos times usaram o Typst para gerar extratos e relatórios para clientes de serviços bancários e financeiros, onde os documentos devem ser produzidos em escala com formatação consistente. O compilador de código aberto pode ser auto-hospedado, e seu ecossistema em crescimento inclui pacotes contribuídos pela comunidade. O Typst é mais acessível que o LaTeX, ao mesmo tempo em que entrega uma qualidade tipográfica comparável.

Avalie ?

  • 77. Agent Scan

    O Agent Scan é um scanner de segurança para ecossistemas de agentes que identifica componentes locais, incluindo servidores MCP e skills, e sinaliza riscos como injeção de prompt, "tool poisoning", "toxic flows", segredos hardcoded e tratamento inseguro de credenciais. Ele aborda uma lacuna emergente na visibilidade da cadeia de suprimentos de agentes e oferece uma forma prática de inventariar e testar superfícies expostas por agentes, em rápida expansão. No entanto, a adoção deve ser criteriosa. Isso ocorre por vários motivos: as varreduras exigem o compartilhamento de metadados de componentes com as APIs da Snyk, e tanto a qualidade dos sinais gerados quanto as taxas de falsos positivos precisam ser validadas no seu ambiente. É importante que os times confirmem o valor operacional do Agent Scan antes de torná-lo parte de gates obrigatórios no processo de entrega.

  • 78. Beads

    O Beads é um issue tracker baseado em Git, projetado como uma camada de memória persistente para agentes de codificação. Em vez de depender de planos em Markdown ad hoc, ele oferece aos agentes um grafo de tarefas estruturado com relações de dependência/bloqueio, detecção de tarefas prontas para execução e coordenação compatível com branches para trabalhos de longo prazo em várias sessões. Ele é construído sobre o Dolt, um banco de dados SQL com controle de versão integrado que oferece suporte a branches, merge, diffs e clonagem de tabelas de forma semelhante a um repositório Git. O Beads representa uma nova categoria de ferramentas de memória de projeto e de rastreamento de tarefas nativas de agentes. Outros projetos pioneiros neste espaço incluem o ticket e o tracer. Diferente dos sistemas de tickets tradicionais, como GitHub Issues e Jira, o Beads e ferramentas similares viabilizam novos workflows para coordenar a execução autônoma de múltiplos agentes, incluindo agentes que atribuem tarefas uns aos outros.

  • 79. Bloom

    O Bloom é uma ferramenta da Anthropic para pessoas pesquisadoras de segurança em IA avaliarem o comportamento de LLMs. Ele investiga comportamentos como a bajulação e a autopreservação. Em comparação com benchmarks estáticos, ele usa uma configuração inicial que define os comportamentos alvo e os parâmetros de avaliação para gerar dinamicamente conversas de teste diversificadas e, em seguida, avaliar os resultados. Essa abordagem para avaliação comportamental automatizada é necessária para acompanhar o ritmo dos lançamentos de modelos, permitindo que times de pesquisa externos conduzam avaliações. O Petri é uma ferramenta complementar que identifica quais comportamentos surgem para um determinado modelo, enquanto o Bloom identifica em quais cenários e com que frequência esses comportamentos ocorrem, formando juntos um conjunto de avaliação mais completo. Uma preocupação é que o Bloom requer um modelo professor (ou avaliador) que avalia um determinado modelo aluno. Modelos professores podem ter pontos cegos e vieses, portanto, usar múltiplos avaliadores pode reduzir o viés nos resultados. Times de pesquisa em segurança de IA devem avaliar o Bloom como um complemento aos benchmarks estáticos para avaliar comportamentos emergentes de modelos.

  • 80. CDK Terrain

    O CDK Terrain (CDKTN) é um fork mantido pela comunidade do Cloud Development Kit for Terraform (CDKTF), que a HashiCorp descontinuou e arquivou em dezembro de 2025. O CDK Terrain retoma de onde o CDKTF parou, permitindo que os times definam infraestrutura usando TypeScript, Python ou Go e a provisionem por meio do Terraform ou OpenTofu. Para times que já investiram no CDKTF, o CDK Terrain oferece um caminho de migração que preserva o código e os workflows existentes, em vez de forçar uma migração para o HCL ou Pulumi. O projeto tem lançamentos mensais e passou a oferecer suporte de primeira classe ao OpenTofu. No entanto, forks mantidos pela comunidade de projetos abandonados por fornecedores trazem riscos inerentes quanto ao suporte de longo prazo, e a abordagem do CDKTF nunca alcançou ampla adoção. A HashiCorp citou a falta de product-market fit ao descontinuá-lo. Os times que usam CDKTF atualmente devem avaliar o CDK Terrain como uma opção de continuidade, mas também ponderar se este é o momento certo para migrar para uma abordagem com suporte mais amplo.

  • 81. CodeScene

    Nós colocamos no Radar a análise social de código lá em 2017, mas com o aumento da adoção de agentes de programação, estamos vendo um interesse renovado, particularmente em ferramentas como o CodeScene. O CodeScene é uma ferramenta de análise comportamental de código que identifica a dívida técnica combinando métricas de complexidade de código com o histórico do controle de versão. Diferente da análise estática tradicional, ela destaca "hotspots" para ajudar os times a priorizar a refatoração com base na atividade real de desenvolvimento e no impacto nos negócios. O CodeScene agora fornece orientações para o design de código amigável à IA. Nossos times estão descobrindo que a qualidade do código se tornou ainda mais importante, pois os agentes de programação podem modificar o código muito mais rapidamente do que as pessoas desenvolvedoras humanas. A métrica CodeHealth do CodeScene fornece um guardrail útil ao identificar áreas onde o código é complexo demais para os LLMs refatorarem com segurança sem um alto risco de alucinações. Recomendamos que os times avaliem o CodeScene como um guardrail para a adoção de agentes de programação. Sua métrica CodeHealth destaca alvos seguros de refatoração e sinaliza áreas que exigem remediação antes que os agentes sejam aplicados.

  • 82. ConfIT

    O ConfIT é uma biblioteca para definir testes de API de integração e de componente de forma declarativa em JSON, em vez de escrever fluxos de teste de forma imperativa no código. Estamos vendo um interesse crescente nessa abordagem, pois grandes suítes de testes frequentemente acumulam boilerplate em torno de clientes HTTP, configuração de requisições e asserções. O desenvolvimento assistido por IA reforça ainda mais essa tendência, tornando as definições de teste estruturadas mais fáceis de gerar e manter do que o código procedural verboso. Com base na experiência em clientes e em nossa avaliação, uma camada declarativa pode reduzir a duplicação entre testes de integração e de componentes, melhorar a legibilidade e tornar a intenção do teste mais fácil de evoluir entre os times. No entanto, o próprio ConfIT parece ter uma adoção limitada da comunidade e um ecossistema pequeno, tornando mais difícil recomendá-lo amplamente apesar desses benefícios. Acreditamos que vale a pena avaliar o ConfIT para times .NET que exploram testes de API orientados a especificações. Os times devem, no entanto, validar sua capacidade de manutenção a longo prazo, adequação ao ecossistema e as concessões operacionais antes de adotá-lo mais amplamente.

  • 83. Entire CLI

    A Entire CLI se conecta aos workflows do Git para capturar sessões de agentes de programação de IA — incluindo transcrições, prompts, chamadas de ferramentas, arquivos modificados e uso de tokens — como metadados pesquisáveis armazenados em uma branch dedicada do repositório. Ela suporta o Claude Code, Gemini CLI, OpenCode, Cursor, Factory AI Droid e GitHub Copilot CLI. À medida que os agentes de IA se tornam os principais contribuidores das bases de código, os times enfrentam uma lacuna crescente entre o que o Git rastreia e o que realmente acontece durante uma sessão de programação. A Entire CLI resolve isso registrando sessões completas junto com os commits, criando uma trilha de auditoria da atividade do agente sem poluir o histórico da branch principal. Seu sistema de checkpoint também permite uma recuperação prática: os times podem retroceder para um estado funcional, quando um agente sai dos trilhos, e retomar de qualquer checkpoint. Embora a ferramenta ainda seja muito nova e o ecossistema para rastreabilidade de sessões de agentes ainda esteja se formando, os times com requisitos de conformidade ou auditoria relacionados a código gerado por IA podem achar a captura de sessão nativa do Git uma solução ideal.

  • 84. Git-AI

    O Git AI é uma extensão do Git de código aberto que rastreia código gerado por IA em seus repositórios, vinculando cada linha escrita por IA ao agente, modelo e prompts que a geraram. O Git AI usa checkpoints e hooks para rastrear mudanças incrementais no código entre o início e o fim de um commit. Cada checkpoint contém um diff entre o estado atual e o checkpoint anterior, marcado como sendo de autoria de IA ou humana. Essa abordagem é mais precisa do que métodos focados em rastrear a autoria de código de IA pela contagem de linhas de código no momento da inserção. O Git AI usa um padrão aberto (open standard) para rastrear código gerado por IA usando o Git Notes. Embora o ecossistema de agentes suportados ainda esteja amadurecendo, acreditamos que vale a pena avaliar o Git AI para times que buscam reter a capacidade de manutenção a longo prazo e a responsabilidade em um fluxo de trabalho baseado em agentes. Tanto humanos quanto agentes de IA podem consultar a intenção original e as decisões arquiteturais por trás de um bloco de código específico via skill /ask, referenciando a sessão arquivada do agente.

  • 85. Google Antigravity

    O Google Antigravity é um fork independente do VS Code, construído com tecnologia licenciada do Windsurf e lançado em prévia pública junto com o Gemini 3 em novembro de 2025. O Antigravity centraliza a IDE em torno da orquestração de múltiplos agentes: um gerenciador de agentes executa vários agentes em paralelo nas tarefas, um navegador Chromium integrado permite que os agentes interajam diretamente com UIs ativas, e um sistema de skills armazena instruções reutilizáveis de agentes no repositório. O gerenciador de agentes atua mais como um painel de "Mission Control" do que apenas uma barra lateral de chat padrão, mudando fundamentalmente o papel da pessoa desenvolvedora de escrever código linha por linha para orquestrar múltiplos fluxos de trabalho autônomos. As pessoas desenvolvedoras ainda podem entrar no editor para assumir o controle com um humano no ciclo (HITL) quando necessário. O Antigravity se integra ao Google Cloud e ao Firebase por meio do Model Context Protocol e suporta o desenvolvimento de agentes via Agent Development Kit. Estamos colocando o Antigravity em Avalie porque ele continua em prévia pública sem data para disponibilidade geral (GA), e sua postura de segurança e prontidão corporativa ainda estão em evolução. O modelo de execução com múltiplos agentes e o acesso autônomo ao navegador sinalizam para onde as IDEs baseadas em agentes estão indo.

  • 86. Google Mainframe Assessment Tool

    A Google Mainframe Assessment Tool ajuda as organizações a fazer engenharia reversa de aplicações que rodam em mainframes, analisando um portfólio inteiro ou sistemas individuais. Em sua essência, ela depende de parsers determinísticos de linguagem para mapear fluxos de chamadas e dependências de dados em bases de código, criando uma visão estrutural de como as aplicações interagem. A partir dessa base, os recursos de IA generativa oferecem resumos, documentação, geração de casos de teste e sugestões de modernização. Essa abordagem se alinha a um padrão mais amplo de usar GenAI para entender bases de código legadas, onde insights sólidos sobre o sistema formam a base para o uso eficaz da IA. Embora a ferramenta ainda não ofereça suporte a todas as principais stacks de tecnologia de mainframe, ela está evoluindo rapidamente. Nossos times a consideraram útil em projetos com clientes focados em descoberta e modernização de aplicações de mainframe.

  • 87. OpenCode

    O OpenCode rapidamente se tornou um dos agentes de programação de código aberto mais proeminentes, com uma experiência robusta e focada no terminal. Um de seus pontos mais fortes é a flexibilidade de modelos: ele suporta modelos de fronteira hospedados, endpoints auto-hospedados e modelos locais. Isso torna o OpenCode atrativo para controle de custos, personalização e ambientes restritos, incluindo configurações isoladas (air-gapped). Isso também significa que as pessoas usuárias precisam ter clareza sobre o licenciamento e os termos do provedor ao usar assinaturas ou APIs. O modelo de extensões do OpenCode é outro grande atrativo, dando suporte a plugins e integrações MCP para workflows, ferramentas e guardrails específicos do time. Muitas pessoas usuárias adicionam o Oh My OpenCode, uma estrutura (harness) opcional, mas popular, que fornece uma configuração mais rígida (opinionated), completa e pronta para uso (batteries-included), com times de agentes coordenados e padrões de orquestração mais ricos.

  • 88. OpenSpec

    À medida que as capacidades dos agentes de programação de IA evoluem, as pessoas desenvolvedoras enfrentam cada vez mais desafios com a previsibilidade e a capacidade de manutenção quando os requisitos e o contexto vivem apenas em históricos efêmeros de chat. Para resolver isso, estamos vendo o surgimento de ferramentas de desenvolvimento orientado a especificações (SDD). O OpenSpec é um framework SDD de código aberto que introduz uma camada leve de especificação, garantindo que as pessoas desenvolvedoras humanas e os agentes de IA se alinhem sobre o que construir antes que o código seja gerado. O que diferencia o OpenSpec é o seu workflow fluido e mínimo, que muitas vezes é reduzido a três etapas: propor -> aplicar -> arquivar. Muitos frameworks SDD (por exemplo, GitHub Spec Kit) ou workflows de Skills de agentes (por exemplo, Superpowers) são mais adequados para projetos greenfield do que brownfield. Gostamos particularmente do foco do OpenSpec nos deltas de especificação em vez de definir uma especificação completa antecipadamente, o que o torna muito adequado para sistemas existentes. Diferente de alternativas mais pesadas que impõem workflows mais rígidos (como o BMAD) ou que exigem integrações de IDE específicas de fornecedores (como o Kiro), o OpenSpec é iterativo e agnóstico em relação a ferramentas. Para times que buscam introduzir estrutura e previsibilidade no desenvolvimento assistido por IA sem adotar um processo pesado, o OpenSpec é um framework amigável para pessoas desenvolvedoras que vale a pena avaliar. Enquanto isso, à medida que os modelos e os agentes de programação continuam a se tornar mais poderosos, também recomendamos que os times continuem a monitorar e revisitar as capacidades nativas e a reavaliar a necessidade de ferramentas de SDD.

  • 89. PageIndex

    O PageIndex é uma ferramenta que constrói um índice hierárquico de um documento para pipelines de RAG baseados em raciocínio e sem vetores, em vez de depender da recuperação tradicional baseada em embeddings. Em vez de dividir um documento em vetores, o que pode perder informações estruturais e fornecer visibilidade limitada sobre por que os resultados foram recuperados, o PageIndex constrói um índice de sumário que um LLM percorre passo a passo para recuperar o conteúdo relevante. Isso produz um rastro explícito de raciocínio que explica por que uma seção específica foi selecionada, semelhante a como um ser humano escaneia os títulos e se aprofunda em seções específicas. Alguns de nossos times descobriram que essa abordagem funciona bem para documentos em que o significado depende fortemente da estrutura e não da semântica, como relatórios financeiros com dados numéricos, documentos legais com artigos de referência cruzada e documentos clínicos ou científicos complexos. No entanto, essa abordagem traz concessões. Por exemplo, como a inferência do LLM faz parte do processo de recuperação, ela pode introduzir latência e custos significativos, especialmente para documentos grandes.

  • 90. Pencil

    O Pencil é uma ferramenta de canvas de design que se integra com IDEs e agentes de programação, como o Cursor e o Claude Code. De modo diferente do Figma, que atualmente oferece apenas acesso de leitura, o Pencil executa um servidor MCP local bidirecional que dá acesso tanto de leitura quanto de escrita para manipular o canvas diretamente. Ele também fornece capacidades de design-to-code (design para código) de forma semelhante a ferramentas como o Figma Make e o Builder.io, mas adota uma abordagem mais centrada nas pessoas desenvolvedoras, com arquivos de design armazenados no repositório em um formato JSON aberto chamado .pen, tornando os assets de design versionáveis junto com o código. Essa abordagem pode ajudar a preencher a lacuna na transição de design para desenvolvimento ao se integrar com ferramentas familiares para as pessoas desenvolvedoras. Para design systems complexos e de grande escala, o Figma continua sendo o padrão para colaboração entre diferentes papéis. No entanto, vale a pena considerar o Pencil para times sem profissionais de design dedicados ou para times com pessoas desenvolvedoras que possuem fortes habilidades de design.

  • 91. Pi

    O Pi é um agente de programação de terminal minimalista e de código aberto, escrito em TypeScript. Nós o vemos como algo atraente para pessoas curiosas e experimentadoras, em vez de um padrão corporativo mainstream. O pi é uma estrutura enxuta que é mais personalizável do que um agente completo como o OpenCode. Também é mais fácil de adaptar do que construir um novo agente com um framework baseado em agentes, como ADK, LangGraph ou Mastra. O projeto ainda está em fase inicial e é liderado principalmente por pessoas mantenedoras, apesar da forte tração e de atualizações frequentes. Trate o pi como um building block voltado para pessoas engenheiras, e não como uma plataforma corporativa completa com todos os guardrails e suporte.

  • 92. Qwen 3 TTS

    O Qwen 3 TTS é um modelo de conversão de texto em fala de código aberto que fecha grande parte da lacuna de qualidade em relação às ofertas comerciais, ao mesmo tempo em que oferece maior controle para as pessoas desenvolvedoras do que muitas APIs pagas. Ele oferece suporte a múltiplos idiomas, pode clonar vozes a partir de amostras curtas (aproximadamente 10 a 15 segundos) e permite o fine-tuning pós-treinamento para vozes específicas de um domínio ou personagem, tornando-o uma opção atraente para times que precisam de fala específica da marca ou controle on-premises. Ainda é um lançamento recente, e os times devem validar a estabilidade, os controles de segurança, a adequação do licenciamento e a maturidade operacional antes de adotá-lo para workloads de voz críticos em produção.

  • 93. SGLang

    O SGLang é um framework de serviço de alto desempenho que reduz o overhead de computação da inferência de LLMs por meio de um co-design de sua linguagem de programação de frontend e runtime de backend. Ele introduz o RadixAttention, uma técnica de gerenciamento de memória que armazena em cache e reutiliza de forma agressiva os estados KV (chave-valor) entre prompts. Essa abordagem entrega melhorias significativas de desempenho em relação a motores de serviço padrão, como o vLLM, em cenários com alta sobreposição de prefixos. Para times que constroem agentes autônomos complexos, que dependem de prompts de sistema longos ou usam extensivamente few-shot prompting com exemplos compartilhados, o SGLang pode fornecer ganhos substanciais em latência e eficiência.

  • 94. ty

    À medida que o Python continua a crescer em popularidade, especialmente no espaço de IA e ciência de dados, ter um sistema de tipos forte torna-se cada vez mais valioso. O ty é um verificador de tipos e servidor de linguagem Python extremamente rápido, escrito em Rust. Ele faz parte do ecossistema Astral, que também inclui ferramentas como o uv e o ruff. O ty fornece feedback rápido e se integra bem a editores comuns, como o Visual Studio Code, entre outros. Em nossa experiência, o uso do ty junto com outras ferramentas da Astral simplifica o desenvolvimento em Python em escala nas grandes organizações. Conforme a programação baseada em agentes se torna mais comum, ter um verificador de tipos determinístico com um ciclo de feedback rápido ajuda a detectar erros cedo e reduz o esforço de revisão de código em erros simples.

  • 95. Warp

    Desde a última vez que incluímos o Warp no Radar, ele evoluiu muito além de sua descrição de "terminal com recursos de IA". Seus pontos fortes centrais permanecem — saída de comandos baseada em blocos, sugestões impulsionadas por IA e recursos de notebook —, mas o Warp se expandiu para um território tradicionalmente ocupado por IDEs. Ele agora pode renderizar Markdown, exibir uma árvore de arquivos e abrir arquivos diretamente no terminal, suportando um workflow completo de desenvolvimento baseado em agentes em diferentes painéis: um agente de programação como o Claude Code em um, um shell no outro e a visualização de arquivos do workspace em um terceiro painel. Uma vantagem prática que observamos é que o Warp lida com a saída de texto de alta taxa de transferência produzida por agentes de programação modernos melhor do que os terminais tradicionais, onde a velocidade de renderização e a legibilidade podem se tornar gargalos. O Warp também adicionou um assistente de programação integrado, embora isso não tenha sido amplamente avaliado em nossos times. O Warp lançou recentemente o Oz, uma plataforma de orquestração para agentes em nuvem que se integra ao terminal. Este blip foca no próprio terminal. Times que preferem um terminal leve e combinável e desejam trazer suas próprias ferramentas de IA podem achar o Ghostty uma opção melhor; ele adota uma abordagem deliberadamente minimalista em contraste com a filosofia completa (batteries-included) do Warp. O ritmo de novos recursos e as ambições de plataforma mais amplas do Warp tornam a implementação da Avaliação (Trial) prematura até que o produto se estabilize e ganhamos mais experiência de campo com suas capacidades mais recentes.

  • 96. WuppieFuzz

    O WuppieFuzz é um fuzzer de código aberto para APIs REST que usa uma definição OpenAPI para gerar solicitações válidas, modifica-as para explorar os casos extremos (edge cases) e se baseia no feedback de cobertura do servidor para priorizar entradas que alcançam novos caminhos de execução. Isso é importante porque a maioria dos times ainda depende de testes de integração e de contrato baseados em exemplos, que raramente investigam entradas inesperadas, sequências de solicitação incomuns ou caminhos propensos a falhas, mesmo que as APIs sejam frequentemente a principal superfície de integração de sistemas modernos. Com base em nossa avaliação inicial, o WuppieFuzz parece um complemento promissor para esses testes, porque pode descobrir problemas como exceções não tratadas, lacunas de autorização, vazamentos de dados sensíveis, erros do lado do servidor e falhas de lógica que os testes roteirizados podem deixar passar. Os times ainda precisam avaliar como ele se encaixa na CI, o overhead de runtime que ele introduz e quão úteis são seus resultados na prática. Por essa razão, acreditamos que vale a pena avaliar o WuppieFuzz para times que constroem APIs REST críticas ou expostas externamente.

Cautela ?

  • 97. OpenClaw

    O OpenClaw é um projeto de código aberto na categoria que sua criadora chama de "assistente de IA hiper-pessoal". As pessoas usuárias hospedam sua própria instância, a mantém continuamente disponível por meio de canais de mensagens como WhatsApp ou iMessage e, em seguida, permitem que ela execute tarefas por meio de ferramentas conectadas. Com memória persistente de conversas, preferências e hábitos, o OpenClaw cria uma experiência pessoal persistente que parece materialmente diferente das interfaces de chat de GenAI ou agentes de programação típicos. O modelo é claramente atraente e já inspirou seguidores como o Claude Cowork. Nós colocamos o OpenClaw em Reflita porque o modelo exige concessões (trade-offs) de segurança substanciais. Quanto mais acesso você concede a ele — ao calendário, e-mail, arquivos e comunicações — mais útil ele se torna, e mais ele concentra permissões exatamente no padrão sobre o qual alertamos em análise de fluxo tóxico para IA. Esse risco não é exclusivo do OpenClaw; ele se aplica a outras implementações do mesmo padrão, incluindo ofertas de fornecedores estabelecidos. Nós publicamos conselhos para times sobre o OpenClaw e ambientes de execução em sandbox, e alternativas como NanoClaw ou ZeroClaw podem reduzir o raio de impacto. No entanto, o padrão de assistente hiper-pessoal por si só continua ávido por permissões e sendo de alto risco.

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Português

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores