Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 33 | Novembro 2025

Technology Radar

Um guia de opinião sobre o universo de tecnologia atual
Inscreva-se

O Thoughtworks Technology Radar é um panorama semestral de ferramentas, técnicas, plataformas, linguagens e frameworks. Essa ferramenta de compartilhamento de conhecimento é baseada na experiência de nossas equipes globais e destaca coisas que você pode querer explorar em seus projetos.

 

  • Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Adote Experimente Avalie Evite Adote Experimente Avalie Evite
  • Novo
  • Modificado
  • Sem alteração
Sem blips
Sem blips
Sem blips

Cada insight que compartilhamos é representado por um ponto. Os pontos podem ser novos no Radar mais recente, ou podem mudar de anel conforme nossa recomendação muda.

 

Os anéis são:

  • Adote: Pontos que achamos que você deve considerar seriamente usar.
  • Experimente: Opções que achamos que estão prontas para uso, mas não tão comprovadas quanto as do anel Adote.
  • Avalie: Opções para observar atentamente, mas não necessariamente experimentar ainda, a menos que você ache que seja um encaixe particularmente bom para você.
  • Evite: Proceda com cautela.

 

Explore a versão interativa por quadrante ou baixe o PDF para ler o Radar completo. Se quiser saber mais sobre o Radar, como usá-lo ou como ele é construído, consulte as Perguntas Frequentes (FAQ).

 

Baixe o PDF

 

 

 

English | Español | Português 

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Temas para este volume

 

Em cada volume do Radar Tecnológico, buscamos padrões emergentes nos pontos que discutimos. Esses padrões formam a base de nossos temas.

A orquestração de infraestrutura chega para a IA

Os workloads de IA estão levando as organizações a orquestrarem grandes frotas de GPUs tanto para treinamento quanto para inferência. Os times trabalham cada vez mais com modelos de tamanhos que excedem a capacidade de um único acelerador (mesmo com 80 GB de HBM), empurrando-os para o treinamento distribuído e a inferência multi-GPU. Como resultado, os times de plataforma estão construindo pipelines complexos, de múltiplos estágios, e fazendo o tuning contínuo para taxa de transferência e latência. As discussões neste espaço incluíram o Nvidia DCGM Exporter para telemetria da frota e o agendamento consciente de topologia para alocar jobs onde a largura de banda de interconexão é maior.

Antes desse aumento na demanda por GPUs, o Kubernetes já havia se consolidado como o orquestrador de contêineres de fato — e ele continua sendo um substrato forte para gerenciar workloads de IA em escala, mesmo enquanto também exploramos alternativas como micro e Uncloud. Estamos acompanhando padrões emergentes de agendamento cientes de GPU — como enfileiramento e cota via Kueue, acoplados com posicionamento consciente de topologia e gang scheduling — para co-localizar jobs multi-GPU em links GPU-para-GPU rápidos (por exemplo, NVLink/NVSwitch) e dentro de "ilhas" de data center contíguas (por exemplo, racks ou pods com RDMA). Melhorias recentes nas APIs cientes de multi-GPU e NUMA no Kubernetes fortalecem ainda mais essas capacidades, melhorando a largura de banda entre dispositivos, reduzindo a latência de cauda e aumentando a utilização efetiva.

Esperamos uma inovação rápida na infraestrutura de IA à medida que os times de plataforma correm para suportar a crescente demanda por workflows de programação com IA e o surgimento de agentes elevados pelo MCP. Em nossa visão, a orquestração ciente de GPU está se tornando o básico — a topologia agora é uma preocupação de primeira classe no agendamento.

A ascensão de agentes elevados por MCP

A ascensão dupla do MCP e dos agentes — e do ecossistema em expansão de protocolos e ferramentas construídos em torno deles — domina esta edição do Radar. Praticamente todos os principais fornecedores estão adicionando a consciência de MCP às suas ferramentas, o que faz sentido: de muitas maneiras, o MCP se tornou o protocolo de integração definitivo para potencializar os agentes e permitir que eles trabalhem de forma eficiente e semi-autônoma. Essas capacidades são centrais para tornar produtivos os fluxos de trabalho com agentes.

Observamos a inovação contínua nos fluxos de trabalho com agentes, onde a engenharia de contexto provou ser crítica para otimizar tanto o comportamento quanto o consumo de recursos. Novos protocolos como A2A e AG-UI estão reduzindo o código repetitivo necessário para construir e escalar aplicações multiagente voltadas para a pessoa usuária. No espaço de desenvolvimento de software, comparamos diferentes maneiras de fornecer contexto aos agentes de programação — desde arquivos AGENTS.md até padrões como ancorar agentes de programação a uma aplicação de referência. Como esperado no ecossistema de IA, cada Radar traz uma nova onda de inovação — na edição passada foi o RAG; desta vez, são os fluxos de trabalho com agentes e a crescente constelação de ferramentas, técnicas e plataformas que os suportam, juntamente com alguns antipadrões de IA emergentes que merecem atenção.

Workflows de programação com IA

É inegável que a IA está transformando a forma como construímos e mantemos software — e continua sendo um tema central em nossas discussões recentes. À medida que a IA se integra estrategicamente em toda a cadeia de valor do desenvolvimento — desde o uso de IA para compreender bases de código legadas até a engenharia direta com GenAI  — estamos aprendendo a fornecer conhecimento de forma mais eficaz aos agentes de programação. As equipes estão experimentando novas práticas, como a definição de instruções personalizadas por meio de arquivos AGENTS.md e a integração com servidores MCP, como o Context7, para acessar documentação atualizada de dependências.

Há também uma compreensão crescente de que a IA deve potencializar o time inteiro, não apenas contribuidoras individuais. Técnicas como bibliotecas de instruções compartilhadas e curadas e comandos personalizados estão surgindo para promover uma disseminação mais equitativa do conhecimento. O cenário de ferramentas é vibrante: designers exploram o UX Pilot e o AI Design Reviewer, enquanto desenvolvedores prototipam rapidamente com o v0 e o Bolt para prototipagem de UI de autoatendimento.

Também seguimos debatendo o desenvolvimento orientado por especificação — seu escopo, granularidade e potencial para atuar como uma única fonte da verdade na entrega incremental. No entanto, em meio ao entusiasmo, a complacência com o código gerado por IA permanece uma preocupação compartilhada, lembrando-nos de que, embora a IA possa acelerar a engenharia, o discernimento humano continua sendo indispensável.

Antipadrões emergentes de IA

A adoção acelerada da IA em todos os setores tem revelado tanto práticas eficazes quanto anti-padrões emergentes. Embora vejamos uma utilidade clara em conceitos como a prototipagem de UI de autoatendimento e descartável com GenAI, também reconhecemos seu potencial para levar as organizações ao antipadrão de shadow IT acelerado por IA. Da mesma forma, à medida que o Model Context Protocol (MCP) ganha tração, muitos times estão sucumbindo ao antipadrão de conversão ingênua de API para MCP.

Também descobrimos que a eficácia das soluções de Text to SQL não atendeu às expectativas iniciais, e a complacência com o código gerado por IA continua a ser uma preocupação relevante. Mesmo dentro de práticas emergentes como o desenvolvimento guiado por especificação, notamos o risco de reverter a anti-padrões tradicionais da engenharia de software — mais notavelmente, um viés em direção à especificação pesada inicial e a entregas big-bang. Como a GenAI está avançando em um ritmo e escala sem precedentes, esperamos que novos antipadrões surjam rapidamente. Os times devem permanecer vigilantes para padrões que parecem eficazes no início, mas que, com o tempo, degradam e retardam o feedback, minam a adaptabilidade ou desfocam a responsabilidade.

Contribuidoras

 

O Technology Radar é preparado pelo Conselho Consultivo de Tecnologia (TAB) da Thoughtworks, composto por:

 

Rachel Laycock (CTO) • Martin Fowler (Chief Scientist) • Alessio Ferri • Bharani Subramaniam • Birgitta Böckeler • Bryan Oliver • Camilla Falconi Crispim • Chris Chakrit Riddhagni • Effy Elden • James Lewis • Kief Morris •  Ken Mugrage • Maya Ormaza • Nati Rivera • Neal Ford • Ni Wang • Nimisha Asthagiri • Pawan Shah • Selvakumar Natesan • Shangqi Liu • Vanya Seth • Will Amaral

 

O volume 32 foi traduzido para o português pelo seguinte grupo:

 

Ayrton Araujo • Bruno BarretoElis Meza Gabriela Tiago • Gustavo de Paula Andrade Isabella VelledaPaulo Calixto • Pedro Cavalcante •  Victor Luz Vivianne Guimarães • Yuri Condori • Willian Amaral

Assine. Fique por dentro.

Publicamos conteúdos relacionados ao Technology Radar ao longo do ano. Inscreva-se para recebê-los.

Marketo Form ID is invalid !!!

Visite nosso arquivo para acessar os volumes anteriores