El Radar Tecnológico de Thoughtworks es una publicación semestral que ofrece una visión sobre herramientas, técnicas, plataformas, lenguajes y frameworks. Esta herramienta de intercambio de conocimiento se basa en la experiencia de nuestros equipos globales y destaca elementos que podrías querer explorar en tus proyectos.
Cada insight que compartimos está representada por un blip. Algunos blips son nuevos en este volumen del Radar, otros cambian de anillo cuando nuestra recomendación se actualiza.
Los anillos son:
- Adoptar: Blips que creemos deberías considerar seriamente utilizar.
- Probar: Elementos que creemos que ya están listos para usarse, pero que aún no están tan consolidados como los del anillo Adoptar.
- Evaluar: Elementos que vale la pena observar de cerca, pero que quizá aún no sea momento de probar, a menos que encajen particularmente bien contigo.
- Resistir: Avanza con precaución.
Explora la versión interactiva por cuadrante o descarga el PDF para leer el Radar completo. Si quieres saber más sobre cómo se construye y cómo usarlo, revisa las Preguntas Frecuentes (FAQ).
Temas para este volumen
En cada edición del Radar Tecnológico, buscamos patrones que emergen en los blips que discutimos. Esos patrones se convierten en la base de nuestros temas.
La orquestación de infraestructura llega a la IA
Las cargas de trabajo de IA están impulsando a las organizaciones a orquestar grandes flotas de GPU tanto para entrenamiento como para inferencia. Los equipos trabajan cada vez más con modelos cuyo tamaño supera la capacidad de un solo acelerador (incluso con 80 GB de HBM), lo que los lleva hacia el entrenamiento distribuido y la inferencia multi-GPU. Como resultado, los equipos de plataforma están construyendo pipelines complejos de múltiples etapas y ajustando continuamente el rendimiento para optimizar el throughput y la latencia. Las discusiones en este espacio incluyeron el uso de NVIDIA DCGM Exporter para la telemetría de flotas y topology-aware scheduling para ubicar los trabajos donde el ancho de banda entre interconexiones es mayor.
Antes de este auge en la demanda de GPU, Kubernetes ya se había consolidado como el orquestador de contenedores por defecto, y sigue siendo una base sólida para gestionar cargas de trabajo de IA a gran escala, incluso mientras exploramos alternativas como micro y Uncloud. Estamos siguiendo de cerca los patrones emergentes de planificación consciente de GPU, como la gestión de colas y cuotas mediante Kueue, combinada con la asignación según topología y gang scheduling, para ubicar trabajos multi-GPU en enlaces GPU-a-GPU rápidos (por ejemplo, NVLink/NVSwitch) y dentro de “islas” contiguas del centro de datos (como racks o pods con RDMA). Las mejoras recientes en las API de Kubernetes con reconocimiento multi-GPU y NUMA fortalecen aún más estas capacidades, mejorando el ancho de banda entre dispositivos, reduciendo la latencia de cola y aumentando la utilización efectiva.
Esperamos una rápida innovación en infraestructura de IA a medida que los equipos de plataforma buscan dar soporte al creciente volumen de flujos de trabajo de codificación asistida por IA y el auge de los agentes impulsados por MCP. En nuestra opinión, la orquestación consciente de GPU se está convirtiendo en un estándar básico: la topología ahora es una preocupación principal en la planificación.
El auge de los agentes impulsado por MCP
El auge simultáneo de MCP y los agentes, junto con el ecosistema de protocolos en expansión y herramientas construidas a su alrededor domina esta edición del Radar. Prácticamente todos los grandes proveedores están incorporando compatibilidad con MCP en sus herramientas lo cual tiene sentido: en muchos aspectos, MCP se ha convertido en el protocolo de integración definitivo para potenciar agentes y permitirles trabajar de manera eficiente y semi autónoma. Estas capacidades son fundamentales para hacer que los flujos de trabajo agéntico sean realmente productivos.
Observamos una innovación continua en los flujos de trabajo agéntico donde la ingeniería de contexto ha demostrado ser fundamental para optimizar tanto el comportamiento como el consumo de recursos. Nuevos protocolos como A2A y AG-UI están reduciendo la cantidad de configuración necesaria para construir y escalar aplicaciones multiagente orientadas al usuario. En el ámbito del desarrollo de software analizamos distintas formas de proporcionar contexto a los agentes de codificación desde archivos AGENTS.md hasta patrones como anclar agentes de codificación a una aplicación de referencia. Como es habitual en el ecosistema de IA cada edición del Tech Radar trae una nueva ola de innovación: la anterior fue RAG; esta vez, son los flujos de trabajo agéntico y la creciente constelación de herramientas, técnicas y plataformas que los sustentan junto con algunos antipatrones de IA emergentes que vale la pena observar.
Flujos de trabajo de codificación con IA
Es evidente que la inteligencia artificial está transformando la forma en que construimos y mantenemos software, y sigue dominando nuestras conversaciones más recientes. A medida que la IA se integra estratégicamente a lo largo de toda la cadena de valor del software, desde el uso de IA para comprender bases de código heredadas hasta la ingeniería progresiva con GenAI, estamos aprendiendo a suministrar mejor el conocimiento que necesitan los agentes de codificación. Los equipos están experimentando con nuevas prácticas, cómo definir prompts personalizados mediante archivos AGENTS.md e integrarse con servidores MCP como Context7 para obtener documentación de dependencias actualizada.
También existe una comprensión cada vez mayor de que la IA debe potenciar al equipo completo, no solo a las personas desarrolladoras. Están surgiendo técnicas como las prompts compartidos seleccionados y los comandos personalizados diseñadas para garantizar una difusión equitativa del conocimiento. El panorama de herramientas es vibrante: las personas diseñadoras exploran UX Pilot y AI Design Reviewer, mientras las desarrolladoras prototipan rápidamente con v0 y Bolt para la creación autónoma de prototipos de interfaz de usuario.
También seguimos debatiendo el desarrollo guiado por especificaciones: su alcance, nivel de granularidad y su potencial para servir como una única fuente de verdad en la entrega incremental. Sin embargo, en medio de este entusiasmo, la complacencia con el código generado por IA sigue siendo una preocupación compartida, recordándonos que, aunque la IA puede acelerar la ingeniería, el juicio humano sigue siendo indispensable.
Antipatrones emergentes de IA
La adopción acelerada de la IA en distintas industrias ha revelado tanto prácticas efectivas como antipatrones emergentes. Aunque vemos una clara utilidad en conceptos como la creación autónoma de prototipos de interfaz de usuario con GenAI, también reconocemos su potencial para llevar a las organizaciones hacia el antipatrón de TI en la sombra acelerado por IA. De manera similar, a medida que el Model Context Protocol (MCP) gana terreno, muchos equipos están cayendo en el antipatrón de conversión ingenua de API a MCP.
También hemos comprobado que la eficacia de las soluciones de texto-a-SQL no ha alcanzado las expectativas iniciales, y que la complacencia con código generado por IA sigue siendo un tema relevante. Incluso dentro de prácticas emergentes como el desarrollo guiado por especificaciones, hemos notado el riesgo de volver a antipatrones tradicionales de la ingeniería de software — en particular, una tendencia hacia la especificación excesiva al inicio y los lanzamientos de tipo “big bang”. Dado que la GenAI avanza a un ritmo y escala sin precedentes, esperamos que nuevos antipatrones sigan surgiendo rápidamente. Los equipos deben mantenerse atentos ante patrones que parecen efectivos al principio, pero que con el tiempo se degradan y reducen la retroalimentación, disminuyen la adaptabilidad o diluyen la responsabilidad.
Insights
Contribuyentes
El Radar Tecnológico está preparado por la Junta Asesora de Tecnología de Thoughtworks, compuesta por:
Rachel Laycock (CTO) • Martin Fowler (Chief Scientist) • Alessio Ferri • Bharani Subramaniam • Birgitta Böckeler • Bryan Oliver • Camilla Falconi Crispim • Chris Chakrit Riddhagni • Effy Elden • James Lewis • Kief Morris • Ken Mugrage • Maya Ormaza • Nati Rivera • Neal Ford • Ni Wang • Nimisha Asthagiri • Pawan Shah • Selvakumar Natesan • Shangqi Liu • Vanya Seth • Will Amaral
Este volumen fue traducido al Español por el siguiente grupo:
• Carlos Oquendo • Cecilia Geraldo • Daniel Negrete • Eduard Maura • Esteban Moreno • Jorge Arimany • Juan Romero • Sergio Gutiérrez
Suscríbete. Mantente al día.
Inscríbete para recibir correos sobre futuros lanzamientos del Radar Tecnológico y opiniones tecnológicas bimensuales de Thoughtworks.