A medida que los asistentes y agentes de codificación con IA ganan terreno, también aumenta la cantidad de datos e investigaciones que señalan preocupaciones sobre la complacencia con el código generado por IA. Si bien existe amplia evidencia de que estas herramientas pueden acelerar el desarrollo (especialmente en proyectos de prototipado y greenfield), los estudios demuestran que la calidad del código puede deteriorarse con el tiempo. La investigación de GitClear (2024) reveló que el código duplicado y el code churn han aumentado más de lo esperado, mientras que la actividad de refactorización en los historiales de commits ha disminuido. En una tendencia similar, una investigación de Microsoft sobre trabajadores del conocimiento muestra que la confianza impulsada por la IA suele darse a costa del pensamiento crítico, un patrón que también hemos observado cuando se afianza la complacencia tras el uso prolongado de asistentes de codificación. El auge de los agentes amplifica aún más estos riesgos, ya que la IA ahora genera conjuntos de cambios más grandes y difíciles de revisar. Como en cualquier sistema, acelerar una parte del flujo de trabajo aumenta la presión sobre las demás. Nuestros equipos han comprobado que usar la IA de forma efectiva en entornos de producción requiere un enfoque renovado en la calidad del código. Recomendamos reforzar prácticas consolidadas como TDD y el análisis estático, e integrarlas directamente en los flujos de trabajo de codificación, por ejemplo, mediante prompts compartidos seleccionados para equipos de software.
A medida que los asistentes de IA para escritura de código ganan peso, también lo hace el número de investigaciones y datos que traen a la luz la preocupación por la complacencia con el código generado por IA. El último estudio de calidad de código de GitClear's (https: //www.gitclear.com/aiassistantcodequality2025_research)) muestra que, en el 2024, el código duplicado y la rotación de código aumentaron más de lo previsto, mientras la actividad de refactorización en el historial de commits disminuyó. Además, como reflejo de la complacencia en el código generado por IA, un estudio de Microsoft (https: //www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/)) sobre trabajadores de conocimiento mostró que la confianza generada por la IA suele venir a costa del pensamiento crítico, un patrón que hemos observado a medida que la complacencia se instala con el uso prolongado de asistentes de programación. El auge de los agentes de ingeniería de software supervisados (https: //www.thoughtworks.com/es/radar/techniques/software-engineering-agents)) amplifica aún más los riesgos, ya que, cuando la IA genera conjuntos de cambios cada vez más grandes, los desarrolladores se enfrentan a mayores desafíos a la hora de revisar los resultados. La aparición de la codificación por vibras, donde los desarrolladores permiten que la IA genere código con una revisión mínima, ilustra la creciente confianza en los resultados generados por la IA. Si bien este enfoque puede ser adecuado para prototipos u otros tipos de código descartable, recomendamos encarecidamente no usarlo para código de producción.
Los asistentes de código con IA como GitHub Copilot y Tabnine se han hecho muy populares. Según la encuesta para desarrolladores de StackOverflow de 2024, “el 72% de todos los encuestados están a favor o muy a favor de las herramientas con IA para el desarrollo”. Aunque también vemos sus ventajas, desconfiamos del impacto a medio y largo plazo que esto tendrá en la calidad del código y advertimos a los desarrolladores sobre la complacencia con el código generado por IA. Tras unas cuantas experiencias positivas con un asistente, resulta demasiado tentador ser permisivos al revisar las sugerencias de la IA. Estudios como éste, de GitClear, muestran una tendencia a un crecimiento más rápido de las bases de código, que sospechamos coincide con un mayor número de pull requests. Y este estudio de GitHub nos hace preguntarnos si el mencionado aumento del 15% de la tasa de fusión de pull requests es realmente algo bueno o si la gente está fusionando pull requests más grandes más rápido porque confían demasiado en los resultados de la IA. Seguimos utilizando los consejos básicos “para empezar” que dimos hace más de un año, que consisten en tener cuidado con el sesgo de automatización, la falacia del costo hundido, el sesgo de anclaje y la fatiga de revisión. También recomendamos que los programadores desarrollen un buen framework mental sobre dónde y cuándo no utilizar o confiar en la IA.