À medida que os assistentes e agentes de programação de IA ganham tração, também aumenta o corpo de dados e pesquisas que destacam preocupações sobre a complacência com o código gerado por IA. Embora haja ampla evidência de que essas ferramentas podem acelerar o desenvolvimento — especialmente para prototipagem e projetos greenfield — estudos mostram que a qualidade do código pode diminuir com o tempo. A pesquisa de 2024 da GitClear constatou que o código duplicado e o code churn aumentaram mais do que o esperado, enquanto a atividade de refatoração nos históricos de commit diminuiu. Refletindo uma tendência semelhante, a pesquisa da Microsoft sobre trabalhadores do conhecimento mostra que a confiança impulsionada pela IA muitas vezes ocorre em detrimento do pensamento crítico — um padrão que observamos à medida que a complacência se instala com o uso prolongado de assistentes de programação. O surgimento de agentes de programação amplifica ainda mais esses riscos, já que a IA agora gera conjuntos de alterações maiores que são mais difíceis de revisar. Como em qualquer sistema, acelerar uma parte do workflow aumenta a pressão sobre as outras. Nossos times estão descobrindo que usar a IA de forma eficaz em produção requer um foco renovado na qualidade do código. Recomendamos reforçar práticas estabelecidas como TDD e análise estática, e incorporá-las diretamente nos workflows de programação, por exemplo, por meio de instruções compartilhadas e curadas para times de software.
À medida que os assistentes de programação de IA continuam a ganhar força, o mesmo acontece com o crescente conjunto de dados e pesquisas que destacam as preocupações sobre a complacência com código gerado por IA. A mais recente pesquisa de qualidade de código da GitClear mostra que, em 2024, códigos duplicados e a rejeição de códigos aumentaram ainda mais do que o previsto, enquanto a atividade de refatoração nos históricos de commit diminuiu. Também refletindo isso, uma pesquisa da Microsoft sobre “trabalhadoras do conhecimento” descobriu que a confiança impulsionada pela IA geralmente ocorre às custas do pensamento crítico (um padrão que observamos à medida que a complacência se instala com o uso prolongado de assistentes de programação). O surgimento de agentes de engenharia de software supervisionados amplia ainda mais os riscos, pois quando a IA gera conjuntos de alterações cada vez maiores, as desenvolvedoras enfrentam desafios maiores na revisão dos resultados. O surgimento da “vibe coding”, em que desenvolvedoras permitem que a IA gere código com revisão mínima, ilustra a confiança crescente nos resultados gerados pela IA. Embora essa abordagem possa ser apropriada para coisas como protótipos ou outros tipos de código descartável, advertimos fortemente contra seu uso para código de produção.
Assistentes de codificação de IA como GitHub Copilot e Tabnine tornaram-se muito populares. De acordo com a pesquisa de desenvolvedoras da StackOverflow em 2024, 72% de todas as pessoas entrevistadas são favoráveis ou muito favoráveis às ferramentas de IA para desenvolvimento. Embora também vejamos seus benefícios, estamos cautelosas sobre o impacto de médio a longo prazo que isso terá na qualidade do código e alertamos as desenvolvedoras sobre a complacência com o código gerado por IA. É muito tentador sermos menos vigilantes ao revisar sugestões de IA após algumas experiências positivas com um assistente. Estudos como este da GitClear mostram uma tendência de bases de código crescendo mais rapidamente, o que suspeitamos coincidir com pull requests maiores. E este estudo do GitHub nos faz questionar se o aumento mencionado de 15% na taxa de merge de pull requests é realmente uma coisa boa ou se as pessoas estão mesclando pull requests maiores mais rapidamente porque confiam demais nos resultados da IA. Ainda estamos usando o conselho que compartilhamos há mais de um ano de como iniciar o uso, que é ter cuidado com o viés de automação, a falácia do custo irrecuperável, o viés de ancoragem e a fadiga de revisão. Também recomendamos que as programadoras desenvolvam uma boa estrutura mental sobre onde e quando não usar e confiar na IA.