Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Volume 34| Abril 2026

Linguagens & Frameworks

Inscreva-se
  • Linguagens & Frameworks

    Adote Experimente Avalie Cautela Adote Experimente Avalie Cautela
  • Novo
  • Modificado
  • Sem alteração

Linguagens & Frameworks

Adote ?

  • 98. Apache Iceberg

    O Apache Iceberg é um formato de tabela aberta para conjuntos de dados analíticos em larga escala, que define como os arquivos de dados, metadados e esquemas são organizados em sistemas de armazenamento como o S3. Tendo evoluído significativamente nos últimos anos, ele se tornou um bloco constitutivo (building block) fundamental para arquiteturas lakehouse agnósticas em relação à tecnologia. O Iceberg agora é suportado por todos os principais provedores de plataformas de dados — incluindo AWS (Athena, EMR, Redshift), Snowflake, Databricks e Google BigQuery —, tornando-o uma opção forte para evitar a dependência de fornecedor (vendor lock-in). O que distingue o Iceberg de outros formatos de tabela aberta é sua abertura tanto em recursos quanto em governança, diferente de alternativas cujas capacidades são limitadas ou controladas por um único fornecedor. De uma perspectiva de confiabilidade, o design baseado em snapshots (cópia do estado do sistema) do Iceberg fornece isolamento serializável, escrita simultânea segura por meio de concorrência otimista e com histórico de versões e possibilidade de reversão (rollback). Essas capacidades entregam fortes garantias de estarem corretas enquanto evitam gargalos de desempenho. Embora o Apache Spark continue sendo o motor mais comum usado com o Iceberg, ele também é bem suportado pelo Trino, Flink, DuckDB e outros, tornando-o adequado para uma ampla gama de casos de uso, desde plataformas de dados corporativas até análises locais leves. Em muitos de nossos times, o Iceberg conquistou forte confiança como um formato de dados aberto e estável; recomendado como uma escolha padrão para organizações que constroem plataformas de dados modernas.

  • 99. Declarative Automation Bundles

    O Declarative Automation Bundles (anteriormente conhecido como Databricks Asset Bundles evoluiu para uma ferramenta primária para trazer práticas de engenharia de software e CI/CD para o ecossistema Databricks. A ferramenta amadureceu significativamente e agora permite que nossos times gerenciem a maioria dos recursos da plataforma como código, incluindo clusters, pipelines de ETL, jobs, modelos de machine learning e dashboards. Usando o comando bundle plan` do Databricks, os times podem pré-visualizar mudanças e aplicar práticas de implantação repetíveis aos artefatos do Databricks, de forma semelhante a como a infraestrutura é gerenciada com ferramentas como o Terraform. Tratar ativos tradicionalmente mutáveis, como dashboards e pipelines de ML, como código permite que eles sejam controlados por versão, testados e implantados com o mesmo rigor dos microsserviços tradicionais. Com base em nossa experiência em ambientes de produção, o Declarative Automation Bundles se tornou uma abordagem confiável para gerenciar workflows de dados e ML no Databricks. Times que trabalham extensivamente no ecossistema Databricks devem considerar adotá-lo para padronizar as práticas de gerenciamento de infraestrutura.

  • 100. React JS

    O React tem sido nossa escolha padrão para o desenvolvimento de UIs em JavaScript desde 2016, mas com o lançamento estável do React Compiler no outubro passado (como parte do React 19), vale a pena revisitá-lo. Há uma série de razões pelas quais esse recurso é notável. Ao lidar com a memoização no momento da compilação (build time), por exemplo, ele torna o uso manual de useMemo e useCallback amplamente desnecessário, embora o time recomende mantê-los como válvulas de escape quando for exigido um controle preciso sobre as dependências de efeitos. Testado massivamente na Meta e suportado pelo Expo SDK 54, Vite e Next.js, o compilador também remove uma categoria de boilerplate de desempenho que há muito tempo é um custo de uso em escala com o React. O React 19 também introduz Actions e hooks como useActionState e useOptimistic, que simplificam a manipulação de formulários e as mutações de dados sem depender de bibliotecas externas. O lançamento da React Foundation sob a Linux Foundation em 2025 — com Amazon, Expo, Callstack, Microsoft, Software Mansion e Vercel se juntando à Meta — fortalece ainda mais a estabilidade de longo prazo da biblioteca e aborda uma preocupação que times cautelosos historicamente citavam ao considerar a adoção.

  • 101. React Native

    O React Native mudou para Adote como nossa escolha padrão para o desenvolvimento mobile multiplataforma. Embora estivesse anteriormente em Experimente, o lançamento da Nova Arquitetura — especificamente o JSI e o Fabric — resolveu preocupações de longa data em relação aos gargalos de ponte e à velocidade de inicialização. Nossos times observaram ganhos significativos de desempenho em transições complexas de UI e cargas de trabalho com uso intensivo de dados. Ao se afastar da ponte assíncrona, o React Native agora entrega uma responsividade comparável com as implementações nativas, mantendo uma única base de código. Nós o usamos com sucesso em múltiplos projetos em produção e descobrimos que o ecossistema em torno do Expo e do React é maduro e estável. Embora o gerenciamento de estado ainda exija um planejamento cuidadoso, os benefícios de produtividade dos workflows de fast refresh e os conjuntos de habilidades compartilhadas superam esses custos. Para a maioria dos casos de uso mobile híbridos, o React Native agora é nossa recomendação principal para times que buscam desempenho, consistência e velocidade.

  • 102. Svelte

    O Svelte é um framework de UI em JavaScript que compila componentes em código JavaScript otimizado no momento do build, em vez de depender de um grande runtime no navegador ou de um DOM virtual. Desde a última vez que o destacamos em Trial, vimos mais equipes utilizando-o com sucesso em produção. O SvelteKit também o tornou uma escolha mais robusta para SSR e aplicações web full-stack, aumentando nossa confiança em movê-lo para Adopt. Em nossa experiência, os motivos originais para escolher o Svelte continuam válidos: ele gera bundles pequenos, entrega alto desempenho em tempo de execução e oferece um modelo de componentes mais simples. Novos recursos do Svelte 5, como runes e snippets, tornam a reatividade e a composição de UI mais explícitas e flexíveis. Em comparação a frameworks de frontend mais pesados, o Svelte proporciona uma experiência de desenvolvimento mais limpa e com menos código. O feedback das equipes sugere cada vez mais que ele é uma alternativa sólida ao React ou Vue, e não apenas uma opção de nicho. Embora os times ainda devam considerar a familiaridade com o ecossistema, contratações e adequação à plataforma, recomendamos agora o Svelte como uma escolha padrão sensata para a construção de aplicações web modernas onde o desempenho e a simplicidade de entrega são prioridades.

  • 103. Typer

    O Typer é uma biblioteca Python para construir interfaces de linha de comando (CLIs) a partir de funções padrão anotadas com tipos, fornecendo texto de ajuda automático, autocompletar no shell e um caminho claro desde pequenos scripts até aplicações de CLI maiores. Estamos observando uma relevância crescente à medida que os times transformam ferramentas internas, automação e workflows de pessoas desenvolvedoras adjacentes à IA em CLIs de primeira classe. Em nossa experiência, o Typer é fácil de introduzir em projetos reais, e os times apreciam a rapidez com que ele produz comandos claros e legíveis. Seus pontos fortes incluem APIs orientadas por dicas de tipo, ajuda e autocompletar automáticos e um caminho de baixo atrito desde scripts simples até CLIs de múltiplos comandos. No entanto, é uma solução específica para Python e pode não ser o melhor encaixe quando um comportamento de CLI altamente customizado ou consistência entre múltiplas linguagens for necessário. Recomendamos o Typer para times que constroem CLIs para entrega, operações e workflows de experiência da pessoa desenvolvedora.

Experimente ?

  • 104. Agent Development Kit (ADK)

    O Agent Development Kit (ADK) é o framework do Google para construir e operar agentes de IA com abstrações orientadas à engenharia de software para orquestração, ferramentas, avaliação e deployment. Seu ecossistema e capacidades operacionais amadureceram significativamente desde que o incluímos em Avalie, com desenvolvimento ativo em múltiplas linguagens e recursos mais fortes de observabilidade e runtime. Frameworks de agentes nativos de fornecedores (vendor-native) agora são um campo disputado, com o Microsoft Agent Framework, Amazon Bedrock AgentCore, o OpenAI Agents SDK e o Claude Agent SDK avançando como opções concorrentes. Alternativas de código aberto, como o LangGraph e o CrewAI, continuam sendo escolhas fortes, especialmente onde os times priorizam a portabilidade do framework e ecossistemas mais amplos. O ADK ainda está em fase pré-GA (anterior à disponibilidade geral) em algumas partes, com eventuais arestas (rough edges) e atritos de atualização, mas temos visto mais projetos usando-o com sucesso, particularmente aqueles de times que já investiram na plataforma do Google.

  • 105. DeepEval

    O DeepEval é um framework baseado em Python e de código aberto para avaliar o desempenho de LLMs. Ele pode ser usado para avaliar sistemas de geração aumentada por recuperação (RAG) e aplicações construídas com frameworks como LlamaIndex ou LangChain, bem como para fazer o baseline e o benchmarking de modelos. O DeepEval vai além de métricas simples de correspondência de palavras, avaliando precisão, relevância e consistência para fornecer uma avaliação mais confiável em cenários do mundo real. Ele inclui capacidades como detecção de alucinação, pontuação de relevância de resposta e otimização de hiperparâmetros. Um recurso que nossos times acharam particularmente útil é que ele permite definir métricas personalizadas e específicas para cada caso de uso. Recentemente, o DeepEval se expandiu para suportar workflows complexos de agentes e sistemas conversacionais de múltiplos turnos. Além de avaliar os resultados finais, ele fornece métricas integradas para corretude da ferramenta, eficiência da etapa e conclusão da tarefa, incluindo a avaliação de interações com servidores MCP. Ele também introduz a simulação de conversas para gerar casos de teste automaticamente e fazer testes de estresse em aplicações de múltiplos turnos em escala.

  • 106. Docling

    O Docling é uma biblioteca de código aberto em Python e TypeScript para converter documentos não estruturados em saídas limpas e legíveis por máquina. Usando uma abordagem baseada em visão computacional para a compreensão semântica e de layout, ele processa entradas complexas — incluindo PDFs e documentos digitalizados — em formatos estruturados como JSON e Markdown. Isso o torna uma ótima opção para pipelines de geração aumentada por recuperação (RAG) e para produzir saídas estruturadas de LLMs, em contraste com abordagens de busca visual, como o ColPali. O Docling fornece uma alternativa de código aberto e auto-hospedável a serviços proprietários gerenciados em nuvem, como Azure Document Intelligence, Amazon Textract e Google Document AI, ao mesmo tempo que se integra bem a frameworks como o LangGraph. Em nossa experiência, ele tem um bom desempenho em cargas de trabalho de extração em escala de produção tanto em PDFs digitais quanto escaneados, incluindo arquivos muito grandes contendo texto, tabelas e imagens. Ele entrega um ótimo equilíbrio entre qualidade e custo para workflows downstream de RAG com agentes. Com base nesses resultados, estamos movendo o Docling para a seção Experimente.

  • 107. LangExtract

    O LangExtract é uma biblioteca Python que usa LLMs para extrair informações estruturadas de textos não estruturados com base em instruções definidas pela pessoa usuária, com um embasamento preciso na fonte que vincula cada entidade extraída à sua localização no documento original. Ele processa materiais específicos de domínio, como notas clínicas e relatórios. Um ponto forte é a rastreabilidade da fonte, que garante que cada ponto de dado extraído possa ser rastreado de volta à sua origem. As entidades extraídas podem ser exportadas como um arquivo JSONL, um formato padrão para dados de modelos de linguagem, e visualizadas por meio de uma interface HTML interativa para revisão contextual. Times considerando saídas estruturadas de LLMs para processamento de documentos devem avaliar o LangExtract ao lado de abordagens de imposição de esquema, como o PydanticAI. O LangExtract é mais adequado para materiais de origem não estruturados de formato longo, enquanto o Pydantic AI se destaca em restringir formatos de saída para entradas mais curtas e previsíveis.

  • 108. LangGraph

    Desde o último Radar, observamos que a arquitetura do LangGraph — que trata todo sistema de multiagentes como grafos stateful com um estado compartilhado global — nem sempre é a melhor abordagem para construir sistemas baseados em agentes. Também vimos uma abordagem alternativa, usada em frameworks como o Pydantic AI, que também funciona bem. Em vez de começar com um grafo rígido e um estado compartilhado massivo, essa abordagem favorece agentes simples se comunicando por meio da execução de código, com estruturas de grafo adicionadas posteriormente quando necessário. Isso frequentemente resulta em sistemas mais enxutos e mais eficazes para muitos casos de uso. Como cada agente só tem acesso ao estado de que precisa, o raciocínio, os testes e o debugging se tornam mais fáceis. Como resultado, tiramos o LangGraph de Adopt. Embora continue sendo uma ferramenta poderosa, não o vemos mais como a escolha padrão para construir todo sistema baseado em agentes.

  • 109. LiteLLM

    O LiteLLM começou como uma fina camada de abstração sobre múltiplos provedores de LLM, mas desde então se expandiu para um gateway de IA completo. Além de simplificar a integração de API, ele aborda preocupações transversais comuns em sistemas de GenAI, como novas tentativas e failover, balanceamento de carga entre provedores e rastreamento de custos com controles de orçamento. Nossos times estão adotando cada vez mais o LiteLLM como um padrão sensato para aplicações impulsionadas por IA. O gateway fornece um local consistente para implementar práticas de governança, incluindo rastreamento de solicitações, controle de acesso, gerenciamento de chaves de API e guardrails em nível de borda (edge-level), como filtragem de conteúdo e ocultação ou mascaramento de dados. No entanto, os times que dependem de recursos diferenciados de provedores descobrirão que estes frequentemente exigem parâmetros específicos do provedor, reintroduzindo o acoplamento que o gateway deve eliminar. Também vale notar que o modo drop_params descarta silenciosamente os parâmetros não suportados, o que significa que as capacidades podem ser perdidas nas decisões de roteamento sem visibilidade. O LiteLLM continua sendo uma escolha pragmática para o controle operacional, mas os times devem entender que apoiar-se em capacidades específicas de provedores significa manter tanto uma dependência de gateway quanto um código acoplado ao provedor.

  • 110. Modern.js

    O Modern.js é um meta-framework React da ByteDance que estamos colocando em Avaliação (Trial) para times com requisitos de micro-frontend construídos no Module Federation. O gatilho é prático: o nextjs-mf está chegando ao fim da vida útil. O Pages Router receberá apenas pequenas correções retroativas, nenhum novo desenvolvimento está planejado e espera-se que os testes de CI sejam removidos até meados ou final de 2026. Com o Next.js carecendo de suporte oficial ao Module Federation e o plugin da comunidade sendo descontinuado, o time central do Module Federation agora recomenda o Modern.js como o principal framework suportado para arquiteturas baseadas em federação. O plugin @module-federation/modern-js-v3 fornece a conexão automática de build pronta para uso, com streaming SSR e Bridge APIs disponíveis como capacidades separadas. No entanto, combiná-los tem limitações: o @module-federation/bridge-react ainda não é compatível com ambientes Node, tornando o Bridge inviável em cenários de SSR. Nossa experiência inicial é positiva, e o caminho de migração é bem definido para times que já usam o Module Federation. O ecossistema fora da ByteDance ainda está amadurecendo, então os times devem se planejar para uma documentação mais escassa e um engajamento mais próximo com o upstream. Esta continua sendo uma recomendação em Avaliação (Trial), porque o investimento se justifica para casos de uso de Module Federation onde não existe atualmente uma alternativa com melhor suporte.

Avalie ?

  • 111. Agent Lightning

    O Agent Lightning é um framework de otimização e treinamento de agentes que permite a otimização automática de prompts, fine-tuning supervisionado e aprendizado por reforço baseado em agentes. A maioria dos frameworks de agentes foca em construir agentes, não em melhorá-los ao longo do tempo. O Agent Lightning aborda isso permitindo que os times melhorem continuamente os agentes existentes sem alterar sua implementação subjacente, já que ele suporta frameworks como o AutoGen e o CrewAI. Ele alcança isso por meio de uma abordagem chamada Training-Agent Disaggregation(Desagregação de Agentes de Treinamento), que introduz uma camada entre os frameworks de treinamento e de agente. Essa camada consiste em dois componentes principais: o Lightning Server e o Lightning Client. O Lightning Server gerencia o processo de treinamento e expõe uma API para modelos atualizados, enquanto o Lightning Client atua como um runtime que coleta traces e os envia de volta ao servidor para apoiar o treinamento. Recomendamos que times com implantações de agentes já estabelecidas explorem o Agent Lightning como uma maneira de melhorar continuamente o desempenho dos agentes.

  • 112. GitHub Spec Kit

    O desenvolvimento orientado a especificações (Spec-driven development) teve destaque em nossas discussões neste ciclo. Duas grandes abordagens estão surgindo: equipes que confiam na evolução contínua dos agentes de programação com o mínimo de estrutura, e aquelas que preferem fluxos de trabalho definidos e especificações detalhadas. Vários de nossos times estão experimentando práticas orientadas por especificações usando o GitHub Spec Kit, principalmente em ambientes pré-existentes (brownfield). Um conceito-chave no Spec Kit é a constituição, um documento-base de princípios que alinha o ciclo de vida de desenvolvimento de software. Na prática, os times relataram que uma constituição útil normalmente captura o escopo do projeto, contexto de domínio, versões de tecnologia, padrões de codificação e estrutura do repositório (por exemplo, arquitetura hexagonal ou módulos em camadas). Esse contexto compartilhado ajuda os agentes a operar dentro dos limites arquitetônicos pretendidos. Os times também encontraram desafios como o crescimento excessivo das instruções, onde a adição contínua de contexto do projeto levou a um conjunto crescente de instruções do agente e, eventualmente, à deterioração do contexto. Um time resolveu isso extraindo orientações reutilizáveis para arquivos de skills, mantendo as instruções do agente enxutas e carregando o contexto detalhado apenas quando necessário. Em sistemas brownfield, muito do retrabalho decorre de intenção pouco clara, suposições ocultas e descoberta tardia de restrições. Um time adotou um ciclo de vida de spec → plan → tasks → coding → review, o que ajudou a identificar problemas mais cedo. Com o tempo, também moveram o contexto reutilizável para arquivos como .github/prompts/speckit.<command>.prompt.md, tornando os prompts mais curtos e o comportamento do agente mais consistente. Os times relataram algumas limitações, incluindo verificações defensivas desnecessárias e saídas em Markdown verbosas demais que aumentavam a carga cognitiva. Personalizar os templates e as instruções do Spec Kit — por exemplo, limitando o número de arquivos markdown gerados e reduzindo a verbosidade do console — ajudou a resolver alguns desses problemas. Em última análise, pessoas engenheiras experientes, particularmente aquelas com boas práticas de clean code e arquitetura, tendem a extrair o máximo de valor de workflows orientados a especificações.

  • 113. Mastra

    O Mastra é um framework nativo em TypeScript e de código aberto para construir aplicações e agentes de IA. Ele oferece um mecanismo de workflow baseado em grafos, acesso unificado a uma variedade de provedores de LLMs, suspensão e retomada com intervenção humana, bem como primitivas de RAG e de memória. Ele também inclui a criação de servidores MCP e ferramentas integradas para avaliação e observabilidade, com suporte de uma documentação clara para desenvolvedores. O Mastra fornece uma alternativa às stacks fortemente baseadas em Python, permitindo que os times construam capacidades de IA robustas diretamente em ecossistemas web já existentes, como Node.js ou Next.js. Vale a pena avaliá-lo para times que já apostam no ecossistema TypeScript e que desejam evitar ter de migrar para Python na camada de IA.

  • 114. Pipecat

    O Pipecat é um framework de código aberto para a construção de agentes multimodais de voz em tempo real, com um modelo de pipeline modular para STT, LLM, TTS e orquestração de transporte. Ele está atraindo grande interesse porque os times podem iterar rapidamente no comportamento conversacional e trocar de provedores com um atrito relativamente baixo. Em comparação com o LiveKit Agents, o Pipecat oferece maior flexibilidade de framework, mas um caminho de produção menos integrado, especialmente para implantação auto-hospedada, confiabilidade de transporte e tratamento de turnos (turn handling) de baixa latência em escala. Nós colocamos o Pipecat em Avalie porque ele fornece uma base sólida voltada para a engenharia, mas é necessário um trabalho significativo de engenharia de plataforma antes que se possa confiar nele para cargas de trabalho de produção críticas para o negócio.

  • 115. Superpowers

    Com o uso crescente de agentes de programação, não existe um único fluxo do trabalho prescrito para todos os times. Em vez disso, os times estão desenvolvendo fluxos de trabalho sob medida com base em seu contexto e restrições. Nossos times em todo o mundo estão ativamente definindo e experimentando esses fluxos de trabalho de programação assistida por IA. O Superpowers é um desses fluxos construído sobre skills combináveis. Ele envolve um agente de programação em um fluxo de trabalho estruturado de skills que incentiva o brainstorming antes da programação, planejamento detalhado antes da implementação, desenvolvimento orientado a testes (TDD) com ciclos red-green-refactor obrigatórios, debugging sistemático focado primeiro na causa raiz e revisão de código pós-implementação. O Superpowers é distribuído como um plugin por meio do Claude Code plugin marketplace, bem como do plugin marketplace do Cursor.

  • 116. TanStack Start

    O TanStack Start é um framework full-stack construído sobre o TanStack Router para React e Solid. Ele é comparável ao Next.js, suportando SSR, caching e muitos dos mesmos recursos. O TanStack Start fornece segurança em tempo de compilação de ponta a ponta em funções de servidor, carregadores e roteamento, reduzindo o risco de links quebrados ou formatos de dados incompatíveis no frontend. O framework favorece a configuração explícita em vez da convenção, tornando a experiência mais próxima de trabalhar com o React puro. Você também pode adicionar capacidades de SSR progressivamente, conforme necessário. Em comparação com o Next.js, que tem padrões mais diretivos que podem levar a comportamentos inesperados se os times não estiverem familiarizados com seu funcionamento interno, o TanStack Start é mais explícito e previsível. O ecossistema TanStack também amadureceu significativamente, oferecendo um forte conjunto de ferramentas para construir aplicações web modernas.

  • 117. TOON (Token-Oriented Object Notation)

    O TOON (Token-Oriented Object Notation) é uma codificação legível por pessoas para dados JSON projetada para reduzir o uso de tokens quando dados estruturados são passados para LLMs. Ele permite que os times mantenham o JSON em sistemas existentes e o convertam apenas no momento da interação com o modelo. Isso é importante porque o custo de tokens, a latência e as restrições da janela de contexto estão se tornando fatores concretos de projeto em pipelines de RAG, workflows de agentes e outras aplicações intensivas em IA. O JSON puro costuma consumir tokens com chaves repetidas e overhead estrutural em vez de conteúdo útil. Em nossa avaliação inicial, o TOON é uma otimização interessante de "última milha" para entradas de prompt, particularmente para grandes conjuntos de dados regulares onde um formato mais orientado ao schema (schema-aware) pode ser tanto mais eficiente quanto mais fácil para os modelos processarem do que o JSON. Ele não é um substituto para JSON em APIs, bancos de dados ou saídas do modelo, e frequentemente é a escolha errada para estruturas profundamente aninhadas ou não uniformes, arrays semi-uniformes ou dados tabulares simples, sem hierarquia onde o CSV é mais compacto. Ele também pode ser menos adequado para fluxos sensíveis à latência onde o JSON compacto tem um bom desempenho. Por esses motivos, acreditamos que vale a pena avaliar o TOON para times que constroem aplicações de LLM em que o tamanho da entrada estruturada tem impacto relevante em custo ou qualidade. Os times devem compará-lo com JSON ou CSV por meio de benchmarks usando seus próprios dados e stack de modelos.

  • 118. Unsloth

    O Unsloth é um framework de código aberto para fine-tuning (ajuste fino) de LLMs e aprendizado por reforço, focado em tornar o treinamento significativamente mais rápido e eficiente em termos de memória. O ajuste fino de LLMs envolve bilhões de multiplicações de matrizes, cargas de trabalho que se beneficiam da aceleração por GPU. O Unsloth otimiza essas operações traduzindo-as em kernels personalizados altamente eficientes para GPUs NVIDIA, reduzindo drasticamente o custo e o uso de memória. Isso permite realizar o fine-tuning de modelos em GPUs de consumo, como a T4 e superiores, em vez de exigir clusters H100 caros. O Unsloth suporta LoRA, ajuste fino completo, treinamento multi-GPU e fine-tuning de contexto longo (até 500 mil tokens) para modelos populares como Llama, Mistral, DeepSeek-R1, Qwen e Gemma. À medida que as aplicações de IA para domínios específicos dependem cada vez mais do ajuste fino, o Unsloth reduz significativamente a barreira de entrada.

Cautela ?

Sem blips

Não encontrou algo que você esperava achar?

 

Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.

Baixe o PDF

 

 

 

English | Português

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores