Plataformas
Adote
-
Colima é agora a nossa alternativa preferida ao Docker Desktop no macOS. Continuamos a usá-lo em vários projetos para provisionar o runtime do contêiner Docker em uma VM Lima, para configurar CLI do Docker no macOS e para lidar com o encaminhamento de porta e montagens de volume. O Colima pode ser configurado para executar o containerd como seu runtime, que também é o runtime da maioria dos serviços Kubernetes gerenciados, melhorando a importante equivalência entre os ambientes de desenvolvimento e produção.
Experimente
-
Eventos são mecanismos comuns em arquiteturas orientadas a eventos ou aplicações sem servidor. No entanto, produtores ou provedores de nuvem tendem a apoiá-los em diferentes formatos, o que impede a interoperabilidade entre plataformas e infraestruturas. CloudEvents é uma especificação para descrever dados de eventos em formatos comuns para fornecer interoperabilidade entre serviços, plataformas e sistemas. Ele fornece SDKs em várias linguagens para que você possa incorporar a especificação em seu aplicativo ou conjunto de ferramentas. Nossas equipes o usam para fins de plataforma de multi-nuvem e também para especificação de eventos de domínio, entre outros cenários. CloudEvents é hospedado pela Cloud Native Computing Foundation (CNCF) e agora é executado como um projeto de incubação que vem ganhando cada vez mais atenção da indústria.
-
DataOps.live é uma plataforma de dados que automatiza ambientes no Snowflake. Inspirada nas práticas de DevOps, DataOps.live permite tratar a plataforma de dados como qualquer outra plataforma web, adotando a integração contínua e entrega contínua (CI/CD), testes automatizados, observabilidade e gerenciamento de código. Nossas equipes estão usando-a para gerenciar o ciclo de vida de produtos de dados, incluindo desenvolvimento, branching e implantação de código e dados. Com seu gerenciamento de ambiente automatizado, é muito fácil criar ambientes a partir de feature branches, modificá-los e destruí-los automaticamente. Também vale a pena notar sua capacidade de especificação declarativa (SOLE), que permite uma experiência simplificada para pessoas desenvolvedoras. Isso permite que as equipes reduzam o tempo necessário para construir produtos de dados de meses para dias. Nossas equipes têm usado DataOps.live com sucesso em produção, e é por isso que recomendamos esta plataforma ao trabalhar com Snowflake.
-
Ocorreram desenvolvimentos significativos no cenário de IA desde que vimos pela primeira vez o Google Cloud Vertex AI. De maio de 2023 até o momento, o Google lançou vários serviços e recursos para enriquecer esse campo. Essas adições incluem Model Garden: um repositório de mais de 100 modelos pré-treinados; Generative AI Studio: um console para explorar e prototipar rapidamente modelos de IA generativa; Vertex AI Extensions, que fornece ferramentas de desenvolvimento totalmente gerenciadas para conectar modelos de IA e dados em tempo real ou ações por meio de APIs. A plataforma evoluiu para oferecer modelos GenAI e suporte à integração, e estamos animados para usá-la de forma mais extensiva.
-
Desde a última vez que escrevemos sobre o Immuta, nossas equipes ganharam experiência significativa com essa plataforma de segurança de dados. Seus destaques incluem a capacidade de definir políticas de assinatura e dados como código, controle de versão e a capacidade de implantar essas políticas automaticamente em ambientes superiores. Seu suporte ABAC nos permite associar tags a fontes de dados; se a mesma tag estiver associada à pessoa usuária, o acesso é concedido. Ao aproveitar a integração de Immuta e Snowflake, foi possível automatizar a concessão de acesso a produtos de dados ou conjuntos de dados de forma autosuficiente. Quando apessoa usuária solicita acesso a um produto de dados ou a um conjunto de dados, a tag do produto de dados é então associada à "pessoa usuária" como um atributo após a aprovação. Como o atributo napessoa usuária corresponde à tag na fonte de dados, o acesso é concedido automaticamente por cortesia da política de Assinatura Global do Immuta. Também vale a pena notar as políticas de mascaramento de dados do Immuta, que preservam a privacidade dos dados mascarando e restringindo informações de PII a uma pessoa usuária específica. O acesso adicional a informações sensíveis, em um nível muito mais granular, pode ser definido usando políticas de segurança de nível de linha, que garantem que as pessoas usuárias só tenham acesso aos dados específicos aos quais estão autorizados a visualizar. Estamos satisfeitas com Immuta, razão pela qual a estamos movendo para o Experimente — oferece uma boa experiência para as pessoas desenvolvedoras e torna mais fácil o gerenciamento das políticas de dados em grandes organizações.
-
Lokalise é uma plataforma de localização totalmente automatizada que permite traduções contextuais. Nossos times usam a API do Lokalise em seus pipelines ETL ou fluxos de trabalho de desenvolvimento para traduzir informações localizáveis. O Lokalise suporta vários formatos de arquivo para strings localizáveis. Um aspecto a destacar é a capacidade de fazer o upload de um arquivo inteiro, onde cada par chave-valor é tratado como um registro separado e traduzido. Por baixo dos panos, aproveitamos a integração do Lokalise com o Google MT para cuidar das traduções. A interface web do Lokalise oferece facilidade de acesso a revisores humanos para verificar as traduções, encurtá-las e reescrevê-las conforme for adequado. No passado, destacamos ferramentas semelhantes, como Phrase. Nossos times tiveram uma boa experiência com Lokalise e recomendamos que você avalie a plataforma para fluxos de trabalho de tradução colaborativa.
-
Orca é uma plataforma de segurança de nuvem proprietária que identifica, prioriza e corrige problemas de segurança e conformidade. Ela suporta os principais provedores de nuvem e configurações híbridas. Orca possui consultas/regras de segurança extensas para monitorar continuamente as cargas de trabalho implantadas quanto a configuração incorretas, vulnerabilidades e problemas de conformidade. Ela suporta VMs na nuvem, funções sem servidor, contêineres e aplicações Kubernetes para as cargas de trabalho implantadas. Essas regras de segurança embutidas são atualizadas constantemente para acompanhar as normas de conformidade e vetores de ameaças em evolução. Como Orca é sem agente, ela oferece uma boa experiência para as pessoas desenvolvedoras e é fácil de configurar. Outro recurso notável é que ela facilita a segurança desde o início. Nossas equipes usam Orca CLI para escanear imagens de contêiner e modelos de IaC quanto a vulnerabilidades e configuração incorretas como um hook de pré-commit ou como parte de fluxos de trabalho CI/CD. Ela também monitora e escanea continuamente repositórios de contêineres (por exemplo, AWS ECR) em busca de imagens base vulneráveis ou dependências do SO fracas para imagens já publicadas. Com base nas experiências das nossas equipes, Orca fornece uma visão unificada do estado de segurança ao longo do caminho para a produção, e por esse motivo a colocamos em Experimente.
-
Trino, anteriormente conhecido como PrestoSQL, é um motor de consulta SQL distribuído e de código aberto, projetado para consultas analíticas interativas em big data. É otimizado para ser executado localmente e na nuvem. Ele suporta consultas de dados onde eles residem, incluindo Hive, Cassandra, bancos de dados relacionais e até mesmo datastores proprietários. Para mecanismos de autenticação, ele suporta autenticação baseada em senha, LDAP e OAuth. Para autorização e controle de acesso, Trino fornece a capacidade de conceder acesso nos níveis de catálogo, esquema e tabela. Nossas equipes usaram grupos de recursos divididos de acordo com padrões de consumo, como casos de uso de visualização, relatórios ou aprendizado de máquina, para gerenciar e limitar o uso de recursos. O monitoramento baseado em JMX fornece um conjunto de métricas rico para permitir a atribuição de custos no nível da consulta ou da pessoa usuária. Nossas equipes usam Trino como uma porta de entrada para o acesso a dados em uma variedade de fontes. Quando se trata de uma consulta de dados em escala extremamente grande, Trino é uma aposta segura para nossas equipes. Presto, o projeto do Facebook do qual Trino origina, foi destaque no Radar em novembro de 2015.
-
Wiz é um dos concorrentes no ecossistema de plataformas de segurança de nuvem que permite às pessoas usuárias prevenir, detectar e responder a riscos e ameaças de segurança em uma única plataforma. Wiz pode detectar e alertar sobre configurações incorretas, vulnerabilidades e segredos vazados em artefatos que ainda não foram implantados em ambientes em execução (imagens de contêiner, código de infraestrutura) e também em workloads em execução (contêineres, VMs e serviços de nuvem). Ele também contextualiza descobertas no cenário de nuvem específico da cliente para permitir que as equipes de resposta entendam melhor o problema e priorizem as mitigações. Nossas equipes tiveram uma boa experiência com Wiz. Acreditam que Wiz está evoluindo rapidamente e adicionando novos recursos, e valorizam que a plataforma permite a detecção de riscos e ameaças antes de algumas outras ferramentas semelhantes, pois analisa alterações de forma contínua.
Avalie
-
Com a atual movimentação no ecossistema de plataformas de microblog, o protocolo ActivityPub está ganhando destaque. ActivityPub é um protocolo aberto para compartilhar informações como postagens, publicações e datas. Ele pode ser usado para implementar uma plataforma de mídia social, mas o principal benefício é que ele oferece interoperabilidade entre diferentes plataformas de mídia social. Esperamos que o ActivityPub desempenhe um papel significativo nesse espaço, mas o mencionamos aqui porque estamos curiosas com as possibilidades para além dos casos de uso óbvios nas mídias sociais. Um exemplo é o suporte do ActivityPub para requisições de merge, recentemente proposto para o GitLab.
-
Aplicativos de Contêiner do Azure é um namespace Kubernetes gerenciado como serviço que simplifica a implantação de cargas de trabalho em contêineres, eliminando a necessidade de manutenção complexa de clusters Kubernetes e componentes de infraestrutura subjacentes, reduzindo assim os encargos operacionais e administrativos. No entanto, é importante ter cuidado ao considerar essa opção; atualmente em fase de desenvolvimento, ele tem apresentado inconsistências na representação de suas capacidades no portal Azure e encontra obstáculos de integração, particularmente com o provedor Terraform padrão para Azure que não reflete de forma satisfatória as funcionalidades reais da ferramenta. Dado tudo isso, recomendamos avaliar esta ferramenta com cuidado.
-
Com o grande interesse em IA generativa, muitas soluções surgiram para acessar os principais modelos. Se você está considerando ou já usa Azure, vale a pena avaliar o Serviço OpenAI do Azure. Ele fornece acesso aos modelos GPT-4, GPT-35-Turbo e Embeddings da OpenAI por meio de uma API REST, um SDK Python e uma interface web. Os modelos podem ser adaptados para tarefas, como geração de conteúdo, resumo, busca semântica e tradução de linguagem natural para código. O ajuste fino também está disponível por meio de aprendizado de poucos exemplos e personalização de hiperparâmetros. Em comparação com a API própria da OpenAI, Serviço OpenAI do Azure se beneficia dos recursos de segurança e conformidade de nível empresarial do Azure; também está disponível em mais regiões, embora a disponibilidade seja limitada para cada uma das maiores regiões geográficas, e, até o momento, a Índia não está incluída.
-
Existem muitos modelos de linguagem de grande porte (LLMs) emergentes no mundo de língua inglesa. Embora esses modelos sejam geralmente pré-treinados com vários idiomas, seu desempenho em outros idiomas pode não ser tão bom quanto em inglês. O ChatGLM, desenvolvido pela Universidade Tsinghua, é um modelo de linguagem bilíngue e aberto otimizado para conversação em chinês com base na arquitetura do General Language Model. Como o chinês pode ser mais complexo do que o inglês, com sua diferente segmentação de palavras e gramática, é importante ter um LLM otimizado para o chinês. Nossa equipe descobriu que o ChatGLM superou outros LLMs em precisão e robustez quando construímos um aplicativo de detecção de emoções em chinês para um call center. Considerando que muitos LLMs não estão disponíveis na China devido a restrições de licenciamento ou regionais, o ChatGLM tornou-se uma das poucas opções de código aberto.
-
Chroma é um repositório de vetores e banco de dados de embeddings para código aberto, útil para aprimorar aplicativos movidos por modelos de linguagem de grande porte (LLMs) ao facilitar o armazenamento e utilização de conhecimento de domínio em LLMs, que normalmente não possuem memória interna. Particularmente, em aplicações de texto para texto, Chroma pode automatizar o intrincado processo de geração de embeddings de palavras e análise de similaridades entre eles e embeddings de consulta, o que simplifica consideravelmente as operações. Ele também oferece a opção de armazenar embeddings personalizados, promovendo uma combinação de automação e personalização. Dadas suas capacidades de aprimorar a funcionalidade de aplicativos movidos a LLM, aconselhamos as equipes a avaliar o Chroma, aproveitando seu potencial para refinar a maneira como o conhecimento de domínio é integrado a esses aplicativos.
-
Plataformas de pesquisa de UX como o Dovetail oferecem às organizações uma ferramenta para entender e melhorar a experiência de suas clientes. Com ela, as empresas podem obter de forma rápida e fácil insights valiosos sobre as necessidades, preferências e comportamentos de clientes, coletando e analisando dados de feedback da cliente, pesquisas, entrevistas e muito mais. A análise de sentimento, segmentação de clientes, pesquisa de mercado ou análise de dados e geração de insights são tarefas importantes no desenvolvimento de produtos — essas tarefas combinam com o que os LLMs (modelos de linguagem de grande porte) são bons, por isso vemos um grande potencial de disrupção no campo de desenvolvimento de produtos.
Kraftful — um copiloto autodeclarado para construtores de produtos — assumiu a liderança. Ainda está em beta e você deve fornecer seu e-mail para acessar a lista de recursos. Nós brincamos com ele e vimos ótimos resultados. Você pode conectar mais de 30 fontes de feedback do usuário à plataforma e ela analisará os dados e identificará solicitações de recursos, reclamações comuns, o que as pessoas usuárias adoram no produto e até mesmo nomeará seus concorrentes. Para obter mais detalhes, você pode fazer perguntas como faria com o ChatGPT ou Google Bard — o benefício aqui é que ele é otimizado para seus dados. Depois de priorizar o que será feito a partir do feedback de usuário, o Kraftful gera user stories para você com base em todos os dados subjacentes, incluindo critérios de aceitação, tornando-o um grande assistente para até mesmo gerentes de produto e analistas de negócios muito experientes.
-
Com o crescimento de aplicações de IA generativa, observamos um padrão de armazenamento e busca eficiente de vetores de embeddings por similaridades. pgvector é uma extensão de código aberto para PostgreSQL que permite a busca de similaridade de vetores. Nós gostamos dele porque nos permite buscar os embeddings no PostgreSQL sem mover os dados para outro local apenas para a busca de similaridade. Embora existam vários motores de busca de vetores especializados, queremos que você avalie pgvector.
-
Pinecone é um banco de dados de vetores totalmente gerenciado, amigável para pessoas desenvolvedoras, e nativo da nuvem com uma API simples e sem complicações de infraestrutura. Pinecone fornece resultados de consulta filtrados com baixa latência na escala de bilhões de vetores. Nossas equipes descobriram que os bancos de dados de fornecedores, e o Pinecone em particular, são muito úteis e rápidos para começar a usar em casos de uso como armazenar a base de conhecimento de uma equipe, ou o conteúdo do portal de suporte ao cliente, em vez de ajustar com precisão LLMs complexos.
-
wazero é um runtime WebAssembly (WASM) sem dependências escrito em Go. Embora o runtime em si seja neutro em relação à linguagem, queremos destacar o wazero para as pessoas desenvolvedoras Go, porque oferece uma maneira adequada de extensão dos programas Go, com módulos WASM escritos em qualquer linguagem em conformidade. Não há uma dependência de CGO, por isso, você pode compilar seus aplicativos Go com mais facilidade para outras plataformas. Embora você tenha opções quando se trata de tempos de execução para WASM, achamos que o wazero vale a pena ser avaliado.
Evite
- Novo
- Modificado
- Sem alteração
Não encontrou algo que você esperava achar?
Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.
Não encontrou algo que você esperava achar?
Cada edição do Radar inclui blips que refletem nossas experiências nos seis meses anteriores. Talvez já tenhamos falado sobre o que você procura em um Radar anterior. Às vezes, deixamos coisas de fora simplesmente porque há muitas a serem abordadas. Também pode faltar um tópico específico porque o Radar reflete nossa experiência, não se baseando em uma análise abrangente do mercado.