Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Oct 23, 2024
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
Oct 2024
Experimente ?

LLM Guardrails é um conjunto de diretrizes, políticas ou filtros projetados para evitar que modelos de linguagem de grande porte (LLMs) gerem conteúdo prejudicial, enganoso ou irrelevante. Os guardrails também podem ser usados para proteger aplicações de LLMs contra usuárias mal-intencionadas que tentem manipular o sistema com técnicas como a manipulação de entrada. Elas atuam como uma rede de segurança, estabelecendo limites para o modelo ao processar e gerar conteúdo. Existem alguns frameworks emergentes nesse espaço, como o NeMo Guardrails, Guardrails AI e Aporia Guardrails, que nossas equipes têm achado úteis. Recomendamos que toda aplicação que utilize LLMs tenha guardrails implementados e que suas regras e políticas sejam continuamente aprimoradas. Eles são cruciais para construir aplicações de chat com LLMs que sejam responsáveis e confiáveis.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber a newsletter do Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores