Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Oct 23, 2024
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Oct 2024
Trial ?

LLM Guardrails son un conjunto de pautas, políticas o filtros diseñados para evitar que los modelos de lenguaje de gran tamaño (LLMs) generen contenido dañino, engañoso o irrelevante. Las barreras también pueden usarse para proteger a las aplicaciones LLM de usuarios malintencionados que intenten abusar del sistema mediante técnicas como la manipulación de inputs. Actúan como una red de seguridad al establecer límites para que el modelo procese y genere contenido. Existen algunos frameworks emergentes en este ámbito como NeMo Guardrails, Guardrails AI y Aporia Guardrails que nuestros equipos han encontrado útiles. Recomendamos que toda aplicación de LLM tenga guardrails implementadas y que sus reglas y políticas se mejoren continuamente. Son cruciales para construir aplicaciones de chat responsables y confiables con LLMs.

Download the PDF

 

 

 

English | Português

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes