Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Oct 23, 2024
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
Oct 2024
Probar ?

LLM Guardrails son un conjunto de pautas, políticas o filtros diseñados para evitar que los modelos de lenguaje de gran tamaño (LLMs) generen contenido dañino, engañoso o irrelevante. Las barreras también pueden usarse para proteger a las aplicaciones LLM de usuarios malintencionados que intenten abusar del sistema mediante técnicas como la manipulación de inputs. Actúan como una red de seguridad al establecer límites para que el modelo procese y genere contenido. Existen algunos frameworks emergentes en este ámbito como NeMo Guardrails, Guardrails AI y Aporia Guardrails que nuestros equipos han encontrado útiles. Recomendamos que toda aplicación de LLM tenga guardrails implementadas y que sus reglas y políticas se mejoren continuamente. Son cruciales para construir aplicaciones de chat responsables y confiables con LLMs.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores