Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Sep 27, 2023
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
Sep 2023
Assess ? Vale la pena explorarlo con el objetivo de entender cómo afectará a tu empresa.

GPTCache es una librería de caché semántica para modelos de lenguajes grandes(LLMs). Vemos la necesidad de una capa de caché delante de los LLM por dos razones principales: mejorar el rendimiento general reduciendo llamadas a API externas y reducir el costo de operación almacenando en caché respuestas similares. A diferencia de los enfoques tradicionales cacheo que buscan coincidencias exactas, lo que las soluciones de cacheo basadas en LLM requieren son coincidencias similares o relacionadas para las consultas de entrada. GPTCache aborda esto con la ayuda de algoritmos de embedding para convertir los inputs en embeddings y luego usar un almacén de datos vectorial para la búsqueda de similitudes en dichos embeddings. Un inconveniente de este diseño es que podrías encontrar falsos positivos durante los aciertos de caché o falsos negativos durante los fallos de caché, por lo que te recomendamos que evalúes cuidadosamente GPTCache para tus aplicaciones basadas en LLM.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores