Enable javascript in your browser for better experience. Need to know to enable it? Go here.
发布于 : Sep 27, 2023
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
Sep 2023
Assess ? 在了解它将对你的企业产生什么影响的前提下值得探索

GPTCache 是一个用于大型语言模型(LLM)的语义缓存库。我们认为需要在 LLM 前增设缓存层主要出于两种原因——通过减少外部 API 调用来提升整体性能,以及通过缓存近似响应来减少运营成本。不同于使用精确匹配的传统缓存方式, 基于 LLM 的缓存解决方案需要对输入进行相似或相关匹配。 GPTCache 通过使用嵌入算法将输入转化为嵌入,再通过向量数据库对这些嵌入进行相似性搜索。这种设计有一个缺点,可能会导致缓存命中时遇到假阳性结果,或缓存未命中时遇到假阴性结果,因此我们建议你在构建基于 LLM 应用时,仔细评估 GPTCache。

下载 PDF

 

English | Español | Português | 中文

订阅技术雷达简报

 

立即订阅

查看存档并阅读往期内容