Enable javascript in your browser for better experience. Need to know to enable it? Go here.
第33期 |  十一月2025

语言 & 框架

 

订阅
  • 语言 & 框架

    采纳 试验 评估 暂缓 采纳 试验 评估 暂缓
  • 新的
  • 移进/移出
  • 没有变化

语言 & 框架

采纳 ?

  • 85. Fastify

    我们对 Fastify 的体验持续保持积极评价。它是一款快速、灵活、低开销的 Node.js Web 框架。它提供了极简 Web 框架所需的所有核心功能,包括解析、验证和序列化,同时拥有强大的插件系统和活跃的社区支持。我们的团队在使用 Fastify 时,相比 Express.js 等替代方案,并未发现明显的缺点,反而获得了可衡量的性能提升,使其成为 Node.js 极简 Web 开发中一个引人注目的选择。

  • 86. LangGraph

    LangGraph 是一个用于使用 LLM 构建有状态的多智能体应用的编排框架。它提供节点和边等底层原语,以及内置功能,使开发人员能够精细控制智能体的工作流、内存管理和状态持久化。这意味着开发人员可以从一个简单的预构建图入手,并扩展到复杂且不断演进的智能体架构。通过支持流式处理、高级上下文管理以及模型回退和工具错误处理等弹性模式,LangGraph 使你能够构建健壮的生产级智能体应用。其基于图的方法确保了可预测的、可定制的工作流,并简化了调试和扩展。我们的团队使用 LangGraph 构建多智能体系统取得了很好的效果,这得益于其轻量级和模块化的设计。

  • 87. vLLM

    vLLM 是一个高吞吐量、内存高效的 LLM 推理引擎,可在云端或本地运行。它支持多种 模型架构 和流行的开源模型。我们的团队在 GPU 平台(如 NVIDIA DGX 和 Intel HPC)上部署了容器化的 vLLM 工作节点,托管包括 Llama 3.1 (8B 和 70B)Mistral 7BLlama-SQL 等模型,用于开发者编码辅助、知识搜索和自然语言数据库交互。vLLM 与 OpenAI SDK 标准兼容,实现一致的模型服务。Azure 的 AI Model Catalog 使用基于 vLLM 的自定义推理容器以提升服务性能,并将 vLLM 作为默认推理引擎,因其高吞吐量和高效内存管理而被广泛采用。vLLM 框架已成为大规模模型部署的首选方案。

试验 ?

  • 88. Crossplane

    自上次在技术雷达中亮相以来,Crossplane 的采用率持续增长,尤其是在扩展 Kubernetes 集群方面。在我们的实践中发现,Crossplane 在特定用例中表现出色,而非作为通用的基础设施即代码(IaC)工具。我们早先的观察仍然成立:Crossplane 最适合作为 Kubernetes 内部署工作负载的辅助工具,而不是完全替代 Terraform 等工具。那些将 Crossplane 作为主要 IaC 解决方案的团队往往举步维艰,而那些务实地将其用于特定定制用例的团队则取得了显著成效。将资源生命周期管理下放给 Crossplane,同时利用 XRD API 进行轻量级定制,证明尤其有效。当管理那些生命周期简单但并非 Kubernetes 原生支持的资源时,Crossplane 的价值尤为突出。虽然它现在可以创建 Kubernetes 集群——这一功能以前缺失——我们仍建议在将 Crossplane 作为 Terraform 完全替代方案时保持谨慎。根据我们的经验,最佳做法是以 IaC 作为基础层,再在其上使用 Crossplane 来满足特定需求。

  • 89. DeepEval

    DeepEval 是一个开源的、基于 Python 的 LLM 性能评估框架。它可以用于评估 检索增强生成 (RAG) 和其他使用框架(如 LlamaIndexLangChain)构建的应用程序,也可以用于基线和基准模型。DeepEval 超越了单词匹配得分,评估准确性、相关性和一致性,在现实场景中提供更可靠的评估。它包括诸如幻觉检测、答案相关性和超参数优化等指标,并支持 GEval 创建自定义、用例特定的指标。我们的团队使用 DeepEval 使用 LLM 作为评判者技术微调智能体输出。它与 pytest 和 CI/CD 管道集成,使其易于采用并具有持续评估的价值。对于在受监管环境中构建 LLM 应用程序的团队,由英国人工智能安全研究所开发的 Inspect AI 提供了一个替代方案,更专注于审计和合规性。

  • 90. FastMCP

    Model Context Protocol (MCP) 正快速成为为 LLM 应用提供上下文和工具的标准。然而,实施 MCP 服务器通常涉及大量的设置、协议处理和错误管理样板代码。FastMCP 是一个 Python 框架,通过抽象协议复杂性并允许开发者使用直观的 Python 装饰器定义 MCP 资源和工具,从而简化了这一过程。这种抽象使团队能够专注于业务逻辑,从而实现更清晰、更易维护的 MCP 实现。 虽然 FastMCP 1.0 已经集成到官方 SDK中,但 MCP 标准仍在快速发展。我们建议关注 2.0 版本发布,并确保团队与官方规范的更新保持同步。

  • 91. LiteLLM

    LiteLLM 是一个 SDK,可通过标准化的 OpenAI API 格式 实现与多个 LLM 服务商的无缝集成。它支持多种服务商和模型,为文本生成、嵌入和图像生成提供统一接口。通过屏蔽不同服务商的 API 差异,LiteLLM 简化了集成流程,并会自动将请求路由至对应模型端点。其代理框架还包含生产级特性,如安全控制、缓存、日志记录、限流和负载均衡。随着企业将 AI 应用更深入地嵌入工作流,治理和可观测性变得尤为重要。我们的团队一直将 LiteLLM 用作 AI 网关,以实现企业级 AI 使用的标准化、安全管控和可见性。

  • 92. MLForecast

    MLForecast 是一个用于时间序列预测的 Python 框架和库,它将机器学习模型应用于大规模数据集。它简化了通常复杂的自动特征工程过程——包括滞后特征、滑动统计和基于日期的特征——并且是少数原生支持分布式计算框架(如 Spark 和 Dask)的库之一,从而保证了可扩展性。它还支持使用符合预测等方法进行概率预测,为预测不确定性提供量化指标。在我们的评估中,MLForecast 能够高效处理数百万数据点,并持续优于同类工具。对于希望在高数据量场景下快速实现时间序列预测的团队,MLForecast 是一个非常有吸引力的选择。

  • 93. Nuxt

    Nuxt 是一个基于 Vue.js 构建的有观点的元框架,用于创建全栈 Web 应用,常被称为 “Vue.js 版的 Next.js”。与其 React 对应框架类似,Nuxt 提供 SEO 友好的功能,如预渲染、服务器端渲染(SSR)和元数据管理,使其成为在 Vue.js 技术栈上构建性能导向、SEO 优化网站的强力选择。 Nuxt 由 Vercel 支持(同样公司也开发了 Next.js),并拥有强大的社区和官方及第三方模块生态。这些模块简化了图像处理、站点地图生成和 Tailwind CSS 等功能的集成。对于希望使用 Vue.js 构建 SEO 友好应用的团队来说,Nuxt 是一个全面、有观点的框架选择。

  • 94. Phoenix

    我们依然在使用 Phoenix(一个由 Elixir 编写的服务端 Web MVC 框架)中获得了良好的体验。Phoenix 在借鉴 Ruby on Rails 的快速开发和开发者体验的同时,也进一步推进了函数式编程范式的发展。 本期我们重点关注 Phoenix LiveView 1.0 的发布。LiveView 是一种基于 HTML-over-the-wire 的解决方案——类似于 HTMXHotwire——它使开发者能够完全使用服务端渲染的 HTML 构建丰富的实时用户体验。与通常仅通过 HTML 局部更新的类似技术不同,LiveView 通过 LiveComponents 提供了完整的组件化架构,支持组件组合、属性传递、状态管理和生命周期钩子等特性,与 ReactVue.js 类似。LiveView 将 Phoenix 的高生产力与可扩展性结合起来,同时具备强大的复杂性管理能力,非常适合在无需完整 JavaScript 框架的情况下构建高度交互的前端应用。

  • 95. Presidio

    Presidio 是一个数据保护 SDK,用于在结构化和非结构化文本中 识别匿名化 敏感数据。它利用命名实体识别、正则表达式和基于规则的逻辑,检测个人身份信息(PII),例如信用卡号、姓名和位置。Presidio 支持 自定义 实体识别器和去标识化流水线,使组织能够根据其隐私和合规需求进行定制。我们的团队已在具有严格数据共享控制的企业环境中,将 Presidio 用于与 LLM 集成。尽管它实现了敏感信息检测的自动化,但它并非万无一失,可能会遗漏或错误识别实体。团队在依赖其结果时,请务必保持谨慎。

  • 96. Pydantic AI

    Pydantic AI 持续证明自己是一个稳定、支持良好的开源框架,适用于在生产环境中构建生成式 AI 智能体。它基于可靠的 Pydantic 基础,提供强类型安全、通过 OpenTelemetry 实现的一流可观测性,以及内置评估工具。2025 年 9 月 4 日发布的 1.0 版本标志着其成熟度的重要里程碑。自那以后,我们发现它因简单性和可维护性而可靠且广泛采用,加入了类似 LangChainLangGraph 等其他流行智能体框架的行列。 近期更新使实现模型上下文协议(MCP)服务器和客户端更为便捷,并增加了对 AG-UI 和 A2A 等新兴标准的支持。凭借其清晰的 API 和不断增长的生态系统,Pydantic AI 已成为我们团队在 Python 中构建生产就绪生成式 AI 应用的有力选择。

  • 97. Tauri

    Tauri 是一个使用单一 Web UI 代码库构建高性能桌面应用的框架。与传统的 Web 包装器如 Electron 不同,Tauri 基于 Rust 构建,并利用操作系统的原生 Webview,从而生成更小的二进制文件并提升安全性。我们在几年前首次评估了 Tauri;此后,它已扩展到支持 iOS 和 Android。最新版本引入了更灵活的权限与作用域模型,替换了旧的权限列表,并强化了进程间通信(IPC)层,支持原始数据传输并提升性能。这些更新均经过外部安全审计。结合各大应用商店的官方分发指南,这些改进进一步巩固了 Tauri 在跨平台开发领域的地位。

评估 ?

  • 98. Agent Development Kit(ADK)

    Agent Development Kit(简称 ADK) 是一个用于开发和部署 AI 智能体的框架,它将现代软件工程方法引入智能体构建,而不仅仅依赖提示。ADK 引入了熟悉的抽象概念,如类、方法、工作流模式和命令行界面(CLI)支持。与 LangGraphCrewAI 等框架相比,ADK 的优势在于其与 Google AI 基础设施的深度集成,提供企业级的上下文绑定、数据访问和监控能力。ADK 还注重互操作性,支持工具封装器以及用于智能体间通信的 A2A 协议。对于已在 GCP 上投入的组织而言,ADK 为构建可扩展、安全且易于管理的智能体架构提供了有前景的基础。尽管它仍处于早期发展阶段,但这表明了 Google 正在迈向原生的全栈智能体开发环境。我们建议密切关注其成熟度和生态系统的发展。

  • 99. Agno

    Agno 是一个用于构建、运行和管理多智能体系统的框架。它提供了创建完全自主智能体或受控的、基于步骤的工作流的灵活性,并内置了对人机协作(Human-in-the-Loop)、会话管理、记忆和知识的支持。我们赞赏其对效率的关注,它实现了令人印象深刻的智能体启动速度和极低的内存消耗。Agno 还附带了其运行时 AgentOS,这是一个基于 FastAPI 的应用程序,带有集成的控制平面,可用于简化的智能体系统测试、监控和管理。

  • 100. assistant-ui

    assistant-ui 是一个用于 AI 对话界面的开源 TypeScript 和 React 库。它处理了聊天 UI 实现中的复杂环节——比如消息流式处理、消息编辑与分支切换的状态管理,以及常见的用户体验要素——同时允许开发者利用 Radix primitives 自行设计组件。它支持与主流运行环境集成,包括 Vercel AI SDKLangGraph,并为复杂应用场景提供可自定义的运行时方案。我们已经成功基于 assistant-ui 构建了简单的聊天界面,并对其效果感到满意。

  • 101. AutoRound

    英特尔的 AutoRound 是一种先进的量化算法,能够在几乎不损失精度的前提下压缩大型 AI 模型(如 LLM 和图文多模态模型)。它采用符号梯度下降优化,以及跨不同层的混合比特宽度方案,可将模型精度降至极低的 2–4 比特范围,从而实现最佳效率。AutoRound 的量化过程也非常迅速:在单块 GPU 上,仅需数分钟即可完成对 70 亿参数模型的量化。由于 AutoRound 能与 vLLMTransformers 等主流推理引擎集成,所以成为模型量化的有吸引力方案。

  • 102. Browser Use

    Browser Use 是一个开源的 Python 库,使基于大型语言模型(LLM)的智能体能够操作网页浏览器并与 Web 应用程序交互。它可以执行导航、输入数据、提取文本以及管理多个标签页,以便在不同应用之间协调操作。当 AI 智能体需要访问、处理或检索网页内容时,该库尤其有用。它支持多种 LLM,并基于 Playwright,结合视觉理解与 HTML 结构提取,实现更丰富的网页交互。 我们的团队将 Browser Use 与 Pytest 框架和 Allure 报告系统集成,用于探索基于 LLM 的自动化测试。测试步骤以自然语言编写,由智能体执行,并在断言或失败时自动捕获截图。其目标是在开发完成后,通过自动从 Confluence 拉取测试用例,实现非工作时段的 QA 测试。早期结果较为理想,但智能体在任务结束后的响应中往往缺乏详细的错误描述,因此需要自定义错误报告机制来补充。

  • 103. DeepSpeed

    DeepSpeed 是一个 Python 库,用于优化分布式深度学习的训练和推理。对于训练,它集成了 Zero Redundancy Optimizer (ZeRO) 和 3D 并行等技术,以高效地在数千 GPU 上扩展模型。对于推理,它结合了张量并行、流水线并行、专家并行和 ZeRO 并行,并通过自定义内核和通信优化来最小化延迟。DeepSpeed 支持世界上一些最大的语言模型,包括 Megatron-Turing NLG(530B)和 BLOOM(176B)。它兼容稠密模型和稀疏模型,提供高系统吞吐量,并允许在多 GPU 资源受限的环境下进行训练或推理。该库可与流行的 Hugging Face Transformers、PyTorch Lightning 和 Accelerate 无缝集成,是大规模或资源受限深度学习工作负载的高效解决方案。

  • 104. Drizzle

    Drizzle 是一个轻量级的 TypeScript ORM。与 Prisma ORM 不同,它为开发者提供了既简单的类 SQL API,也更传统的 ORM 风格查询接口。它还支持从现有数据库提取模式,从而同时支持数据库优先和代码优先的方法。Drizzle 针对无服务器环境设计:它具有小巧的包体积,并支持预编译语句,使 SQL 查询可以预先编译,从而让数据库驱动直接执行二进制 SQL,而无需每次解析查询。其简洁性和对无服务器环境的支持,使 Drizzle 成为 TypeScript 生态中 ORM 的理想选择。

  • 105. Java 后量子密码学

    量子计算机正快速发展,SaaS 服务如 AWS Braket 已经能够在多种架构上提供量子算法的访问能力。自今年三月起,Java 24 引入了 Java 后量子密码学,增加了对后量子加密算法的支持,例如 ML-KEMML-DSA;同时,.Net 10 也扩展了其支持。我们的建议很简单:如果你在这些语言中构建软件,请立即开始采用量子安全算法,以保障系统的未来适应性。

  • 106. kagent

    Kagent 是一个在 Kubernetes 集群中运行智能体的开源框架。它使基于大语言模型(LLM)的智能体能够通过 Kubernetes 原生 API 和 Model Context Protocol(MCP)集成,规划并执行运维任务,例如诊断问题、修复配置或与可观测性工具交互。其目标是将“AgentOps”引入云原生基础设施,将声明式管理与自主推理相结合。 作为一个 CNCF Sandbox 项目,Kagent 的引入需要谨慎,特别是在赋予 LLM 运维管理能力时所带来的潜在风险。诸如 AI 有害流分析(toxic flow analysis) 等技术在评估和缓解这些风险时尤其有价值。

  • 107. LangExtract

    LangExtract 是一个可根据用户定义的指令,使用大型语言模型(LLM)从非结构化文本中提取结构化信息的Python 库。它可以处理领域特定的材料——例如临床记录和报告——并在识别和组织关键信息的同时,让每个提取的数据点都能追溯到其来源。提取的实体可导出为 .jsonl 文件,这是一种语言模型数据的标准格式,并可通过交互式 HTML 界面进行可视化,以便进行上下文审查。我们的团队评估了 LangExtract 在实体提取以填充领域知识图谱方面的能力,发现它在将复杂文档转化为结构化、机器可读的格式方面卓有成效。

  • 108. Langflow

    Langflow 是一个用于构建和可视化 LLM 工作流的开源低代码平台。它基于 LangChain 构建,并允许开发者通过拖拽界面将提示词、工具、向量数据库和内存组件链接起来,同时仍支持自定义 Python 代码来实现高级逻辑。它特别适用于在不编写完整后端代码的情况下对智能体应用进行原型设计。然而,Langflow 仍然相对较新,在生产使用方面存在一些小缺点。我们通常对低代码平台的谨慎态度在这里同样适用。话虽如此,我们喜欢 Langflow 的工作流可以定义为代码并进行版本控制,这可以缓解低代码平台的一些缺点。

  • 109. LMCache

    LMCache 是一个用于加速大语言模型(LLM)服务基础设施的键值对(KV)缓存解决方案。它作为跨 LLM 推理引擎池的专门缓存层,存储可能被多次处理的文本的预计算 KV 缓存条目,如聊天历史或文档集合。通过将这些值持久化到磁盘上,预填充计算可以从 GPU 卸载,减少首令牌时间(TTFT)并降低 RAG 管道、多轮聊天应用和智能体系统等高要求工作负载的推理成本。你可以将 LMCache 与主要推理服务器(如 vLLM 或 NVIDIA Dynamo 集成,并认为值得评估其对你的设置的影响。

  • 110. Mem0

    Mem0 是一个专为 AI 智能体设计的内存层。初级的记忆方法通常将整个聊天历史存储在数据库中,并在未来的对话中复用,这会导致过度的令牌使用。Mem0 用一个更复杂的架构替代了这种方法,该架构将内存分为短期回忆和智能长期记忆层,后者只提取和存储重要的事实和关系。其架构结合了用于语义相似性的向量存储和用于理解时间和关系数据的知识图谱。这种设计显著减少了上下文令牌的使用,同时使智能体能够保持长期认知,这对个性化和许多其他场景极其有用。

  • 111. 开放安全控制评估语言(OSCAL)

    开放安全控制评估语言(OSCAL) 是一种开放、机器可读的信息交换格式,旨在提升合规和风险管理的自动化水平,帮助团队摆脱基于文本的手工处理方式。在美国国家标准与技术研究院(NIST)的领导下,OSCAL 提供了基于 XML、JSON 和 YAML 的标准化表达方式,用于描述与行业框架(如 SOC 2 和 PCI)以及政府框架(如美国的 FedRAMP、新加坡的 网络安全控制目录 和澳大利亚的 信息安全手册)相关的安全控制。 尽管 OSCAL 目前在公共部门之外尚未被广泛采用,其生态系统也仍在不断完善,但我们对其带来的潜力感到兴奋。OSCAL 有望简化安全评估流程,减少对电子表格以及走形式的“打勾”操作的依赖,甚至在集成进合规即代码(compliance-as-code)和持续合规平台后,实现合规自动化。

  • 112. OpenInference

    OpenInference 是一套约定和插件集,作为 OpenTelemetry 的补充,专为观测 AI 应用而设计。它为机器学习框架和 类库 提供了标准化的工具,帮助开发者追踪 LLM 的调用,以及向量存储检索、外部工具(如 API 和搜索引擎)调用等周围上下文。Span 数据可以导出到任何兼容 OTEL 的收集器,确保与现有遥测流水线保持一致。我们之前曾提及 Langfuse,这是一个常用的 LLM 可观测性平台—— OpenInference SDK 可以将追踪数据记录到 Langfuse 以及其他兼容 OpenTelemetry 的可观测性平台中。

  • 113. Valibot

    Valibot 是一个 TypeScript 的模式验证库。与其他流行的 TypeScript 验证库如 ZodAjv 类似,它提供类型推断,但其模块化设计使其与众不同。这种架构允许打包工具进行高效的 tree shaking 和代码拆分,仅包含实际使用的验证函数。在最佳场景下,Valibot 可将包体积相比 Zod 减少多达 95%。对于对包大小敏感的环境,如客户端验证或无服务器函数,Valibot 是一个颇具吸引力的选择。

  • 114. Vercel AI SDK

    Vercel AI SDK 是一个开源的全栈工具包,用于在 TypeScript 生态系统中构建由 AI 驱动的应用和智能体。它包含两个主要组件:AI SDK Core 用于标准化与模型无关的 LLM 调用,支持文本生成、结构化对象生成以及工具调用;AI SDK UI 则简化了前端开发,提供流式响应、状态管理和在 React、Vue、Next.js、Svelte 中的实时界面更新,类似于 assistant-ui。对于已经使用 TypeScript 和 Next.js 的团队而言,Vercel AI SDK 提供了一种快速、无缝的方式来构建具有丰富客户端体验的 AI 应用程序。

暂缓 ?

无异常点

是不是没有找到你预期的内容?

 

每一期的雷达都会收录我们过去六个月所发现的亮点(blip)。您想寻找的内容,我们可能已经在之前的雷达中有所涵盖。有时,仅仅是因为可讨论的内容太多,我们不得不有所取舍。某个亮点之所以缺失,也可能是因为雷达反映的是我们的实际经验,而非基于全面的市场分析。

下载

 

 

 

English | Español | Português | 中文

订阅科技雷达新闻简报

 

订阅

查看存档并阅读往期内容