语言 & 框架
采纳
-
85. Fastify
我们对 Fastify 的体验持续保持积极评价。它是一款快速、灵活、低开销的 Node.js Web 框架。它提供了极简 Web 框架所需的所有核心功能,包括解析、验证和序列化,同时拥有强大的插件系统和活跃的社区支持。我们的团队在使用 Fastify 时,相比 Express.js 等替代方案,并未发现明显的缺点,反而获得了可衡量的性能提升,使其成为 Node.js 极简 Web 开发中一个引人注目的选择。
-
87. vLLM
vLLM 是一个高吞吐量、内存高效的 LLM 推理引擎,可在云端或本地运行。它支持多种 模型架构 和流行的开源模型。我们的团队在 GPU 平台(如 NVIDIA DGX 和 Intel HPC)上部署了容器化的 vLLM 工作节点,托管包括 Llama 3.1 (8B 和 70B)、Mistral 7B 和 Llama-SQL 等模型,用于开发者编码辅助、知识搜索和自然语言数据库交互。vLLM 与 OpenAI SDK 标准兼容,实现一致的模型服务。Azure 的 AI Model Catalog 使用基于 vLLM 的自定义推理容器以提升服务性能,并将 vLLM 作为默认推理引擎,因其高吞吐量和高效内存管理而被广泛采用。vLLM 框架已成为大规模模型部署的首选方案。
试验
-
88. Crossplane
自上次在技术雷达中亮相以来,Crossplane 的采用率持续增长,尤其是在扩展 Kubernetes 集群方面。在我们的实践中发现,Crossplane 在特定用例中表现出色,而非作为通用的基础设施即代码(IaC)工具。我们早先的观察仍然成立:Crossplane 最适合作为 Kubernetes 内部署工作负载的辅助工具,而不是完全替代 Terraform 等工具。那些将 Crossplane 作为主要 IaC 解决方案的团队往往举步维艰,而那些务实地将其用于特定定制用例的团队则取得了显著成效。将资源生命周期管理下放给 Crossplane,同时利用 XRD API 进行轻量级定制,证明尤其有效。当管理那些生命周期简单但并非 Kubernetes 原生支持的资源时,Crossplane 的价值尤为突出。虽然它现在可以创建 Kubernetes 集群——这一功能以前缺失——我们仍建议在将 Crossplane 作为 Terraform 完全替代方案时保持谨慎。根据我们的经验,最佳做法是以 IaC 作为基础层,再在其上使用 Crossplane 来满足特定需求。
-
89. DeepEval
DeepEval 是一个开源的、基于 Python 的 LLM 性能评估框架。它可以用于评估 检索增强生成 (RAG) 和其他使用框架(如 LlamaIndex 或 LangChain)构建的应用程序,也可以用于基线和基准模型。DeepEval 超越了单词匹配得分,评估准确性、相关性和一致性,在现实场景中提供更可靠的评估。它包括诸如幻觉检测、答案相关性和超参数优化等指标,并支持 GEval 创建自定义、用例特定的指标。我们的团队使用 DeepEval 使用 LLM 作为评判者技术微调智能体输出。它与 pytest 和 CI/CD 管道集成,使其易于采用并具有持续评估的价值。对于在受监管环境中构建 LLM 应用程序的团队,由英国人工智能安全研究所开发的 Inspect AI 提供了一个替代方案,更专注于审计和合规性。
-
90. FastMCP
Model Context Protocol (MCP) 正快速成为为 LLM 应用提供上下文和工具的标准。然而,实施 MCP 服务器通常涉及大量的设置、协议处理和错误管理样板代码。FastMCP 是一个 Python 框架,通过抽象协议复杂性并允许开发者使用直观的 Python 装饰器定义 MCP 资源和工具,从而简化了这一过程。这种抽象使团队能够专注于业务逻辑,从而实现更清晰、更易维护的 MCP 实现。 虽然 FastMCP 1.0 已经集成到官方 SDK中,但 MCP 标准仍在快速发展。我们建议关注 2.0 版本发布,并确保团队与官方规范的更新保持同步。
-
92. MLForecast
MLForecast 是一个用于时间序列预测的 Python 框架和库,它将机器学习模型应用于大规模数据集。它简化了通常复杂的自动特征工程过程——包括滞后特征、滑动统计和基于日期的特征——并且是少数原生支持分布式计算框架(如 Spark 和 Dask)的库之一,从而保证了可扩展性。它还支持使用符合预测等方法进行概率预测,为预测不确定性提供量化指标。在我们的评估中,MLForecast 能够高效处理数百万数据点,并持续优于同类工具。对于希望在高数据量场景下快速实现时间序列预测的团队,MLForecast 是一个非常有吸引力的选择。
-
93. Nuxt
Nuxt 是一个基于 Vue.js 构建的有观点的元框架,用于创建全栈 Web 应用,常被称为 “Vue.js 版的 Next.js”。与其 React 对应框架类似,Nuxt 提供 SEO 友好的功能,如预渲染、服务器端渲染(SSR)和元数据管理,使其成为在 Vue.js 技术栈上构建性能导向、SEO 优化网站的强力选择。 Nuxt 由 Vercel 支持(同样公司也开发了 Next.js),并拥有强大的社区和官方及第三方模块生态。这些模块简化了图像处理、站点地图生成和 Tailwind CSS 等功能的集成。对于希望使用 Vue.js 构建 SEO 友好应用的团队来说,Nuxt 是一个全面、有观点的框架选择。
-
94. Phoenix
我们依然在使用 Phoenix(一个由 Elixir 编写的服务端 Web MVC 框架)中获得了良好的体验。Phoenix 在借鉴 Ruby on Rails 的快速开发和开发者体验的同时,也进一步推进了函数式编程范式的发展。 本期我们重点关注 Phoenix LiveView 1.0 的发布。LiveView 是一种基于 HTML-over-the-wire 的解决方案——类似于 HTMX 或 Hotwire——它使开发者能够完全使用服务端渲染的 HTML 构建丰富的实时用户体验。与通常仅通过 HTML 局部更新的类似技术不同,LiveView 通过 LiveComponents 提供了完整的组件化架构,支持组件组合、属性传递、状态管理和生命周期钩子等特性,与 React 或 Vue.js 类似。LiveView 将 Phoenix 的高生产力与可扩展性结合起来,同时具备强大的复杂性管理能力,非常适合在无需完整 JavaScript 框架的情况下构建高度交互的前端应用。
-
96. Pydantic AI
Pydantic AI 持续证明自己是一个稳定、支持良好的开源框架,适用于在生产环境中构建生成式 AI 智能体。它基于可靠的 Pydantic 基础,提供强类型安全、通过 OpenTelemetry 实现的一流可观测性,以及内置评估工具。2025 年 9 月 4 日发布的 1.0 版本标志着其成熟度的重要里程碑。自那以后,我们发现它因简单性和可维护性而可靠且广泛采用,加入了类似 LangChain 和 LangGraph 等其他流行智能体框架的行列。 近期更新使实现模型上下文协议(MCP)服务器和客户端更为便捷,并增加了对 AG-UI 和 A2A 等新兴标准的支持。凭借其清晰的 API 和不断增长的生态系统,Pydantic AI 已成为我们团队在 Python 中构建生产就绪生成式 AI 应用的有力选择。
评估
-
98. Agent Development Kit(ADK)
Agent Development Kit(简称 ADK) 是一个用于开发和部署 AI 智能体的框架,它将现代软件工程方法引入智能体构建,而不仅仅依赖提示。ADK 引入了熟悉的抽象概念,如类、方法、工作流模式和命令行界面(CLI)支持。与 LangGraph 或 CrewAI 等框架相比,ADK 的优势在于其与 Google AI 基础设施的深度集成,提供企业级的上下文绑定、数据访问和监控能力。ADK 还注重互操作性,支持工具封装器以及用于智能体间通信的 A2A 协议。对于已在 GCP 上投入的组织而言,ADK 为构建可扩展、安全且易于管理的智能体架构提供了有前景的基础。尽管它仍处于早期发展阶段,但这表明了 Google 正在迈向原生的全栈智能体开发环境。我们建议密切关注其成熟度和生态系统的发展。
-
100. assistant-ui
assistant-ui 是一个用于 AI 对话界面的开源 TypeScript 和 React 库。它处理了聊天 UI 实现中的复杂环节——比如消息流式处理、消息编辑与分支切换的状态管理,以及常见的用户体验要素——同时允许开发者利用 Radix primitives 自行设计组件。它支持与主流运行环境集成,包括 Vercel AI SDK 和 LangGraph,并为复杂应用场景提供可自定义的运行时方案。我们已经成功基于 assistant-ui 构建了简单的聊天界面,并对其效果感到满意。
-
101. AutoRound
英特尔的 AutoRound 是一种先进的量化算法,能够在几乎不损失精度的前提下压缩大型 AI 模型(如 LLM 和图文多模态模型)。它采用符号梯度下降优化,以及跨不同层的混合比特宽度方案,可将模型精度降至极低的 2–4 比特范围,从而实现最佳效率。AutoRound 的量化过程也非常迅速:在单块 GPU 上,仅需数分钟即可完成对 70 亿参数模型的量化。由于 AutoRound 能与 vLLM 和 Transformers 等主流推理引擎集成,所以成为模型量化的有吸引力方案。
-
102. Browser Use
Browser Use 是一个开源的 Python 库,使基于大型语言模型(LLM)的智能体能够操作网页浏览器并与 Web 应用程序交互。它可以执行导航、输入数据、提取文本以及管理多个标签页,以便在不同应用之间协调操作。当 AI 智能体需要访问、处理或检索网页内容时,该库尤其有用。它支持多种 LLM,并基于 Playwright,结合视觉理解与 HTML 结构提取,实现更丰富的网页交互。 我们的团队将 Browser Use 与 Pytest 框架和 Allure 报告系统集成,用于探索基于 LLM 的自动化测试。测试步骤以自然语言编写,由智能体执行,并在断言或失败时自动捕获截图。其目标是在开发完成后,通过自动从 Confluence 拉取测试用例,实现非工作时段的 QA 测试。早期结果较为理想,但智能体在任务结束后的响应中往往缺乏详细的错误描述,因此需要自定义错误报告机制来补充。
-
103. DeepSpeed
DeepSpeed 是一个 Python 库,用于优化分布式深度学习的训练和推理。对于训练,它集成了 Zero Redundancy Optimizer (ZeRO) 和 3D 并行等技术,以高效地在数千 GPU 上扩展模型。对于推理,它结合了张量并行、流水线并行、专家并行和 ZeRO 并行,并通过自定义内核和通信优化来最小化延迟。DeepSpeed 支持世界上一些最大的语言模型,包括 Megatron-Turing NLG(530B)和 BLOOM(176B)。它兼容稠密模型和稀疏模型,提供高系统吞吐量,并允许在多 GPU 资源受限的环境下进行训练或推理。该库可与流行的 Hugging Face Transformers、PyTorch Lightning 和 Accelerate 无缝集成,是大规模或资源受限深度学习工作负载的高效解决方案。
-
104. Drizzle
Drizzle 是一个轻量级的 TypeScript ORM。与 Prisma ORM 不同,它为开发者提供了既简单的类 SQL API,也更传统的 ORM 风格查询接口。它还支持从现有数据库提取模式,从而同时支持数据库优先和代码优先的方法。Drizzle 针对无服务器环境设计:它具有小巧的包体积,并支持预编译语句,使 SQL 查询可以预先编译,从而让数据库驱动直接执行二进制 SQL,而无需每次解析查询。其简洁性和对无服务器环境的支持,使 Drizzle 成为 TypeScript 生态中 ORM 的理想选择。
-
106. kagent
Kagent 是一个在 Kubernetes 集群中运行智能体的开源框架。它使基于大语言模型(LLM)的智能体能够通过 Kubernetes 原生 API 和 Model Context Protocol(MCP)集成,规划并执行运维任务,例如诊断问题、修复配置或与可观测性工具交互。其目标是将“AgentOps”引入云原生基础设施,将声明式管理与自主推理相结合。 作为一个 CNCF Sandbox 项目,Kagent 的引入需要谨慎,特别是在赋予 LLM 运维管理能力时所带来的潜在风险。诸如 AI 有害流分析(toxic flow analysis) 等技术在评估和缓解这些风险时尤其有价值。
-
107. LangExtract
LangExtract 是一个可根据用户定义的指令,使用大型语言模型(LLM)从非结构化文本中提取结构化信息的Python 库。它可以处理领域特定的材料——例如临床记录和报告——并在识别和组织关键信息的同时,让每个提取的数据点都能追溯到其来源。提取的实体可导出为
.jsonl文件,这是一种语言模型数据的标准格式,并可通过交互式 HTML 界面进行可视化,以便进行上下文审查。我们的团队评估了 LangExtract 在实体提取以填充领域知识图谱方面的能力,发现它在将复杂文档转化为结构化、机器可读的格式方面卓有成效。 -
111. 开放安全控制评估语言(OSCAL)
开放安全控制评估语言(OSCAL) 是一种开放、机器可读的信息交换格式,旨在提升合规和风险管理的自动化水平,帮助团队摆脱基于文本的手工处理方式。在美国国家标准与技术研究院(NIST)的领导下,OSCAL 提供了基于 XML、JSON 和 YAML 的标准化表达方式,用于描述与行业框架(如 SOC 2 和 PCI)以及政府框架(如美国的 FedRAMP、新加坡的 网络安全控制目录 和澳大利亚的 信息安全手册)相关的安全控制。 尽管 OSCAL 目前在公共部门之外尚未被广泛采用,其生态系统也仍在不断完善,但我们对其带来的潜力感到兴奋。OSCAL 有望简化安全评估流程,减少对电子表格以及走形式的“打勾”操作的依赖,甚至在集成进合规即代码(compliance-as-code)和持续合规平台后,实现合规自动化。
-
112. OpenInference
OpenInference 是一套约定和插件集,作为 OpenTelemetry 的补充,专为观测 AI 应用而设计。它为机器学习框架和 类库 提供了标准化的工具,帮助开发者追踪 LLM 的调用,以及向量存储检索、外部工具(如 API 和搜索引擎)调用等周围上下文。Span 数据可以导出到任何兼容 OTEL 的收集器,确保与现有遥测流水线保持一致。我们之前曾提及 Langfuse,这是一个常用的 LLM 可观测性平台—— OpenInference SDK 可以将追踪数据记录到 Langfuse 以及其他兼容 OpenTelemetry 的可观测性平台中。
-
114. Vercel AI SDK
Vercel AI SDK 是一个开源的全栈工具包,用于在 TypeScript 生态系统中构建由 AI 驱动的应用和智能体。它包含两个主要组件:AI SDK Core 用于标准化与模型无关的 LLM 调用,支持文本生成、结构化对象生成以及工具调用;AI SDK UI 则简化了前端开发,提供流式响应、状态管理和在 React、Vue、Next.js、Svelte 中的实时界面更新,类似于 assistant-ui。对于已经使用 TypeScript 和 Next.js 的团队而言,Vercel AI SDK 提供了一种快速、无缝的方式来构建具有丰富客户端体验的 AI 应用程序。
暂缓
是不是没有找到你预期的内容?
每一期的雷达都会收录我们过去六个月所发现的亮点(blip)。您想寻找的内容,我们可能已经在之前的雷达中有所涵盖。有时,仅仅是因为可讨论的内容太多,我们不得不有所取舍。某个亮点之所以缺失,也可能是因为雷达反映的是我们的实际经验,而非基于全面的市场分析。