深入探索企业技术与卓越工程管理
及时了解数字领导者的最新业务和行业见解
分享职业发展心得,以及我们对社会公正和包容性的见解
有态度的前沿技术解析
服务数字读者的出版物
可以将应对不确定性所需的数字能力进行优先级划分的模型
业务主管的A-Z技术指南
聚焦技术引领的商业变革
助力商业的专业洞见
关于战略、设计、工程、技术生涯等方面的专家建议
浏览更多我们的书籍
分析商业和技术最新趋势的精彩对话
探索最新科技热点,深度分析技术与商业
面试准备
了解作为一名Thoughtworker是怎样的体验
正确开启技术生涯
在您所在的区域寻找正在招聘的岗位
订阅我们的月度新闻简报
了解更多我们如何支持员工的职业发展
看看我们如何关爱我们的员工
技术雷达
大型语言模型通常会运行在具有强大的 GPU 的基础设施上。我们如今可以看到一些大型语言模型的移植版本,比如 llama.cpp,这些模型能在不同的硬件上运行,包括 Raspberry Pi(树莓派)、笔记本电脑和通用服务器等。因此 自托管式大型语言模型 已经成为现实。目前,有许多开源的自托管式大型语言模型,如 GPT-J、GPT-JT 和 LLaMA。自托管这种方式有许多好处,比如可以更好地控制模型在一些特定使用场景的微调、提高安全性和隐私性,以及支持离线访问。不过在决定使用自托管这种方式之前,您应该仔细评估组织的能力和运行此类大型语言模型需要消耗的成本。
English | Español | Português | 中文
立即订阅