Enable javascript in your browser for better experience. Need to know to enable it? Go here.
radar blip
radar blip

NLP的迁移学习

本页面中的信息并不完全以您的首选语言展示,我们正在完善其他语言版本。想要以您的首选语言了解相关信息,可以点击这里下载PDF。
更新于 : May 19, 2020
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
May 2020
Trial ? 值得一试。了解为何要构建这一能力是很重要的。企业应当在风险可控的前提下在项目中尝试应用此项技术。

该技术之前处于技术雷达的评估维度。NLP(Natural Language Processing,自然语言处理领域的创新在持续快速发展,并且由于无处不在的 迁移学习 ,使得我们可以将这些创新应用到项目中。GLUE基准测试(一套语言理解任务)的得分在过去几年里有了显著的进步,平均分数从刚发布时的70.0上升到2020年4月处于领导地位的90.0。我们在NLP领域的很多项目,从ELMo、BERTERNIE等预训练模型开始,然后根据项目需求进行微调,可以取得重大进展。

Apr 2019
Assess ? 在了解它将对你的企业产生什么影响的前提下值得探索

Transfer learning has been quite effective within the field of computer vision, speeding the time to train a model by reusing existing models. Those of us who work in machine learning are excited that the same techniques can be applied to natural language processing (NLP) with the publication of ULMFiT and open source pretrained models and code examples. We think transfer learning for NLP will significantly reduce the effort to create systems dealing with text classification.

发布于 : Apr 24, 2019

下载第29期技术雷达

English | Español | Português | 中文

获取最新技术洞见

 

立即订阅

查看存档并阅读往期内容