Enable javascript in your browser for better experience. Need to know to enable it? Go here.
发布于 : Nov 20, 2019
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
Nov 2019
评估 ? 在了解它将对你的企业产生什么影响的前提下值得探索

BERT代表来自变换器的双向编码器表征量。它是Google在2018年十月份提出的一种新的预训练表示方法。BERT通过获得各种自然语言处理(NLP)任务的最高水平结果,极大地改变了自然语言处理(NLP)的格局。基于转换器架构,它在训练期间从令牌的左右预警中学习。Google还发布了经过预训练的通用BERT模型,该模型已针对包括Wikipedia在内的大量未标记文本进行了训练。开发人员可以在其特定于任务的数据上,使用和微调这些经过预训练的模型,并获得出色的结果。我们已经在2019年四月份的技术雷达上讨论过NLP的迁移学习;BERT以及它的后继者会继续使NLP的迁移学习成为一个令人兴奋的领域,NLP的迁移学习可以大大减少处理文本分类的用户工作量。

Radar

下载第26期技术雷达

English | Español | Português | 中文

Radar

获取最新技术洞见

 

立即订阅

查看存档并阅读往期内容