菜单
技术

BERT

NOT ON THE CURRENT EDITION
This blip is not on the current edition of the radar. If it was on one of the last few editions it is likely that it is still relevant. If the blip is older it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the radarUnderstand more
Nov 2019
评估?

BERT代表来自变换器的双向编码器表征量。它是Google在2018年十月份提出的一种新的预训练表示方法。BERT通过获得各种自然语言处理(NLP)任务的最高水平结果,极大地改变了自然语言处理(NLP)的格局。基于转换器架构,它在训练期间从令牌的左右预警中学习。Google还发布了经过预训练的通用BERT模型,该模型已针对包括Wikipedia在内的大量未标记文本进行了训练。开发人员可以在其特定于任务的数据上,使用和微调这些经过预训练的模型,并获得出色的结果。我们已经在2019年四月份的技术雷达上讨论过NLP的迁移学习;BERT以及它的后继者会继续使NLP的迁移学习成为一个令人兴奋的领域,NLP的迁移学习可以大大减少处理文本分类的用户工作量。