Master
Técnicas

Transferência de aprendizado para PLN

NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions it is likely that it is still relevant. If the blip is older it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the RadarUnderstand more
Published: Apr 24, 2019
Last Updated: May 19, 2020
May 2020
Experimente?

Nós havíamos incluído essa técnica em Avalie anteriormente. As inovações no cenário do PLN continuam em um ótimo ritmo, e conseguimos aproveitar essas inovações em nossos projetos graças à onipresente transferência de aprendizado para PLN. As pontuações do benchmark GLUE (um conjunto de tarefas de compreensão de linguagem) tiveram um progresso dramático nos últimos dois anos, com pontuações médias passando de 70,0 no lançamento para líderes ultrapassando 90,0 em abril de 2020. Muitos de nossos projetos no domínio PLN são capazes de atingir progressos significativos, iniciando a partir de modelos pré-treinados do ELMo, BERT e ERNIE, entre outros, e depois ajustando-os com base nas necessidades do projeto.

Apr 2019
Avalie?

A transferência de aprendizado tem sido eficaz dentro do campo da visão computacional, acelerando o tempo de treinamento de um modelo com a reutilização de módulos. Quem trabalha com aprendizado de máquina está otimista com o fato de poder aplicar as mesmas técnicas no processamento de linguagem natural (NLP) com a publicação do ULMFiT e modelos pré-treinados de código aberto e exemplos de código. Achamos que a transferência de aprendizado para NLP vai reduzir significativamente o esforço para criar sistemas que lidam com a classificação de texto.