Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Apr 03, 2024
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Apr 2024
Assess ?

Seguimos siendo precavidos respecto a apresurarnos a afinar grandes modelos linguisticos (LLMs) a menos que sea absolutamente crítico — ya que conlleva una sobrecarga significativa en terminos de coste y experiencia. Sin embargo, creemos que LLaMA-Factory puede ser útil cuando se requiera un ajuste preciso. Se trata de un marco de entrenamiento y ajuste fácil de usar, de código abierto, para los LLM. Con soporte para LLaMA, BLOOM, Mistral, Baichuan, Qwen y ChatGLM, hace que un concepto tan complejo como el ajuste preciso sea relativamente accesible. Nuestros equipos utilizaron con éxito LLaMA-Factory's LoRA tuning para un modelo de LLaMA 7B, así que si necesitas hacer ajustes a tus modelos, vale la pena evaluar este marco.

Download the PDF

 

 

 

English | Português

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes