Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Apr 02, 2025
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Apr 2025
Assess ?

La interpretabilidad mecánica, el entendimiento del funcionamiento interno de los grandes modelos de lenguaje, se está convirtiendo en un campo cada vez más importante. Herramientas como Gemma Scope y librerías open-source Mishax proporcionan perspectivas sobre la familia Gemma2 de modelos abiertos. Las herramientas de interpretabilidad desempeñan un papel crucial a la hora de depurar comportamientos inesperados, identificando los componentes responsables de alucinaciones, sesgos u otros casos que causan fallos y, en última instancia, generan confianza ofreciendo una visibilidad más detallada de los modelos. Aunque este campo puede ser de especial interés para los investigadores, cabe señalar que con la reciente publicación de DeepSeek-R1, el entrenamiento de modelos es cada vez más factible para las empresas más allá de los actores establecidos. A medida que la GenAI siga evolucionando, tanto la interpretabilidad como la seguridad irán ganando importancia.

Download the PDF

 

 

 

English |  Português 

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes