Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Sep 27, 2023
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Sep 2023
Assess ?

Hay muchos modelos de lenguajes grandes (LLM) emergentes en el mundo de habla inglesa. Aunque estos modelos suelen estar previamente entrenados en varios idiomas, es posible que su rendimiento en otros idiomas no sea tan bueno como en el inglés. ChatGLM, desarrollado por la Universidad Tsinghua, es un modelo de lenguaje bilingüe abierto optimizado para la conversación en chino basado en la arquitectura del Modelo de lenguaje general. Dado que el chino puede ser más complejo que el inglés con su diferente segmentación de palabras y gramática, es importante tener un LLM optimizado para el chino. Nuestro equipo descubrió que ChatGLM superó a otros LLM en precisión y robustez, cuando creamos una aplicación china de detección de emociones para un centro de llamadas. Teniendo en cuenta que muchos LLM no están disponibles en China debido a licencias o restricciones regionales, ChatGLM se convirtió en una de las pocas opciones de código abierto.

Download the PDF

 

 

 

English | Português

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes