Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Published : Apr 03, 2024
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar. Understand more
Apr 2024
Assess ?

Ollama Es una herramienta de código abierto para ejecutar y gestionar modelos grandes de lenguaje (LLMs) en tu entorno local de desarrollo. Anteriormente, hemos hablado de los beneficios de LLMs auto-hospedados, y nos complace ver que el ecosistema ha madurado con herramientas como Ollama. Soporta distintos modelos populares — incluyendo LLaMA-2, CodeLLaMA, Falcon y Mistral — que puede descargarse y ejecutarse localmente. Una vez descargados, puedes usar la línea de comando, API o SDK para interactuar con el modelo y ejecutar tus tareas. Estamos evaluando Ollama y viendo los primeros éxitos a medida que mejora la experiencia de los desarrolladores al trabajar LLMs en entornos locales.

Download the PDF

 

 

 

English |  Português 

Sign up for the Technology Radar newsletter

 

 

Subscribe now

Visit our archive to read the previous volumes