
Mira el video si prefieres:
En este video te muestro cómo con Ollama puedes crear todos los componentes inteligentes que necesites consumiento un LLM local de excelente calibre como Mistral. Aquí te muestro cómo lo consumo en localhost y en producción. ¡Ya miralo! 🤓
