
Mira el video:
En este video te muestro cómo con Ollama puedes crear todos los componentes inteligentes que necesites consumiento un LLM local de excelente calibre como Mistral. Aquí te muestro cómo lo consumo en localhost y en producción. ¡Ya miralo! 🤓

¿Debería vibe-codear?
Checa este otro Post
