Levanta un agente de IA de nueva generación en tu propia computadora con Docker Desktop

Héctorbliss
@hectorblissLevanta un agente de IA de nueva generación en tu propia computadora con Docker Desktop
Los agentes de IA ya no son solo cosa de la nube. Con las nuevas features beta de Docker Desktop, puedes correr un agente completo — con su modelo, sus tools y su entorno — directamente en tu máquina. Sin suscripciones, sin enviar tu código a un tercero, sin latencia de red.
Te voy a enseñar a hacerlo en tres pasos. Al final vas a tener un agente corriendo en tu compu que puede modificar su propio entorno, ayudarte con la configuración de tu sistema, o — si quieres — entrenarlo para producción en su propio servidor en la nube.
"El juego no es otro más que el de quién se da cuenta antes que otros. Y esto, hasta el nivel más alto..." —bliss
El Problema
Correr agentes sin depender de APIs externas cuesta trabajo
Hasta hace poco, levantar un agente de IA local implicaba pelear con CUDA, instalar manualmente runtimes de inferencia, configurar servidores de modelos, orquestar tools y tener la paciencia de un monje zen. Cada pieza viene de un ecosistema distinto y nada habla el mismo protocolo.
Los dolores concretos son:
- Fricción de setup — Entre llama.cpp, ollama, vLLM, MCP servers y wrappers de tools, la configuración inicial puede tomar un fin de semana entero.
- Falta de portabilidad — Lo que funciona en tu Mac no corre en la Linux box del compañero, y mucho menos en producción.
- Sin aislamiento — Dejar al agente tocar tu filesystem directamente es el camino rápido a
rm -rf ~/proyectos-importantes. - Costos de APIs — Si estás iterando en el prompt o en las tools, cada run a Claude/GPT suma. Un modelo local te sale gratis.
Lo que faltaba era una capa que juntara todo esto con el estándar que ya conocemos: un archivo de configuración declarativo y un comando para correrlo.
La Solución
Docker Desktop ahora corre agentes como corre contenedores
Docker lanzó en beta un runtime de agentes que se siente exactamente como Docker Compose, pero para IA. Declaras tu agente en YAML, eliges el modelo, defines las tools, y docker agent run hace el resto. Vamos paso por paso.
Paso uno: Instalar Docker Desktop y activar las features beta
Primero, descarga Docker Desktop para tu sistema operativo desde el sitio oficial:
Una vez instalado, abre la app y ve a Settings → Features in development (o Beta features). Activa dos cosas:
- MCP Toolkit — El runtime de Model Context Protocol que permite que el agente hable con herramientas externas (filesystem, terminal, APIs).
- Docker Agents (beta) — El comando
docker agentque vamos a usar para correr el YAML.
Aplica los cambios, reinicia Docker Desktop, y verifica desde la terminal:
Si ves la ayuda del comando, estás listo. Si no, revisa que el toggle de beta features esté prendido y que Docker Desktop se haya reiniciado completamente.
Paso dos: Escribe el archivo de configuración del agente
Aquí está la parte interesante. Un agente en Docker se declara con un YAML tan simple como este:
Cosas a notar de esta configuración:
model.provider: docker— Le decimos a Docker que use su propio runtime de modelos. No hay llamadas a OpenAI ni a Anthropic; todo es local.ai/gemma3:4b— Es una imagen de modelo que Docker descarga y cachea como cualquier otra imagen. Puedes cambiarla porai/llama3.2,ai/qwen2.5u otras disponibles en Docker Hub.toolsvia MCP — Cada tool es un servidor MCP. No hay que escribir código de integración: el toolkit de Docker orquesta el handshake.config.root: ./workspace— El filesystem tool solo puede tocar esa carpeta. El resto de tu disco es invisible para el agente.shell.allow— Lista blanca de comandos. El agente puede corrergit statuspero norm -rf.limits— Cotas para que un bucle infinito no se coma tu RAM ni tu tarde.
¿Simple? ¿Fácil? Si ya escribiste un docker-compose.yml alguna vez, esto se siente como casa.
Paso tres: Descarga el modelo y corre el agente
Primero descarga la imagen del modelo (solo la primera vez):
Y después corre el agente apuntando al YAML:
Docker levanta el runtime del modelo, conecta los servidores MCP, y te abre una sesión interactiva con el agente. Desde aquí puedes pedirle tareas, ver qué tools invoca, y revisar los logs en tiempo real.
El Resultado
Un agente que vive en tu máquina y hace lo que tú decides
Con estos tres pasos tienes:
- Un agente 100% local — El modelo corre en tu CPU/GPU, los tools se ejecutan en tu compu, y nada sale a internet a menos que tú lo autorices.
- Configuración declarativa y portable — El mismo YAML corre en tu Mac, en la workstation Linux del equipo, o en un servidor en la nube. Cero drift entre entornos.
- Aislamiento por default — Filesystem restringido, comandos en lista blanca, límites de turnos y de tiempo. El agente puede actuar sin riesgo de tumbar tu sistema.
- Costo cero por inferencia — Iteras el prompt y las tools todas las veces que quieras sin ver subir una factura.
"Un agente local no es un juguete: es la forma más barata de aprender cómo piensan los agentes, porque puedes romperlo y rearmarlo sin consecuencias."
Bonus: ahora que el agente corre, puedes pedirle que te ayude con la config de tu propia compu (revisar dotfiles, depurar un Dockerfile, limpiar ramas locales), o empacar el YAML en una imagen para desplegarlo en su propio servidor en la nube. El siguiente paso natural es llevarlo a producción.
Conclusión
La infraestructura de los agentes se acaba de volver boring — en el mejor sentido
Durante el último año, correr un agente era un acto artesanal. Ahora Docker lo convirtió en lo mismo que levantar una base de datos: un archivo de configuración, un comando, y a trabajar. Esa es la señal de que la tecnología está madurando: cuando deja de ser impresionante y empieza a ser aburrida.
Si trabajas con IA, vale la pena que dediques una tarde a montar tu primer agente local. No por la novedad, sino porque te da intuición real sobre cómo se comportan estos sistemas cuando tú controlas cada pieza.
¿Quieres que escriba la segunda parte — llevar este agente a la nube en su propio servidor? Mándame un correo a fixtergeek@gmail.com y si hay interés suficiente lo publico. Mientras tanto, en el canal de YouTube de Fixtergeek estoy documentando este tipo de flujos paso a paso.
Abrazo. bliss.

De entregar archivos a entregar productos: lo que MCP cambia para un diseñador
Checa este otro Post
