OpenClaw + Deepsseek y Ollama
OpenClaw + Ollama
100 % Local, Privado y Gratis
La combinación definitiva para máxima privacidad y potencia sin suscripciones. En esta guía configuramos el "cerebro" local más eficiente para tareas técnicas en 2026: DeepSeek-Coder-V2 16B.
Requisitos del sistema
Para que el agente responda al instante y no cometa errores en la terminal, recomendamos el siguiente hardware mínimo:
RTX 3060 12G, 4070 Ti, 4080+
Mínimo recomendado
Espacio libre mínimo
Win 11 WSL2 · macOS M2/M3
Instalación del "Cerebro"
-
1
Descarga e instala Ollama desde ollama.com. El instalador detecta tu GPU automáticamente.
-
2
Abre tu terminal y descarga el modelo DeepSeek-Coder-V2 16B. Destaca por su precisión quirúrgica siguiendo instrucciones técnicas:
ollama pull deepseek-coder-v2:16b-lite-instruct -
3
Verifica que el modelo carga correctamente antes de continuar:
ollama run deepseek-coder-v2:16b-lite-instruct "Hola, ¿puedes ejecutar scripts?"
Instalación del agente
Usaremos el método directo vía pnpm para tener la versión más actualizada del agente:
# Clonar el repositorio oficial git clone https://github.com/openclaw/openclaw.git cd openclaw # Instalar dependencias y compilar la UI pnpm install pnpm ui:build
Enlazar OpenClaw con Ollama
Edita el archivo config/openclaw.json con los siguientes parámetros optimizados:
{ "models": { "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434", "apiKey": "ollama-local", "models": [ { "id": "deepseek-coder-v2:16b-lite-instruct", "name": "DeepSeek Coder V2 (Local)", "contextWindow": 128000, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "ollama/deepseek-coder-v2:16b-lite-instruct" } } } }
Levantar el servicio
-
1
Inicia el agente:
pnpm start -
2
Opcional (recomendado): Vincula tu bot de Telegram ejecutando el asistente rápido de onboarding y siguiendo las instrucciones para pegar tu token de
@BotFather:pnpm clawbot onboard --flow quickstart
¿Por qué DeepSeek-Coder-V2?
Con 16B parámetros, funciona a gran velocidad en GPUs de consumo medio sin sacrificar calidad.
Extremadamente preciso al decidir cuándo invocar una herramienta: leer archivos, ejecutar Python, buscar en la web.
Ventana de 128K tokens. Ideal para analizar logs largos o bases de código completas.
Sensible al formato Markdown. Títulos con ### ayudan al modelo a no saltarse ninguna regla.
Tip Pro: Si el agente resulta "demasiado creativo", ajusta
temperature a 0.0 en la configuración de OpenClaw.
Obtendrás respuestas puramente técnicas y predecibles. Para DeepSeek-Coder-V2
el rango óptimo es 0.0 – 0.2.
Plantilla de System Prompt
Copia este bloque en la sección systemPrompt de tu configuración
(config/agents/default.json o en el Dashboard de OpenClaw).
Está diseñado para minimizar alucinaciones y forzar al modelo a actuar como
un Operador de Sistemas de alta precisión.
Eres un Agente Autónomo de Élite especializado en administración de sistemas y desarrollo de software, ejecutándose sobre el framework OpenClaw. Tu motor es DeepSeek-Coder-V2 (16B), optimizado para la ejecución técnica. ### TUS REGLAS DE ORO: 1. PRECISIÓN TÉCNICA: No adivines rutas de archivos ni comandos. Si no conoces un dato, usa la herramienta `ls`, `pwd` o `cat` para verificar el entorno antes de actuar. 2. FLUJO DE TRABAJO: - Analiza la petición del usuario. - Divide la tarea en pasos lógicos. - Ejecuta herramientas de una en una y verifica el resultado (stdout/stderr) antes de proceder al siguiente paso. 3. SEGURIDAD: Antes de ejecutar comandos destructivos (`rm`, `format`, `kill`), solicita confirmación explícita a menos que estés en un entorno de sandbox verificado. 4. BREVEDAD: Tus respuestas deben ser concisas. Prioriza el código y los logs sobre las explicaciones largas. ### CAPACIDADES DE TOOL-CALLING: - Tienes acceso total a la terminal, sistema de archivos y red a través de las herramientas de OpenClaw. - Cuando el usuario pida una automatización, escribe scripts en Python o Bash robustos, con manejo de errores incluido. - Si detectas un error en la ejecución de una herramienta, corrígelo inmediatamente basándote en el mensaje de error recibido. ### TONO: Actúa como un Ingeniero Senior de DevOps: profesional, seco, eficiente y orientado a la resolución de problemas.
¿Cómo aplicar este prompt?
-
A
Dashboard de OpenClaw: Busca la configuración del agente "Primary" y pega el texto en el cuadro de Instructions.
-
B
JSON de configuración: Asegúrate de que el prompt esté en una sola línea usando
\npara los saltos de línea, para mantener el JSON válido. -
C
Temperatura: Confirma que el parámetro
temperatureesté entre0.0y0.2. Esto evita que el modelo invente comandos inexistentes.
📌 Nota: DeepSeek-Coder-V2 es especialmente sensible a las instrucciones
en formato Markdown. Usar títulos con ### ayuda al modelo a respetar cada
regla sin omitir ninguna. No subestimes este detalle.
Comentarios
Publicar un comentario