OpenClaw + Deepsseek y Ollama

Guía 2026: OpenClaw + Ollama — 100% Local, Privado y Gratis
Guía técnica · 2026

OpenClaw + Ollama
100 % Local, Privado y Gratis

La combinación definitiva para máxima privacidad y potencia sin suscripciones. En esta guía configuramos el "cerebro" local más eficiente para tareas técnicas en 2026: DeepSeek-Coder-V2 16B.

📅 Febrero 2026 ⏱ ~15 min de setup 💻 Linux · WSL2 · macOS
01  ·  Hardware

Requisitos del sistema

Para que el agente responda al instante y no cometa errores en la terminal, recomendamos el siguiente hardware mínimo:

🖥️
GPU (VRAM)
12 – 16 GB

RTX 3060 12G, 4070 Ti, 4080+

🧠
RAM del sistema
32 GB

Mínimo recomendado

💾
Almacenamiento
40 GB SSD

Espacio libre mínimo

🐧
Sistema operativo
Linux / WSL2

Win 11 WSL2 · macOS M2/M3

02  ·  Ollama

Instalación del "Cerebro"

  • 1

    Descarga e instala Ollama desde ollama.com. El instalador detecta tu GPU automáticamente.

  • 2

    Abre tu terminal y descarga el modelo DeepSeek-Coder-V2 16B. Destaca por su precisión quirúrgica siguiendo instrucciones técnicas:

    bash
    ollama pull deepseek-coder-v2:16b-lite-instruct
  • 3

    Verifica que el modelo carga correctamente antes de continuar:

    bash
    ollama run deepseek-coder-v2:16b-lite-instruct "Hola, ¿puedes ejecutar scripts?"
03  ·  OpenClaw

Instalación del agente

Usaremos el método directo vía pnpm para tener la versión más actualizada del agente:

bash — clonar y preparar
# Clonar el repositorio oficial

git clone https://github.com/openclaw/openclaw.git

cd openclaw

# Instalar dependencias y compilar la UI

pnpm install

pnpm ui:build
04  ·  Configuración

Enlazar OpenClaw con Ollama

Edita el archivo config/openclaw.json con los siguientes parámetros optimizados:

config/openclaw.json
{

  "models": {

    "providers": {

      "ollama": {

        "baseUrl": "http://127.0.0.1:11434",

        "apiKey":  "ollama-local",

        "models": [

          {

            "id":            "deepseek-coder-v2:16b-lite-instruct",

            "name":          "DeepSeek Coder V2 (Local)",

            "contextWindow": 128000,

            "maxTokens":     4096

          }

        ]

      }

    }

  },

  "agents": {

    "defaults": {

      "model": {

        "primary": "ollama/deepseek-coder-v2:16b-lite-instruct"

      }

    }

  }

}
05  ·  Activación

Levantar el servicio

  • 1

    Inicia el agente:

    bash
    pnpm start
  • 2

    Opcional (recomendado): Vincula tu bot de Telegram ejecutando el asistente rápido de onboarding y siguiendo las instrucciones para pegar tu token de @BotFather:

    bash
    pnpm clawbot onboard --flow quickstart
06  ·  Modelo

¿Por qué DeepSeek-Coder-V2?

⚡ Eficiencia

Con 16B parámetros, funciona a gran velocidad en GPUs de consumo medio sin sacrificar calidad.

🔧 Tool-Calling

Extremadamente preciso al decidir cuándo invocar una herramienta: leer archivos, ejecutar Python, buscar en la web.

📋 Contexto amplio

Ventana de 128K tokens. Ideal para analizar logs largos o bases de código completas.

🎯 Instrucciones

Sensible al formato Markdown. Títulos con ### ayudan al modelo a no saltarse ninguna regla.

💡

Tip Pro: Si el agente resulta "demasiado creativo", ajusta temperature a 0.0 en la configuración de OpenClaw. Obtendrás respuestas puramente técnicas y predecibles. Para DeepSeek-Coder-V2 el rango óptimo es 0.0 – 0.2.

07  ·  System Prompt

Plantilla de System Prompt

Copia este bloque en la sección systemPrompt de tu configuración (config/agents/default.json o en el Dashboard de OpenClaw). Está diseñado para minimizar alucinaciones y forzar al modelo a actuar como un Operador de Sistemas de alta precisión.

System Prompt — Copia y Pega
Eres un Agente Autónomo de Élite especializado en administración de sistemas

y desarrollo de software, ejecutándose sobre el framework OpenClaw.

Tu motor es DeepSeek-Coder-V2 (16B), optimizado para la ejecución técnica.

### TUS REGLAS DE ORO:

1. PRECISIÓN TÉCNICA: No adivines rutas de archivos ni comandos. Si no

   conoces un dato, usa la herramienta `ls`, `pwd` o `cat` para verificar

   el entorno antes de actuar.

2. FLUJO DE TRABAJO:

   - Analiza la petición del usuario.

   - Divide la tarea en pasos lógicos.

   - Ejecuta herramientas de una en una y verifica el resultado (stdout/stderr)

     antes de proceder al siguiente paso.

3. SEGURIDAD: Antes de ejecutar comandos destructivos (`rm`, `format`,

   `kill`), solicita confirmación explícita a menos que estés en un entorno

   de sandbox verificado.

4. BREVEDAD: Tus respuestas deben ser concisas. Prioriza el código y

   los logs sobre las explicaciones largas.

### CAPACIDADES DE TOOL-CALLING:

- Tienes acceso total a la terminal, sistema de archivos y red a través

  de las herramientas de OpenClaw.

- Cuando el usuario pida una automatización, escribe scripts en Python o Bash

  robustos, con manejo de errores incluido.

- Si detectas un error en la ejecución de una herramienta, corrígelo

  inmediatamente basándote en el mensaje de error recibido.

### TONO:

Actúa como un Ingeniero Senior de DevOps: profesional, seco, eficiente

y orientado a la resolución de problemas.

¿Cómo aplicar este prompt?

  • A

    Dashboard de OpenClaw: Busca la configuración del agente "Primary" y pega el texto en el cuadro de Instructions.

  • B

    JSON de configuración: Asegúrate de que el prompt esté en una sola línea usando \n para los saltos de línea, para mantener el JSON válido.

  • C

    Temperatura: Confirma que el parámetro temperature esté entre 0.0 y 0.2. Esto evita que el modelo invente comandos inexistentes.

📌 Nota: DeepSeek-Coder-V2 es especialmente sensible a las instrucciones en formato Markdown. Usar títulos con ### ayuda al modelo a respetar cada regla sin omitir ninguna. No subestimes este detalle.

OpenClaw + Ollama · 2026

Comentarios

Entradas populares