RAPTOR LOCAL: Pentesting con IA sin internet ni costos — Cybernetia Blog

RAPTOR LOCAL: Pentesting con IA
sin internet, sin API key, sin costos

REASONING & AUTOMATED PENTESTING TOOL — LOCAL EDITION
✓ 100% LOCAL SIN INTERNET COSTO $0
$0
PARA SIEMPRE
10+
MODELOS IA
100%
OFFLINE
🦅
RAPTOR LOCAL — Ollama Edition
HTML · Un solo archivo ~48 KB Sin instalación ✓ 100% Offline
Requiere Ollama corriendo en tu máquina. Ver instrucciones abajo.

Si ya conoces RAPTOR con Claude o RAPTOR STUDENT con DeepSeek, esta es la versión que muchos estaban esperando: cero costos, cero dependencia de internet, cero API keys.

RAPTOR LOCAL usa Ollama, una herramienta que descarga y ejecuta modelos de IA directamente en tu computadora. Una vez instalado y con el modelo descargado, funciona completamente desconectado. Tus consultas nunca salen de tu máquina — lo que es ideal si trabajas con información sensible o simplemente no quieres depender de servicios externos.

Antes de empezar — lee esto
  • Solo para uso educativo, CTFs, laboratorios personales o entornos con autorización explícita.
  • El uso de herramientas de pentesting en sistemas reales sin permiso es ilegal.
  • Necesitas al menos 8 GB de RAM para los modelos recomendados. Con 16 GB o más tendrás mejor rendimiento.
  • La descarga del modelo se hace una sola vez (2–6 GB según el modelo). Después funciona sin internet.

INTRO ¿Cuándo usar cada versión de RAPTOR?

Antes de instalar, elige la versión que mejor se adapta a tu situación:

VERSIÓN MOTOR COSTO REQUIERE INTERNET CALIDAD
RAPTOR (original) Claude Code Suscripción ⭐⭐⭐⭐⭐
RAPTOR STUDENT DeepSeek API Pay-as-you-go ⭐⭐⭐⭐
RAPTOR LOCAL Ollama $0 siempre No ⭐⭐⭐ (según modelo)
📌
Nota sobre rendimiento — depende de tu hardware
  • Modelos 7B (qwen2.5-coder:7b, llama3.1:8b) → van bien en laptops normales con 8 GB RAM. Son el punto de entrada recomendado.
  • Modelos 13B → requieren 16 GB RAM para respuestas fluidas.
  • Modelos 32B+ → necesitan GPU con ≥12–16 GB de VRAM para ser prácticos. En CPU puro serán muy lentos.
  • Con GPU NVIDIA o AMD, Ollama la usa automáticamente y las respuestas son 5–10x más rápidas.
💡
Regla rápida: Si tienes buen internet y poco dinero → RAPTOR STUDENT. Si no quieres gastar nada o trabajas con datos sensibles → RAPTOR LOCAL. Si necesitas la máxima potencia → RAPTOR original con Claude.

PASO 1 Requisitos previos

  • 💻
    Computadora con al menos 8 GB de RAM — Indispensable para correr modelos de IA locales. Con 16 GB o más tendrás una experiencia mucho más fluida.
  • 💾
    5–10 GB de espacio libre en disco — Para instalar Ollama y descargar al menos un modelo. Los modelos pesan entre 2 y 6 GB cada uno.
  • 🌐
    Internet solo para la instalación inicial — Necesitas internet una sola vez para descargar Ollama y el modelo. Después funciona completamente offline.
  • 🌐
    Un navegador moderno — Chrome, Firefox, Edge o Brave. Cualquier versión reciente.
  • 📄
    El archivo RAPTOR LOCAL (.html) — Descárgalo con el botón verde de arriba. Un solo archivo, sin instalar nada adicional para él.
🎮
¿Tienes GPU NVIDIA o AMD? Ollama la detecta automáticamente y la usa para acelerar los modelos. Con GPU, las respuestas son 5–10 veces más rápidas que solo con CPU.

PASO 2 Instalar Ollama

📌
Requisitos mínimos de hardware
  • Mínimo: 8 GB RAM — para modelos 3B–7B cuantizados (qwen2.5-coder:7b, llama3.2:3b)
  • Recomendado: 16 GB RAM + GPU con ≥8 GB VRAM — para modelos 7B–13B con respuestas fluidas
  • GPU NVIDIA o AMD: Ollama la detecta automáticamente. Las respuestas son 5–10x más rápidas que solo con CPU.
  • Sin GPU, los modelos funcionan igual pero más lentos. Para CTFs y consultas ocasionales, 8 GB RAM es suficiente.

Ollama es el motor que descarga y ejecuta los modelos de IA en tu máquina. La instalación es muy sencilla — igual que instalar cualquier programa.

1
Descargar el instalador

Ve a ollama.com/download y descarga el instalador para tu sistema operativo. La página detecta automáticamente tu SO y ofrece la descarga correcta:

Descarga OllamaSetup.exe desde ollama.com. Haz doble clic para instalar — es un instalador estándar de Windows, siguiente, siguiente, finalizar.

ℹ️
Windows puede mostrar una advertencia de SmartScreen. Haz clic en "Más información" → "Ejecutar de todas formas". Es seguro.

Descarga Ollama-darwin.zip, descomprímelo y arrastra Ollama.app a tu carpeta Aplicaciones. También puedes instalarlo con Homebrew:

terminal — macos
brew install ollama

Un solo comando instala todo:

terminal — linux
curl -fsSL https://ollama.com/install.sh | sh

Compatible con Ubuntu, Debian, Fedora, Arch y la mayoría de distribuciones modernas.

2
Verificar que Ollama está instalado

Abre una terminal (o CMD en Windows) y escribe:

terminal
ollama --version

Deberías ver algo como ollama version 0.x.x. Si aparece ese texto, la instalación fue exitosa.

⚠️
Si el sistema dice "ollama no se reconoce como comando", cierra y vuelve a abrir la terminal. Si persiste, reinicia la computadora.

PASO 3 Descargar un modelo de IA

Ollama maneja docenas de modelos. Para RAPTOR LOCAL estos son los más recomendados según tu equipo:

MODELO RAM NECESARIA TAMAÑO MEJOR PARA
llama3.2:3b 2 GB 2 GB Equipos con poca RAM, respuestas rápidas
qwen2.5:7b 4 GB 4.7 GB Código y análisis técnico, muy recomendado
llama3.1:8b 5 GB 4.7 GB Uso general, conversaciones largas
mistral:7b 5 GB 4.1 GB Código, análisis de seguridad
codellama:7b 4 GB 3.8 GB Especializado en código y exploits
llama3.1:70b 40 GB 40 GB Nivel GPT-4, requiere equipo potente
🎯
Recomendación para estudiantes: Empieza con qwen2.5:7b si tienes 8 GB de RAM, o llama3.2:3b si tienes 4–6 GB. Ambos tienen excelente rendimiento para ciberseguridad.
1
Descargar el modelo elegido

En tu terminal, ejecuta ollama pull seguido del nombre del modelo. Por ejemplo con llama3.1:8b:

terminal
ollama pull llama3.1:8b

# Verás una barra de progreso:
pulling manifest...
pulling 8eeb52dfb3bb... 100% ████████████████ 4.7 GB
verifying sha256 digest
writing manifest
success

La descarga puede tardar varios minutos según tu velocidad de internet. Se hace una sola vez — después el modelo queda guardado en tu disco.

📋
Para ver todos los modelos que tienes descargados: ollama list
Para eliminar un modelo: ollama rm nombre:modelo

PASO 4 Iniciar el servidor de Ollama

RAPTOR LOCAL se comunica con Ollama a través de una API local en tu puerto 11434. Necesitas que el servidor esté corriendo antes de usar RAPTOR.

En Windows, Ollama se inicia automáticamente al arrancar el sistema y corre en segundo plano. Búscalo en la bandeja del sistema (esquina inferior derecha). Si no está corriendo, ábrelo desde el menú Inicio buscando "Ollama".

En macOS, Ollama.app corre en segundo plano al abrirlo. Verás el ícono del llama en la barra de menú. Si lo cerraste, ábrelo desde Aplicaciones.

terminal — alternativa manual
ollama serve  # deja esta terminal abierta

En Linux, inicia el servidor manualmente en una terminal y déjala abierta:

terminal — linux
ollama serve

# Verás algo así:
time=2026-03-01 msg="Listening on 127.0.0.1:11434"

O como servicio del sistema para que arranque automáticamente:

terminal — como servicio
sudo systemctl enable ollama
sudo systemctl start ollama
Verificar que Ollama está corriendo

Abre tu navegador y ve a esta dirección:

navegador
http://localhost:11434

Si ves el texto Ollama is running, el servidor está activo y listo. Si la página no carga, Ollama no está iniciado — revisa el paso anterior.

PASO 5 Abrir RAPTOR LOCAL en el navegador

Con Ollama corriendo, ya puedes abrir RAPTOR LOCAL. El archivo que descargaste arriba (RAPTOR-Local-Ollama.html) se abre directamente en el navegador — doble clic y listo.

🛡️
Advertencia de CORS — El navegador puede bloquear las llamadas de un archivo local a localhost:11434 por política de seguridad. Si RAPTOR no se conecta, prueba esta solución:
!
Solución CORS — si el navegador bloquea la conexión

Ollama necesita permitir peticiones desde archivos locales. Configura la variable de entorno OLLAMA_ORIGINS antes de iniciar el servidor:

powershell — ejecutar como administrador
# En PowerShell como administrador:
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'Machine')
# Luego reinicia Ollama desde el menú de inicio
terminal
OLLAMA_ORIGINS=* ollama serve

PASO 6 Conectar el modelo y usar RAPTOR

Al abrir el archivo verás la interfaz de RAPTOR LOCAL con una barra verde en la parte superior. Sigue estos pasos:

1
Seleccionar el modelo

En el menú desplegable de la barra verde, elige el modelo que descargaste en el Paso 3. El menú está organizado por categorías según la RAM necesaria. Si descargaste un modelo que no aparece en la lista, elige "✏️ Escribir modelo manualmente" y escribe su nombre exacto.

2
Hacer clic en CONECTAR

Haz clic en el botón verde CONECTAR. RAPTOR verificará automáticamente que Ollama está corriendo y que el modelo está disponible. Si todo está bien verás:

  • 🟢
    Indicador superior: OLLAMA ACTIVO
  • 🟢
    Segundo indicador con el nombre del modelo activo
  • 🔔
    Notificación verde: "Conectado: nombre-del-modelo"
⚠️
Si el modelo está en la lista pero no descargado, RAPTOR te dirá exactamente qué comando ejecutar: ollama pull nombre:modelo
3
Elegir modo y consultar

Selecciona uno de los 8 modos en el panel izquierdo y escribe tu consulta. Los mismos comandos autónomos de RAPTOR STUDENT funcionan aquí:

comandos autónomos
/scan    objetivo.com      # reconocimiento completo
/exploit SQLi              # genera PoC para laboratorio
/fuzz    /api/v1/users      # estrategia de fuzzing
/enum    192.168.1.1        # enumeración profunda
/report  web-pentest        # reporte profesional
/analyze [pega tu código]  # análisis de vulnerabilidades
⏱️
Las respuestas son más lentas que los servicios en la nube — especialmente los primeros mensajes mientras el modelo carga en RAM. Después se vuelve más fluido. Con GPU las respuestas son notablemente más rápidas.

EXTRA Problemas frecuentes y soluciones

!
❌ "Ollama no encontrado en localhost:11434"
  • 1️⃣
    Ollama no está corriendo — ábrelo desde el menú de inicio (Windows/macOS) o ejecuta ollama serve en una terminal.
  • 2️⃣
    Verifica en http://localhost:11434 que aparezca "Ollama is running".
  • 3️⃣
    Antivirus o firewall bloqueando el puerto 11434 — añade una excepción para Ollama.
!
❌ "Modelo no instalado" — Error 404

El modelo que seleccionaste no está descargado en tu máquina. RAPTOR te mostrará el comando exacto, pero en general:

terminal
ollama pull llama3.1:8b  # reemplaza con el modelo que quieras
ollama list             # lista tus modelos descargados
!
❌ Respuestas muy lentas o el sistema se congela
  • 💾
    El modelo es demasiado grande para tu RAM. Prueba con un modelo más pequeño: llama3.2:3b o phi3:mini.
  • 🔄
    Cierra otras aplicaciones para liberar RAM mientras usas RAPTOR LOCAL.
  • 🎮
    Si tienes GPU NVIDIA, verifica que Ollama la esté usando con ollama ps mientras hay una consulta activa.
!
❌ Error de CORS — el navegador bloquea la conexión

Este es el problema más común al usar archivos HTML locales. La solución está en el Paso 5 de arriba — configura OLLAMA_ORIGINS=* antes de iniciar el servidor.

Alternativa: usa la extensión Allow CORS en Chrome temporalmente.


📋
Resumen — Todo en 5 pasos
  1. Instalar Ollama desde ollama.com
  2. Ejecutar ollama pull llama3.1:8b (o el modelo que prefieras)
  3. Iniciar Ollama (ollama serve o desde el menú)
  4. Descargar y abrir RAPTOR-Local-Ollama.html con doble clic
  5. Seleccionar modelo → clic en CONECTAR → ¡listo!
RAPTOR LOCAL EDITION  ·  Powered by Ollama  ·  100% Offline · Sin costos
Solo para uso educativo y entornos autorizados  ·  Cybernetia Blog

Comentarios

Entradas populares