RAPTOR LOCAL: Pentesting con IA
sin internet, sin API key, sin costos
Si ya conoces RAPTOR con Claude o RAPTOR STUDENT con DeepSeek, esta es la versión que muchos estaban esperando: cero costos, cero dependencia de internet, cero API keys.
RAPTOR LOCAL usa Ollama, una herramienta que descarga y ejecuta modelos de IA directamente en tu computadora. Una vez instalado y con el modelo descargado, funciona completamente desconectado. Tus consultas nunca salen de tu máquina — lo que es ideal si trabajas con información sensible o simplemente no quieres depender de servicios externos.
- Solo para uso educativo, CTFs, laboratorios personales o entornos con autorización explícita.
- El uso de herramientas de pentesting en sistemas reales sin permiso es ilegal.
- Necesitas al menos 8 GB de RAM para los modelos recomendados. Con 16 GB o más tendrás mejor rendimiento.
- La descarga del modelo se hace una sola vez (2–6 GB según el modelo). Después funciona sin internet.
INTRO ¿Cuándo usar cada versión de RAPTOR?
Antes de instalar, elige la versión que mejor se adapta a tu situación:
| VERSIÓN | MOTOR | COSTO | REQUIERE INTERNET | CALIDAD |
|---|---|---|---|---|
| RAPTOR (original) | Claude Code | Suscripción | Sí | ⭐⭐⭐⭐⭐ |
| RAPTOR STUDENT | DeepSeek API | Pay-as-you-go | Sí | ⭐⭐⭐⭐ |
| RAPTOR LOCAL | Ollama | $0 siempre | No | ⭐⭐⭐ (según modelo) |
- Modelos 7B (qwen2.5-coder:7b, llama3.1:8b) → van bien en laptops normales con 8 GB RAM. Son el punto de entrada recomendado.
- Modelos 13B → requieren 16 GB RAM para respuestas fluidas.
- Modelos 32B+ → necesitan GPU con ≥12–16 GB de VRAM para ser prácticos. En CPU puro serán muy lentos.
- Con GPU NVIDIA o AMD, Ollama la usa automáticamente y las respuestas son 5–10x más rápidas.
PASO 1 Requisitos previos
-
💻
Computadora con al menos 8 GB de RAM — Indispensable para correr modelos de IA locales. Con 16 GB o más tendrás una experiencia mucho más fluida.
-
💾
5–10 GB de espacio libre en disco — Para instalar Ollama y descargar al menos un modelo. Los modelos pesan entre 2 y 6 GB cada uno.
-
🌐
Internet solo para la instalación inicial — Necesitas internet una sola vez para descargar Ollama y el modelo. Después funciona completamente offline.
-
🌐
Un navegador moderno — Chrome, Firefox, Edge o Brave. Cualquier versión reciente.
-
📄
El archivo RAPTOR LOCAL (.html) — Descárgalo con el botón verde de arriba. Un solo archivo, sin instalar nada adicional para él.
PASO 2 Instalar Ollama
- Mínimo: 8 GB RAM — para modelos 3B–7B cuantizados (qwen2.5-coder:7b, llama3.2:3b)
- Recomendado: 16 GB RAM + GPU con ≥8 GB VRAM — para modelos 7B–13B con respuestas fluidas
- GPU NVIDIA o AMD: Ollama la detecta automáticamente. Las respuestas son 5–10x más rápidas que solo con CPU.
- Sin GPU, los modelos funcionan igual pero más lentos. Para CTFs y consultas ocasionales, 8 GB RAM es suficiente.
Ollama es el motor que descarga y ejecuta los modelos de IA en tu máquina. La instalación es muy sencilla — igual que instalar cualquier programa.
Ve a ollama.com/download y descarga el instalador para tu sistema operativo. La página detecta automáticamente tu SO y ofrece la descarga correcta:
Descarga OllamaSetup.exe desde ollama.com. Haz doble clic para instalar — es un instalador estándar de Windows, siguiente, siguiente, finalizar.
Descarga Ollama-darwin.zip, descomprímelo y arrastra Ollama.app a tu carpeta Aplicaciones. También puedes instalarlo con Homebrew:
brew install ollama
Un solo comando instala todo:
curl -fsSL https://ollama.com/install.sh | sh
Compatible con Ubuntu, Debian, Fedora, Arch y la mayoría de distribuciones modernas.
Abre una terminal (o CMD en Windows) y escribe:
ollama --version
Deberías ver algo como ollama version 0.x.x. Si aparece ese texto, la instalación fue exitosa.
PASO 3 Descargar un modelo de IA
Ollama maneja docenas de modelos. Para RAPTOR LOCAL estos son los más recomendados según tu equipo:
| MODELO | RAM NECESARIA | TAMAÑO | MEJOR PARA |
|---|---|---|---|
| llama3.2:3b | 2 GB | 2 GB | Equipos con poca RAM, respuestas rápidas |
| qwen2.5:7b | 4 GB | 4.7 GB | Código y análisis técnico, muy recomendado |
| llama3.1:8b | 5 GB | 4.7 GB | Uso general, conversaciones largas |
| mistral:7b | 5 GB | 4.1 GB | Código, análisis de seguridad |
| codellama:7b | 4 GB | 3.8 GB | Especializado en código y exploits |
| llama3.1:70b | 40 GB | 40 GB | Nivel GPT-4, requiere equipo potente |
qwen2.5:7b si tienes 8 GB de RAM, o llama3.2:3b si tienes 4–6 GB. Ambos tienen excelente rendimiento para ciberseguridad.En tu terminal, ejecuta ollama pull seguido del nombre del modelo. Por ejemplo con llama3.1:8b:
ollama pull llama3.1:8b # Verás una barra de progreso: pulling manifest... pulling 8eeb52dfb3bb... 100% ████████████████ 4.7 GB verifying sha256 digest writing manifest success
La descarga puede tardar varios minutos según tu velocidad de internet. Se hace una sola vez — después el modelo queda guardado en tu disco.
ollama listPara eliminar un modelo:
ollama rm nombre:modeloPASO 4 Iniciar el servidor de Ollama
RAPTOR LOCAL se comunica con Ollama a través de una API local en tu puerto 11434. Necesitas que el servidor esté corriendo antes de usar RAPTOR.
En Windows, Ollama se inicia automáticamente al arrancar el sistema y corre en segundo plano. Búscalo en la bandeja del sistema (esquina inferior derecha). Si no está corriendo, ábrelo desde el menú Inicio buscando "Ollama".
En macOS, Ollama.app corre en segundo plano al abrirlo. Verás el ícono del llama en la barra de menú. Si lo cerraste, ábrelo desde Aplicaciones.
ollama serve # deja esta terminal abierta
En Linux, inicia el servidor manualmente en una terminal y déjala abierta:
ollama serve # Verás algo así: time=2026-03-01 msg="Listening on 127.0.0.1:11434"
O como servicio del sistema para que arranque automáticamente:
sudo systemctl enable ollama sudo systemctl start ollama
Abre tu navegador y ve a esta dirección:
http://localhost:11434
Si ves el texto Ollama is running, el servidor está activo y listo. Si la página no carga, Ollama no está iniciado — revisa el paso anterior.
PASO 5 Abrir RAPTOR LOCAL en el navegador
Con Ollama corriendo, ya puedes abrir RAPTOR LOCAL. El archivo que descargaste arriba (RAPTOR-Local-Ollama.html) se abre directamente en el navegador — doble clic y listo.
localhost:11434 por política de seguridad. Si RAPTOR no se conecta, prueba esta solución:Ollama necesita permitir peticiones desde archivos locales. Configura la variable de entorno OLLAMA_ORIGINS antes de iniciar el servidor:
# En PowerShell como administrador: [System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'Machine') # Luego reinicia Ollama desde el menú de inicio
OLLAMA_ORIGINS=* ollama serve
PASO 6 Conectar el modelo y usar RAPTOR
Al abrir el archivo verás la interfaz de RAPTOR LOCAL con una barra verde en la parte superior. Sigue estos pasos:
En el menú desplegable de la barra verde, elige el modelo que descargaste en el Paso 3. El menú está organizado por categorías según la RAM necesaria. Si descargaste un modelo que no aparece en la lista, elige "✏️ Escribir modelo manualmente" y escribe su nombre exacto.
Haz clic en el botón verde CONECTAR. RAPTOR verificará automáticamente que Ollama está corriendo y que el modelo está disponible. Si todo está bien verás:
- 🟢Indicador superior: OLLAMA ACTIVO
- 🟢Segundo indicador con el nombre del modelo activo
- 🔔Notificación verde: "Conectado: nombre-del-modelo"
ollama pull nombre:modeloSelecciona uno de los 8 modos en el panel izquierdo y escribe tu consulta. Los mismos comandos autónomos de RAPTOR STUDENT funcionan aquí:
/scan objetivo.com # reconocimiento completo /exploit SQLi # genera PoC para laboratorio /fuzz /api/v1/users # estrategia de fuzzing /enum 192.168.1.1 # enumeración profunda /report web-pentest # reporte profesional /analyze [pega tu código] # análisis de vulnerabilidades
EXTRA Problemas frecuentes y soluciones
- 1️⃣Ollama no está corriendo — ábrelo desde el menú de inicio (Windows/macOS) o ejecuta
ollama serveen una terminal. - 2️⃣Verifica en
http://localhost:11434que aparezca "Ollama is running". - 3️⃣Antivirus o firewall bloqueando el puerto 11434 — añade una excepción para Ollama.
El modelo que seleccionaste no está descargado en tu máquina. RAPTOR te mostrará el comando exacto, pero en general:
ollama pull llama3.1:8b # reemplaza con el modelo que quieras ollama list # lista tus modelos descargados
- 💾El modelo es demasiado grande para tu RAM. Prueba con un modelo más pequeño:
llama3.2:3bophi3:mini. - 🔄Cierra otras aplicaciones para liberar RAM mientras usas RAPTOR LOCAL.
- 🎮Si tienes GPU NVIDIA, verifica que Ollama la esté usando con
ollama psmientras hay una consulta activa.
Este es el problema más común al usar archivos HTML locales. La solución está en el Paso 5 de arriba — configura OLLAMA_ORIGINS=* antes de iniciar el servidor.
Alternativa: usa la extensión Allow CORS en Chrome temporalmente.
- Instalar Ollama desde
ollama.com - Ejecutar
ollama pull llama3.1:8b(o el modelo que prefieras) - Iniciar Ollama (
ollama serveo desde el menú) - Descargar y abrir
RAPTOR-Local-Ollama.htmlcon doble clic - Seleccionar modelo → clic en CONECTAR → ¡listo!
Solo para uso educativo y entornos autorizados · Cybernetia Blog
Comentarios
Publicar un comentario