El Stack de VORLUX AI: Cada Herramienta que Usamos, Nada Oculto
El Stack de VORLUX AI: Cada Herramienta que Usamos, Nada Oculto
Cuando les decimos a los clientes que su IA correra localmente sin dependencia de la nube, la pregunta natural es: “Vale, pero que estas ejecutando exactamente?” Pregunta justa. Si te pedimos que confies en nosotros con tu infraestructura, mereces ver todo lo que hay debajo del capo.
Este post es nuestra divulgacion tecnologica completa. Cada componente, cada herramienta, cada decision — y por que la tomamos. Sin cajas negras propietarias. Sin referencias vagas a “nuestra plataforma de IA.” Solo el stack real.
Los Componentes Principales
Esto es todo lo que impulsa VORLUX AI, desde la inferencia hasta la interfaz:
| Capa | Tecnologia | Funcion | Por que esta |
|---|---|---|---|
| Inferencia | Ollama | Servicio de LLMs | Mejor servidor de inferencia local, 14 modelos cargados |
| API | FastAPI + Python | API REST y orquestacion | Rapido, tipado, nativo async |
| Dashboard | Next.js | Panel de operaciones interno | Ecosistema React, SSR, tiempo real |
| Base de datos | SQLite | Toda la persistencia | Cero config, cero red, probado en batalla |
| Sitio publico | Astro | vorluxai.com | Estatico primero, rapido, optimizado para SEO |
| Automatizacion | n8n | Automatizacion de flujos | Flujos visuales, auto-alojado |
| Busqueda | FAISS + BM25 | Recuperacion RAG | Busqueda hibrida vector + palabra clave |
| Programacion | BackgroundScheduler | Tareas cron | 58 tareas programadas, nativo Python |
| Cache | Redis | Cache de sesion y tareas | Velocidad en memoria, alojado en Docker |
| Hardware | Mac M3 Pro 32GB | Servidor principal | Apple Silicon = mejor rendimiento/vatio |
Cada componente corre en nuestro hardware o en el hardware del cliente. Nada llama a casa. Nada envia telemetria. Nada requiere conexion a internet para funcionar.
Como Encaja Todo
flowchart TB
subgraph CLIENTE["Capa Cliente"]
SITE["Sitio Astro<br/>vorluxai.com"]
DASH["Dashboard Next.js<br/>:3000"]
end
subgraph CAPA_API["API y Orquestacion"]
API["FastAPI API<br/>:8090"]
ORCH["Orquestador<br/>:8091"]
N8N["Flujos n8n<br/>:5678"]
end
subgraph INFERENCIA["Capa de Inferencia"]
OLLAMA["Ollama<br/>14 Modelos<br/>:11434"]
RAG["FAISS + BM25<br/>Busqueda RAG"]
end
subgraph DATOS["Capa de Datos"]
SQLITE[("SQLite<br/>Toda la Persistencia")]
REDIS[("Redis<br/>Cache<br/>:6379")]
end
subgraph AUTOMATIZACION["Capa de Automatizacion"]
SCHED["BackgroundScheduler<br/>58 Tareas Cron"]
LOOPS["36 Bucles<br/>Autonomos"]
end
SITE --> API
DASH --> API
API --> OLLAMA
API --> RAG
API --> SQLITE
API --> REDIS
ORCH --> API
ORCH --> N8N
SCHED --> API
LOOPS --> ORCH
RAG --> SQLITE
style CLIENTE fill:#0B1628,color:#FAFAFA
style INFERENCIA fill:#059669,color:#fff
style DATOS fill:#F5A623,color:#0B1628
Los 14 Modelos que Ejecutamos
No todas las tareas necesitan el mismo modelo. Ejecutamos 14 modelos simultaneamente, dirigiendo cada peticion al adecuado:
- Gemma 2 9B — Razonamiento general y conversacion
- Llama 3.3 70B — Analisis complejo y generacion de texto largo
- Mistral Small 24B — Inferencia rapida de rango medio
- Phi-4 — Tareas ligeras, respuesta rapida
- Qwen 2.5 72B — Tareas multilingues, excelente para espanol
- Qwen 2.5 Coder 7B — Generacion y revision de codigo
- DeepSeek V3 — Razonamiento tecnico
- Mas 7 variantes especializadas para embeddings, resumen y clasificacion
Todo corriendo en un unico Mac M3 Pro con 32GB de memoria unificada. Sin cluster de GPUs. Sin centro de datos. Una maquina en un escritorio en Valencia.
36 Bucles Autonomos, 58 Tareas Cron
El sistema no solo responde a peticiones — trabaja de forma autonoma. Esto es lo que corre las 24 horas:
- Bucles de contenido: Investigar, redactar, revisar, publicar — pipeline de contenido completamente automatizado
- Bucles de calidad: Revision de codigo, ejecucion de tests, actualizaciones de base de conocimiento
- Bucles de monitorizacion: Checks de salud cada 60 segundos, auto-reinicio ante fallos
- Bucles de negocio: Investigacion de leads, analisis de mercado, inteligencia competitiva
El BackgroundScheduler gestiona 58 tareas cron que disparan estos bucles en horarios precisos. El sistema watchdog asegura que todo siga vivo. Si un servicio se cae a las 3 de la manana, se reinicia solo antes de que nadie se de cuenta.
Detallamos como funciona esta arquitectura de auto-reparacion en nuestra documentacion de operaciones.
Por Que Importa el Open-Source
Cada componente de nuestro stack es open-source o construido por nosotros internamente. Esto no es ideologico — es practico:
- Sin licencias de software — Nuestros clientes no pagan licencias. El hardware es el unico coste.
- Sin dependencia de proveedores — Si Ollama desaparece manana, cambiamos a llama.cpp o vLLM. Mismos modelos, diferente runtime.
- Auditabilidad total — Clientes regulados pueden inspeccionar cada linea de codigo que toca sus datos.
- Soporte de comunidad — 50.000+ estrellas en GitHub entre nuestras dependencias principales. No son juguetes experimentales.
Comparado con Stacks Dependientes de la Nube
| Aspecto | VORLUX AI (Local) | Stack Cloud Tipico |
|---|---|---|
| Ubicacion de datos | Tu hardware | AWS/Azure/GCP |
| Coste mensual | 0 EUR tras hardware | 500-5.000+ EUR/mes |
| Latencia | < 100ms primer token | 200-800ms+ |
| Internet requerido | No | Si |
| Complejidad RGPD | Minima | Significativa |
| Dependencia proveedor | Ninguna | Alta |
| Cambio de modelo | Minutos | Dias-semanas |
| Dependencia de uptime | Tu electricidad | Su SLA |
| Registro de auditoria | Logs locales completos | Depende del proveedor |
El stack cloud no esta mal para todos. Pero para empresas que procesan datos sensibles bajo regulacion europea, el despliegue local elimina categorias enteras de riesgo. Exploramos este balance en profundidad en nuestro analisis de costes.
Que Significa Esto para Ti
Cuando desplegamos IA para tu negocio, obtienes este mismo stack — adaptado a tu hardware y tus cargas de trabajo. No una version diluida. No un servicio alojado con etiqueta “local.” Lo real, corriendo en metal que tu posees.
El servicio Edge AI para PYMEs que lanzamos en mayo usa esta misma arquitectura, adaptada a hardware que cabe en una estanteria y un presupuesto que cabe en una pequena empresa.
Velo en Accion
Hacemos demos en vivo de este stack durante nuestras llamadas de evaluacion gratuitas. Sin diapositivas, sin maquetas — el sistema real, ejecutando modelos reales, procesando consultas reales en tiempo real.
Reserva tu evaluacion gratuita de 15 minutos y comprueba por ti mismo como es la IA local cuando esta bien construida.
Manana, revelamos exactamente que servicios lanzamos y cuanto cuestan. Sin sorpresas — igual que el stack.
Este es el post 2 de nuestra serie Semana de Lanzamiento. Ayer: Checklist de Preparacion para IA Local. Manana: Nuestros Servicios y Precios.
Referencias externas: Ollama | n8n Automatizacion | Astro Framework | RGPD Articulo 25 e IA Local
Lecturas relacionadas
- Tus Primeros 3 Agentes IA: Guía de Despliegue Local para PYMEs (2026)
- IA en la Nube vs Local: Analisis Real de Costes para PYMEs Espanolas en 2026
- Bienvenidos a VORLUX AI — IA Que Se Queda Donde Viven Tus Datos
¿Listo para empezar?
VORLUX AI ayuda a empresas españolas y europeas a desplegar soluciones de IA que se quedan en tu hardware, bajo tu control. Ya necesites despliegue de IA en edge, integración LMS o consultoría de cumplimiento con la Ley de IA de la UE — podemos ayudarte.
Reserva una consulta gratuita para hablar de tu estrategia de IA, o explora nuestros servicios para ver cómo trabajamos.