Ver todos los artículos
transparenciacodigo-abiertostackia-local

El Stack de VORLUX AI: Cada Herramienta que Usamos, Nada Oculto

JG
Jacobo González Jaspe
|

El Stack de VORLUX AI: Cada Herramienta que Usamos, Nada Oculto

Cuando les decimos a los clientes que su IA correra localmente sin dependencia de la nube, la pregunta natural es: “Vale, pero que estas ejecutando exactamente?” Pregunta justa. Si te pedimos que confies en nosotros con tu infraestructura, mereces ver todo lo que hay debajo del capo.

Este post es nuestra divulgacion tecnologica completa. Cada componente, cada herramienta, cada decision — y por que la tomamos. Sin cajas negras propietarias. Sin referencias vagas a “nuestra plataforma de IA.” Solo el stack real.

Los Componentes Principales

Esto es todo lo que impulsa VORLUX AI, desde la inferencia hasta la interfaz:

CapaTecnologiaFuncionPor que esta
InferenciaOllamaServicio de LLMsMejor servidor de inferencia local, 14 modelos cargados
APIFastAPI + PythonAPI REST y orquestacionRapido, tipado, nativo async
DashboardNext.jsPanel de operaciones internoEcosistema React, SSR, tiempo real
Base de datosSQLiteToda la persistenciaCero config, cero red, probado en batalla
Sitio publicoAstrovorluxai.comEstatico primero, rapido, optimizado para SEO
Automatizacionn8nAutomatizacion de flujosFlujos visuales, auto-alojado
BusquedaFAISS + BM25Recuperacion RAGBusqueda hibrida vector + palabra clave
ProgramacionBackgroundSchedulerTareas cron58 tareas programadas, nativo Python
CacheRedisCache de sesion y tareasVelocidad en memoria, alojado en Docker
HardwareMac M3 Pro 32GBServidor principalApple Silicon = mejor rendimiento/vatio

Cada componente corre en nuestro hardware o en el hardware del cliente. Nada llama a casa. Nada envia telemetria. Nada requiere conexion a internet para funcionar.

Como Encaja Todo

flowchart TB
    subgraph CLIENTE["Capa Cliente"]
        SITE["Sitio Astro<br/>vorluxai.com"]
        DASH["Dashboard Next.js<br/>:3000"]
    end
    
    subgraph CAPA_API["API y Orquestacion"]
        API["FastAPI API<br/>:8090"]
        ORCH["Orquestador<br/>:8091"]
        N8N["Flujos n8n<br/>:5678"]
    end
    
    subgraph INFERENCIA["Capa de Inferencia"]
        OLLAMA["Ollama<br/>14 Modelos<br/>:11434"]
        RAG["FAISS + BM25<br/>Busqueda RAG"]
    end
    
    subgraph DATOS["Capa de Datos"]
        SQLITE[("SQLite<br/>Toda la Persistencia")]
        REDIS[("Redis<br/>Cache<br/>:6379")]
    end
    
    subgraph AUTOMATIZACION["Capa de Automatizacion"]
        SCHED["BackgroundScheduler<br/>58 Tareas Cron"]
        LOOPS["36 Bucles<br/>Autonomos"]
    end
    
    SITE --> API
    DASH --> API
    API --> OLLAMA
    API --> RAG
    API --> SQLITE
    API --> REDIS
    ORCH --> API
    ORCH --> N8N
    SCHED --> API
    LOOPS --> ORCH
    RAG --> SQLITE
    
    style CLIENTE fill:#0B1628,color:#FAFAFA
    style INFERENCIA fill:#059669,color:#fff
    style DATOS fill:#F5A623,color:#0B1628

Los 14 Modelos que Ejecutamos

No todas las tareas necesitan el mismo modelo. Ejecutamos 14 modelos simultaneamente, dirigiendo cada peticion al adecuado:

  • Gemma 2 9B — Razonamiento general y conversacion
  • Llama 3.3 70B — Analisis complejo y generacion de texto largo
  • Mistral Small 24B — Inferencia rapida de rango medio
  • Phi-4 — Tareas ligeras, respuesta rapida
  • Qwen 2.5 72B — Tareas multilingues, excelente para espanol
  • Qwen 2.5 Coder 7B — Generacion y revision de codigo
  • DeepSeek V3 — Razonamiento tecnico
  • Mas 7 variantes especializadas para embeddings, resumen y clasificacion

Todo corriendo en un unico Mac M3 Pro con 32GB de memoria unificada. Sin cluster de GPUs. Sin centro de datos. Una maquina en un escritorio en Valencia.

36 Bucles Autonomos, 58 Tareas Cron

El sistema no solo responde a peticiones — trabaja de forma autonoma. Esto es lo que corre las 24 horas:

  • Bucles de contenido: Investigar, redactar, revisar, publicar — pipeline de contenido completamente automatizado
  • Bucles de calidad: Revision de codigo, ejecucion de tests, actualizaciones de base de conocimiento
  • Bucles de monitorizacion: Checks de salud cada 60 segundos, auto-reinicio ante fallos
  • Bucles de negocio: Investigacion de leads, analisis de mercado, inteligencia competitiva

El BackgroundScheduler gestiona 58 tareas cron que disparan estos bucles en horarios precisos. El sistema watchdog asegura que todo siga vivo. Si un servicio se cae a las 3 de la manana, se reinicia solo antes de que nadie se de cuenta.

Detallamos como funciona esta arquitectura de auto-reparacion en nuestra documentacion de operaciones.

Por Que Importa el Open-Source

Cada componente de nuestro stack es open-source o construido por nosotros internamente. Esto no es ideologico — es practico:

  1. Sin licencias de software — Nuestros clientes no pagan licencias. El hardware es el unico coste.
  2. Sin dependencia de proveedores — Si Ollama desaparece manana, cambiamos a llama.cpp o vLLM. Mismos modelos, diferente runtime.
  3. Auditabilidad total — Clientes regulados pueden inspeccionar cada linea de codigo que toca sus datos.
  4. Soporte de comunidad — 50.000+ estrellas en GitHub entre nuestras dependencias principales. No son juguetes experimentales.

Comparado con Stacks Dependientes de la Nube

AspectoVORLUX AI (Local)Stack Cloud Tipico
Ubicacion de datosTu hardwareAWS/Azure/GCP
Coste mensual0 EUR tras hardware500-5.000+ EUR/mes
Latencia< 100ms primer token200-800ms+
Internet requeridoNoSi
Complejidad RGPDMinimaSignificativa
Dependencia proveedorNingunaAlta
Cambio de modeloMinutosDias-semanas
Dependencia de uptimeTu electricidadSu SLA
Registro de auditoriaLogs locales completosDepende del proveedor

El stack cloud no esta mal para todos. Pero para empresas que procesan datos sensibles bajo regulacion europea, el despliegue local elimina categorias enteras de riesgo. Exploramos este balance en profundidad en nuestro analisis de costes.

Que Significa Esto para Ti

Cuando desplegamos IA para tu negocio, obtienes este mismo stack — adaptado a tu hardware y tus cargas de trabajo. No una version diluida. No un servicio alojado con etiqueta “local.” Lo real, corriendo en metal que tu posees.

El servicio Edge AI para PYMEs que lanzamos en mayo usa esta misma arquitectura, adaptada a hardware que cabe en una estanteria y un presupuesto que cabe en una pequena empresa.

Velo en Accion

Hacemos demos en vivo de este stack durante nuestras llamadas de evaluacion gratuitas. Sin diapositivas, sin maquetas — el sistema real, ejecutando modelos reales, procesando consultas reales en tiempo real.

Reserva tu evaluacion gratuita de 15 minutos y comprueba por ti mismo como es la IA local cuando esta bien construida.

Manana, revelamos exactamente que servicios lanzamos y cuanto cuestan. Sin sorpresas — igual que el stack.


Este es el post 2 de nuestra serie Semana de Lanzamiento. Ayer: Checklist de Preparacion para IA Local. Manana: Nuestros Servicios y Precios.

Referencias externas: Ollama | n8n Automatizacion | Astro Framework | RGPD Articulo 25 e IA Local


Lecturas relacionadas

¿Listo para empezar?

VORLUX AI ayuda a empresas españolas y europeas a desplegar soluciones de IA que se quedan en tu hardware, bajo tu control. Ya necesites despliegue de IA en edge, integración LMS o consultoría de cumplimiento con la Ley de IA de la UE — podemos ayudarte.

Reserva una consulta gratuita para hablar de tu estrategia de IA, o explora nuestros servicios para ver cómo trabajamos.

Compartir: LinkedIn X
Newsletter

Acceda a recursos exclusivos

Suscríbase para desbloquear 230+ workflows, 43 agentes y 26 plantillas profesionales. Insights semanales sin spam.

Bonus: Checklist EU AI Act gratis al suscribirte
1x por semana Sin spam Cancela cuando quieras
EU AI Act: 99 días para el deadline

15 minutos para evaluar su caso

Consultoría inicial sin compromiso. Analizamos su infraestructura y le recomendamos la arquitectura híbrida óptima.

Sin compromiso 15 minutos Propuesta personalizada

136 páginas de recursos gratuitos · 26 plantillas de compliance · 22 dispositivos certificados