Volver a plantillas
risk-assessment Interactive

Herramienta de Clasificacion de Riesgo IA

Determina el nivel de riesgo de tus sistemas IA segun el EU AI Act. Evaluacion en 5 pasos cubriendo Articulos 5, 6 y Anexos I-III.

Descargar gratis Request customization
🌐
Bilingual / Bilingüe

This template includes both English and Spanish versions. Scroll down to find "Versión Española".

AI Risk Classification Tool

Based on EU AI Act — Regulation 2024/1689 | VORLUX AI

Purpose

This tool helps organizations determine the risk classification of their AI systems under the EU AI Act. Classifications determine your compliance obligations.

Step 1: Check for Prohibited Practices (Article 5)

Does your AI system perform any of the following? If YES to any → PROHIBITED (must discontinue)

  • Social scoring by public authorities
  • Real-time remote biometric identification in public spaces (with exceptions)
  • Subliminal manipulation that causes harm
  • Exploitation of vulnerabilities (age, disability, social situation)
  • Predictive policing based solely on profiling
  • Untargeted scraping for facial recognition databases
  • Emotion recognition in workplace or education (with exceptions)
  • Biometric categorization inferring sensitive attributes

Result: If any checked → System is PROHIBITED. Stop here.

Step 2: Check Annex I — High-Risk Product Safety

Is your AI system a safety component of, or itself constitutes, a product covered by:

  • Machinery (Regulation 2023/1230)
  • Toys (Directive 2009/48/EC)
  • Lifts (Directive 2014/33/EU)
  • Medical devices (Regulations 2017/745, 2017/746)
  • Motor vehicles (Regulation 2019/2144)
  • Aviation (Regulation 2018/1139)
  • Rail (Directive 2016/797)
  • Marine equipment (Directive 2014/90/EU)

Result: If any checked → HIGH RISK. Full compliance required (Articles 8-15).

Step 3: Check Annex III — High-Risk Use Cases

Does your AI system fall into any of these categories?

Biometrics (3a, 3b)

  • Remote biometric identification (not real-time in public)
  • Biometric categorization
  • Emotion recognition

Critical Infrastructure (4)

  • Safety component of critical infrastructure (water, gas, heating, electricity, transport)

Education (5)

  • Determining access to education
  • Evaluating learning outcomes
  • Monitoring prohibited behavior during tests

Employment (6)

  • Recruitment and selection (CV screening, interview analysis)
  • Promotion, termination, task allocation decisions
  • Monitoring and evaluating work performance

Essential Services (7)

  • Creditworthiness assessment
  • Risk assessment for life/health insurance
  • Evaluation of emergency calls (dispatching)

Law Enforcement (8)

  • Individual risk assessment (recidivism prediction)
  • Polygraphs and similar tools
  • Evidence analysis
  • Crime prediction (geographic or individual)

Migration (9)

  • Risk assessment for irregular migration
  • Examination of asylum applications
  • Identification of persons (border control)

Justice & Democracy (10)

  • Assistance to judicial authorities (legal research, case analysis)
  • Influencing election outcomes

Result: If any checked → Likely HIGH RISK (subject to Article 6(3) exception).

Step 4: Article 6(3) Exception Check

Even if listed in Annex III, your system is NOT high-risk if ALL of these apply:

  • The AI system performs a narrow procedural task
  • It improves the result of a previously completed human activity
  • It detects decision patterns without replacing human assessment
  • It performs a preparatory task relevant to Annex III use cases

AND the AI output does not create a significant risk of harm to health, safety, or fundamental rights.

Result: If all checked → LIMITED RISK (transparency obligations only).

Step 5: Determine Your Classification

ClassificationYour Obligations
ProhibitedMust discontinue immediately
High RiskFull compliance: risk management, data governance, technical documentation, transparency, human oversight, accuracy/robustness
Limited RiskTransparency: inform users they interact with AI, mark AI-generated content
Minimal RiskNo specific obligations (voluntary codes of conduct)

Your Assessment

FieldYour Input
System name_________________
Description_________________
Risk classification☐ Prohibited ☐ High ☐ Limited ☐ Minimal
Key articles_________________
Assessment date_________________
Assessed by_________________
Next review_________________

Next Steps

Based on your classification:

  • High Risk: You need technical documentation (Annex IV), conformity assessment (Art. 43), and registration (Art. 49). Contact us for a compliance audit →
  • Limited Risk: Implement transparency measures. We can help. Request assessment →
  • Minimal Risk: No mandatory obligations, but we recommend documenting your AI inventory.

Template provided by VORLUX AI | vorluxai.com | Based on EU AI Act Regulation 2024/1689 This template is for guidance only and does not constitute legal advice.


Versión Española

Herramienta de Clasificación de Riesgos para Inteligencia Artificial

Basado en la Directiva UE sobre IA — Reglamento 2024/1689 | VORLUX AI

Propósito

Esta herramienta ayuda a las organizaciones a determinar la clasificación del riesgo de sus sistemas de inteligencia artificial bajo la Directiva UE sobre IA. Las clasificaciones determinan sus obligaciones de cumplimiento.

Paso 1: Verificar Prácticas Prohibidas (Artículo 5)

¿Su sistema de inteligencia artificial realiza alguna de las siguientes actividades? Si SÍ a cualquier una → PROHIBIDO (debe cesar)

  • Puntuación social por parte de autoridades públicas
  • Identificación biométrica en tiempo real en espacios públicos (con excepciones)
  • Manipulación subliminal que causa daño
  • Explotación de vulnerabilidades (edad, discapacidad, situación social)
  • Policía predictiva basada únicamente en perfiles
  • Scraping no dirigido para bases de datos de reconocimiento facial
  • Reconocimiento emocional en el lugar de trabajo o la educación (con excepciones)
  • Categorización biométrica que infiere atributos sensibles

Resultado: Si alguna marcada → El sistema es PROHIBIDO. Detener aquí.

Paso 2: Verificar Anexo I — Seguridad de Productos con Alto Riesgo

¿Su sistema de inteligencia artificial es un componente de seguridad o constituye en sí mismo un producto cubierto por:

  • Máquinas (Reglamento 2023/1230)
  • Juguetes (Directiva 2009/48/CE)
  • Ascensores (Directiva 2014/33/UE)
  • Dispositivos médicos (Regulaciones 2017/745, 2017/746)
  • Vehículos motorizados (Reglamento 2019/2144)
  • Aviación (Reglamento 2018/1139)
  • Ferrocarril (Directiva 2016/797)
  • Equipo marítimo (Directiva 2014/90/UE)

Resultado: Si alguna marcada → ALTO RIESGO. Cumplimiento completo requerido (Artículos 8-15).

Paso 3: Verificar Anexo III — Uso de Alto Riesgo

¿Su sistema de inteligencia artificial cae en alguna de estas categorías?

Biometría (3a, 3b)

  • Identificación biométrica remota (no en tiempo real en espacios públicos)
  • Categorización biométrica
  • Reconocimiento emocional

Infraestructura Crítica (4)

  • Componente de seguridad de infraestructuras críticas (agua, gas, calefacción, electricidad, transporte)

Educación (5)

  • Determinar acceso a la educación
  • Evaluación de resultados de aprendizaje
  • Monitoreo de comportamiento prohibido durante exámenes

Empleo (6)

  • Selección y contratación (análisis de currículum, análisis de entrevistas)
  • Decisión de promoción, despido o asignación de tareas
  • Monitoreo y evaluación del desempeño laboral

Servicios Esenciales (7)

  • Evaluación de la capacidad crediticia
  • Evaluación de riesgo para seguros de vida/seguros de salud
  • Análisis de llamadas de emergencia (despacho)

Vigilancia (8)

  • Evaluación individual de riesgos (predicción de reincidencia)
  • Polígrafos y herramientas similares
  • Análisis de pruebas
  • Predicción de delitos (geográfica o individual)

Migración (9)

  • Evaluación de riesgo para migrantes irregulares
  • Examen de solicitudes de asilo
  • Identificación de personas (control fronterizo)

Justicia y Democracia (10)

  • Asistencia a autoridades judiciales (investigación legal, análisis de casos)
  • Influencia en resultados electorales

Resultado: Si alguna marcada → Probablemente ALTO RIESGO (excepción del artículo 6(3)).

Paso 4: Verificar Excepción del Artículo 6(3)

A pesar de estar incluido en el Anexo III, su sistema no es alto riesgo si se cumplen todas las siguientes condiciones:

  • El sistema de inteligencia artificial realiza una tarea procedimental estrecha
  • Mejora el resultado de una actividad humana previamente completada
  • Detecta patrones de decisión sin reemplazar la evaluación humana
  • Realiza una tarea preparatoria relevante para los casos de uso del Anexo III

Y el output del sistema no crea un riesgo significativo de daño a la salud, seguridad o derechos fundamentales.

Resultado: Si todas las condiciones se cumplen → RIESGO LIMITADO (obligaciones de transparencia solo).

Paso 5: Determinar Su Clasificación

ClasificaciónSus Obligaciones
ProhibidoDebe cesar inmediatamente
Alto RiesgoCumplimiento completo: gestión de riesgos, gobernanza de datos, documentación técnica, transparencia, supervisión humana, precisión/robustez
Riesgo LimitadoTransparencia: informar a los usuarios que interactúan con IA, marcar contenido generado por IA
Riesgo MínimoNo hay obligaciones específicas (ver nota)
EU AI Act: 99 días para el deadline

15 minutos para evaluar su caso

Consultoría inicial sin compromiso. Analizamos su infraestructura y le recomendamos la arquitectura híbrida óptima.

Sin compromiso 15 minutos Propuesta personalizada

136 páginas de recursos gratuitos · 26 plantillas de compliance · 22 dispositivos certificados