Volver a plantillas
governance framework-document

Marco de Gobernanza de IA

Marco integral de gobernanza de IA que cubre estructura organizativa, matriz RACI, procesos de toma de decisiones, apetito de riesgo, seguimiento, informes y calendario de auditorías — diseñado para el cumplimiento del Reglamento de IA de la UE.

Descargar gratis Request customization
🌐
Bilingual / Bilingüe

This template includes both English and Spanish versions. Scroll down to find "Versión Española".

Disclaimer: This is guidance only, not legal advice. Consult qualified legal counsel before adopting this framework. | Este documento es solo orientativo, no constituye asesoramiento jurídico.


AI Governance Framework

Document Reference: [ORG-FRAME-AI-001] Version: 1.0 Effective Date: [DATE] Review Date: [DATE + 12 months] Framework Owner: [AI Officer / CTO] Approved by: [CEO / Board] Classification: Internal — Restricted


Executive Summary

[ORGANISATION NAME] (“the Organisation”) operates and deploys artificial intelligence systems in the course of its business activities. This AI Governance Framework establishes the structures, processes, accountabilities, and controls that govern how AI is used within the Organisation.

This Framework is designed to:

  • Ensure compliance with the EU AI Act (Regulation (EU) 2024/1689) and related legislation
  • Protect the Organisation’s stakeholders, including employees, customers, and third parties
  • Enable the Organisation to realise the benefits of AI while managing risks proportionately
  • Demonstrate trustworthy and responsible AI use to regulators, clients, and the public

This Framework applies from [DATE] and must be reviewed at least annually.


1. Governance Principles

The Organisation’s AI governance is founded on the following principles, aligned with the EU AI Act and the EU’s Ethics Guidelines for Trustworthy AI:

#PrincipleMeaning in Practice
1Human Agency and OversightMeaningful human control is maintained over AI-supported decisions; AI does not replace human judgment on high-stakes matters
2Technical Robustness and SafetyAI systems are secure, accurate, reliable, and resilient against misuse
3Privacy and Data GovernanceAI use complies with GDPR; personal data is processed lawfully, minimally, and with appropriate safeguards
4TransparencyAffected individuals are informed when AI is used in decisions affecting them; AI systems are documented and auditable
5Diversity and FairnessAI systems are assessed for bias and discriminatory outputs; diverse perspectives inform AI procurement and deployment
6Societal and Environmental WellbeingAI use considers broader impacts, including environmental costs and effects on communities
7AccountabilityClear ownership of AI risks and decisions; incidents are investigated and corrected

2. Organisational Structure for AI Governance

2.1 Governance Architecture

┌─────────────────────────────────────────────────────────────────┐
│                        BOARD OF DIRECTORS                        │
│          (Strategic oversight; approve risk appetite;            │
│           receive quarterly AI governance report)                │
└──────────────────────────────┬──────────────────────────────────┘

┌──────────────────────────────▼──────────────────────────────────┐
│                    AI GOVERNANCE COMMITTEE                        │
│   Chair: CEO | Members: CTO, DPO, CISO, AI Officer, Legal,      │
│   HR, Finance representative                                     │
│   Meets: Quarterly | Reports: Board quarterly                    │
└────────┬──────────────┬───────────────┬────────────┬────────────┘
         │              │               │            │
┌────────▼───┐  ┌───────▼──────┐  ┌────▼──────┐  ┌─▼──────────┐
│  AI OFFICER │  │   DPO        │  │  CISO     │  │  LEGAL     │
│             │  │              │  │           │  │            │
│ Day-to-day  │  │ Data         │  │ Security  │  │ Regulatory │
│ AI ops      │  │ protection   │  │ & cyber   │  │ compliance │
│ & risk mgmt │  │ & GDPR       │  │ risk      │  │ & disputes │
└─────┬───────┘  └──────────────┘  └───────────┘  └────────────┘

┌─────▼─────────────────────────────────────────────────┐
│              AI IMPLEMENTATION TEAMS                   │
│  (Department-level: Business, Technology, Operations)  │
│  AI Champions embedded in each department              │
└───────────────────────────────────────────────────────┘

Adapt the org chart to your actual structure. Add intermediate layers (e.g., Risk Committee) as appropriate.

2.2 Key Governance Bodies

Board of Directors

Responsibilities:

  • Approve the Organisation’s AI risk appetite statement
  • Receive and scrutinise the quarterly AI Governance Report
  • Hold the CEO accountable for AI governance outcomes
  • Consider AI-related risks in strategic decision-making

Meetings: AI governance standing agenda item at quarterly board meetings


AI Governance Committee

Chair: CEO (or nominated delegate) Membership:

MemberRoleVote
CEO (or delegate)ChairYes
CTOTechnology strategyYes
DPOData protectionYes
CISOInformation securityYes
AI OfficerAI operations and complianceYes
General Counsel / LegalLegal and regulatoryYes
HR DirectorPeople and cultureAdvisory
Finance representativeBudget and riskAdvisory

Responsibilities:

  • Review and approve AI risk assessments for new AI systems
  • Set and maintain the AI risk appetite
  • Approve AI policies and this Framework
  • Review material AI incidents and approve remediation
  • Approve the annual AI audit programme
  • Monitor regulatory developments and initiate compliance responses

Meetings: Quarterly (minimum); extraordinary meetings on 5 business days’ notice for material incidents

Quorum: Majority of voting members, including AI Officer and at least one of DPO/CISO


AI Officer

Reports to: CTO / CEO (organisation to specify)

Responsibilities:

  • Day-to-day operational oversight of AI governance
  • Maintaining the AI system inventory and risk register
  • Managing the AI tool approval process
  • Coordinating AI risk assessments
  • Monitoring AI system performance and incidents
  • Reporting to the AI Governance Committee
  • Liaising with the national supervisory authority (Spain: AESIA) where required
  • Managing the AI Governance Committee agenda and documentation

Competencies required:

  • Deep understanding of EU AI Act and applicable regulation
  • Technical understanding of AI/ML systems
  • Risk management experience
  • Strong communication and stakeholder management skills

Data Protection Officer (DPO)

Responsibilities:

  • Advising on GDPR compliance for all AI processing activities
  • Reviewing and approving DPIAs for AI systems
  • Acting as point of contact for the Spanish data protection authority (AEPD)
  • Monitoring AI use for compliance with data minimisation and purpose limitation

CISO

Responsibilities:

  • Assessing cybersecurity risks of AI systems
  • Overseeing AI system security testing and vulnerability management
  • Managing AI-related security incidents
  • Setting security requirements for AI procurement

2.3 AI Champions (Department Level)

Each business department shall designate an AI Champion who:

  • Acts as the first point of contact for AI queries in their department
  • Participates in the AI Champion Network (quarterly meetings)
  • Escalates risks and incidents to the AI Officer
  • Supports the rollout of AI training and policy updates

Current AI Champions:

DepartmentAI Champion NameContactDate Appointed
[Dept 1]
[Dept 2]
[Dept 3]

3. AI System Inventory

3.1 Inventory Requirements

All AI systems used within the Organisation, whether developed internally, procured from a vendor, or accessed as a service, must be registered in the AI System Inventory (maintained by AI Officer).

Minimum information per system:

FieldDescription
System IDUnique identifier (e.g., AI-SYS-001)
System NameDescriptive name
ProviderInternal / vendor name
EU AI Act Risk CategoryUnacceptable / High / Limited / Minimal
Primary Business FunctionWhat it does
Deployment ScopeUsers / departments / geographic reach
Data InputsTypes of data processed
Data OutputsTypes of outputs produced
Human Oversight LevelNone / Partial / Full
Risk Assessment StatusNot assessed / In progress / Approved / Conditions
DPO Review StatusNot required / In progress / Approved
Date Deployed
Last Review Date
Next Review Date
System OwnerNamed individual

3.2 EU AI Act Risk Classification

AI systems must be classified according to the EU AI Act risk hierarchy:

CategoryDefinitionExamplesRequirements
Unacceptable RiskProhibited under Art. 5Social scoring by public authorities; real-time biometric surveillance in public spaces; subliminal manipulationMust not be used
High RiskSystems with significant potential harm (Annex III of AI Act)AI in recruitment, credit decisions, critical infrastructure, education assessment, law enforcementFull compliance requirements (Art. 9–15) including conformity assessment
Limited RiskSpecific transparency obligationsChatbots (must disclose AI nature); deepfakes; emotion recognitionTransparency obligations (Art. 50)
Minimal RiskMinimal risk to rights or safetySpam filters, AI video games, AI productivity toolsNo mandatory requirements (voluntary codes encouraged)

[ORGANISATION NAME] current high-risk AI systems:

SystemRisk BasisCompliance Status
[System name][Which Annex III category][Compliant / Partial / Non-compliant]

4. Risk Management System

4.1 AI Risk Appetite Statement

The Organisation’s AI risk appetite is defined as follows:

[Board to approve this statement — template below]

“[ORGANISATION NAME] accepts the use of AI tools and systems that deliver demonstrable business value and can be operated in compliance with applicable law and our ethical principles. We have low tolerance for AI-related harms to individuals (including employees, clients, and the public), reputational damage arising from AI misuse, and regulatory non-compliance. We have moderate tolerance for AI operational failures that can be detected and remediated without material harm. We have zero tolerance for the use of AI systems categorised as posing unacceptable risk under the EU AI Act.”

Risk appetite thresholds:

Risk TypeTolerance LevelResponse
Personal data breach via AIVery lowImmediate suspension; incident response; regulatory notification
Discriminatory AI outputVery lowImmediate suspension; investigation; root cause fix
AI operational error (low impact)ModerateLog; investigate; remediate within SLA
Regulatory non-complianceVery lowImmediate escalation to Legal; remediation plan within 5 days
Reputational harmLowImmediate escalation to CEO; comms plan
AI cost overrunModerateCFO notification; budget review

4.2 Risk Assessment Process

All AI systems must undergo a risk assessment before deployment and periodically thereafter. The process:

Step 1: IDENTIFY
  ↓ Complete AI System Registration Form (Annex A)
  ↓ AI Officer conducts initial risk screening (3–5 business days)

Step 2: ASSESS
  ↓ Full risk assessment if screening indicates Medium risk or above
  ↓ DPO conducts DPIA if personal data involved
  ↓ CISO conducts security assessment
  ↓ Legal reviews regulatory classification

Step 3: DECIDE
  ↓ AI Governance Committee review for High/Unacceptable risk systems
  ↓ AI Officer approval for Low/Minimal risk systems
  ↓ Decision documented with conditions (if any)

Step 4: IMPLEMENT
  ↓ Technical and organisational measures implemented
  ↓ User training completed
  ↓ Monitoring plan established
  ↓ System added to inventory

Step 5: MONITOR
  ↓ Ongoing performance monitoring
  ↓ Incident logging
  ↓ Periodic review (annually minimum; 6-monthly for High risk)

4.3 AI Risk Register

The AI Risk Register is maintained by the AI Officer and reviewed quarterly by the AI Governance Committee.

Risk Register Template:

Risk IDAI SystemRisk DescriptionLikelihood (1–5)Impact (1–5)Risk ScoreControlsResidual RiskOwnerReview Date
AIR-001

Likelihood Scale: 1 = Rare, 2 = Unlikely, 3 = Possible, 4 = Likely, 5 = Almost certain Impact Scale: 1 = Negligible, 2 = Minor, 3 = Moderate, 4 = Major, 5 = Catastrophic Risk Score = Likelihood × Impact Risk Appetite Threshold: Scores ≥12 require immediate escalation to AI Governance Committee


5. Decision-Making Processes

5.1 New AI System Adoption

Business Unit identifies need for AI system

AI Champion submits AI System Request to AI Officer

AI Officer conducts risk screening (5 business days)

         /  \
    Low risk  High/Unknown risk
        ↓            ↓
  AI Officer    Full assessment
  approves       package:
  (with           - Risk assessment
  conditions)     - DPIA (if PD)
                  - Security review
                  - Legal review

                 AI Governance Committee
                 reviews and decides

                    Approve / Reject /
                    Approve with conditions

Decision timeline targets:

  • Initial screening: 5 business days
  • Low risk approval: 10 business days
  • High risk Committee review: 20 business days

5.2 AI Incident Response

SeverityDefinitionInitial ResponseEscalation
P1 — CriticalPersonal data breach; prohibited use; imminent harm to individualImmediate system suspension; notify AI Officer within 1 hourCEO + DPO + Legal within 2 hours
P2 — HighSignificant discriminatory output; near-miss on personal data; customer-facing failureSystem review within 4 hours; AI Officer notifiedAI Governance Committee within 24 hours
P3 — MediumRepeated incorrect outputs; user policy breach; vendor issueInvestigate within 24 hours; AI Officer notifiedAI Champion + Line Manager
P4 — LowIsolated error; no data or harm involvedLog and investigate within 5 business daysAI Champion monitors

5.3 Escalation Matrix

SituationEscalate ToByTimeframe
Personal data breach via AIDPO → CISO → CEOAI Champion / UserImmediately
Suspected prohibited AI useAI Officer → Legal → CEOAny employeeWithin 1 hour
High-risk system performing outside parametersAI Officer → CTOSystem OwnerWithin 4 hours
Regulatory inquiry about AILegal → CEOCompliance / Any recipientImmediately
Vendor security incidentCISO → AI OfficerIT / System OwnerWithin 2 hours
Employee AI policy breachHR → Line Manager → AI OfficerLine Manager / PeerWithin 24 hours

6. Monitoring and Performance

6.1 Ongoing Monitoring Requirements

System CategoryMonitoring FrequencyMetricsResponsible
High-risk AI systemsContinuous automated + weekly human reviewAccuracy, false positive/negative rate, bias indicators, uptimeSystem Owner + AI Officer
Customer-facing AIDailyError rate, escalation rate, sentiment, complaintsSystem Owner + Customer Service
Internal AI toolsMonthlyUsage statistics, incident count, user feedbackAI Officer
All AI systemsQuarterlyRisk register review, performance vs. baselineAI Officer

6.2 Key Performance Indicators

KPITargetMeasurement MethodReporting Frequency
% AI systems with current risk assessments100%AI inventory reviewQuarterly
AI incident response time (P1)<2 hours from detectionIncident logMonthly
Mandatory AI training completion rate>95%HR systemQuarterly
AI-related GDPR breaches reported to AEPD0AEPD/DPO recordsAnnually
% employees aware of AI policy>90% (surveyed)Annual surveyAnnually
Shadow AI instances detectedTarget: trending to 0IT monitoring + auditsQuarterly
AI Governance Committee quorum achieved100% of meetingsCommittee minutesQuarterly

6.3 Reporting Structure

ReportContentPrepared byForFrequency
AI Operational DashboardSystem status, incidents, usageAI OfficerAI OfficerWeekly
AI Governance Committee ReportRisk register, incidents, KPIs, policy updates, regulatory developmentsAI OfficerAI Governance CommitteeQuarterly
Board AI Governance ReportExecutive summary: risk posture, material incidents, regulatory status, strategic AI initiativesAI Officer (approved by CEO)Board of DirectorsQuarterly
AI Audit ReportAnnual independent audit findings and recommendationsInternal/External AuditorAI Governance Committee + BoardAnnually
Regulatory NotificationsAEPD, AESIA notifications as requiredDPO / LegalRegulatory authoritiesAs required

7. Audit Schedule

7.1 Internal AI Audit Programme

The annual internal AI audit programme covers:

QuarterAudit FocusAuditorDeliverable
Q1AI System Inventory accuracy and completeness; risk assessment qualityInternal AuditFindings report + management response
Q2Data protection compliance for AI systems (GDPR/DPIA quality)Internal Audit + DPOCompliance gap report
Q3Technical controls and security for AI systemsCISO / IT AuditSecurity findings + remediation plan
Q4Policy compliance (user behaviour, training completion, shadow AI)HR + AI Officer + Internal AuditCompliance report + annual programme review

7.2 External AI Audit

An independent external AI audit shall be conducted:

  • Annually (for organisations using High-risk AI systems under EU AI Act)
  • When required by regulators
  • Following a material AI incident

Scope of external audit:

  • EU AI Act compliance (applicable requirements for deployers and/or providers)
  • GDPR compliance for AI data processing
  • AI governance framework effectiveness
  • Technical robustness of high-risk AI systems

7.3 Audit Findings Management

Finding SeverityResponse TimelineEscalation
CriticalImmediate suspension of system / practice; remediation plan within 5 daysCEO + Board
HighRemediation plan within 15 business daysAI Governance Committee
MediumRemediation plan within 30 business daysAI Officer
LowRemediation in next planning cycleSystem Owner

All audit findings are tracked in the Audit Findings Register maintained by Internal Audit. Progress is reported to the AI Governance Committee quarterly.


8. Regulatory Compliance Management

8.1 Applicable Regulations

RegulationScopePrimary OwnerReview Frequency
EU AI Act (Regulation (EU) 2024/1689)All AI systemsAI Officer + LegalOngoing — Act fully applies from August 2026
GDPR (Regulation (EU) 2016/679)All AI processing personal dataDPOOngoing
Spanish LOPDGDD (Ley Orgánica 3/2018)Spanish operationsDPOAnnual
EU AI Liability Directive (proposed)Liability for AI-caused harmLegalWhen adopted
Sector-specific regulation[Insert applicable sector rules]Legal + ComplianceAnnual

8.2 Regulatory Watch Process

The Legal department, supported by the AI Officer, monitors:

  • EU Official Journal for new AI-related legislation
  • AESIA (Spanish AI supervisory authority) guidance and decisions
  • AEPD guidance on AI and data protection
  • EDPB opinions on AI matters
  • European Commission AI guidance and standards

Significant regulatory developments are escalated to the AI Governance Committee within 10 business days of publication.

8.3 Supervisory Authority Contacts

AuthorityJurisdictionContactPurpose
AESIA (Agencia Española de Supervisión de Inteligencia Artificial)Spain — AI Act enforcement[www.aesia.es]AI Act notifications, incidents
AEPD (Agencia Española de Protección de Datos)Spain — GDPR enforcement[www.aepd.es]Data breaches, DPIA consultations
EDPB (European Data Protection Board)EU-wide GDPR[www.edpb.europa.eu]Cross-border matters

9. Documentation and Records

9.1 Document Retention

DocumentRetention PeriodStorage LocationOwner
AI System InventoryIndefinitely (current version) + 5 years historic[System]AI Officer
Risk Assessments10 years from system decommission[System]AI Officer
DPIAs3 years from last review (minimum)[System]DPO
Incident Reports5 years[System]AI Officer + DPO
Training RecordsDuration of employment + 5 yearsHR SystemHR
Audit Reports7 years[System]Internal Audit
Committee Minutes7 yearsBoard/Committee SecretaryAI Officer

9.2 Document Control

This Framework and all associated policy documents are:

  • Version controlled
  • Stored in [Document Management System]
  • Accessible to all employees via [Intranet link]
  • Subject to formal change management procedures

10. Framework Review and Updates

This Framework will be reviewed:

  • Annually (by [MONTH] each year)
  • Following any significant change in applicable law
  • Following a material AI incident or near-miss
  • When the Organisation’s AI footprint changes materially

Review is led by the AI Officer with input from DPO, CISO, and Legal. Revised versions require approval from the AI Governance Committee.


Annex A — AI System Registration Form

System Name: Business Unit: System Owner: Date of Registration: Brief Description: Vendor/Provider: Intended Users: Data Inputs: Data Outputs: Does it process personal data? Yes / No Estimated EU AI Act Risk Category (initial assessment): Unacceptable / High / Limited / Minimal / Unknown Proposed Go-Live Date: Business Justification:


Annex B — Framework Change Log

VersionDateChanged BySummary of ChangesApproved By
1.0[DATE][Name]Initial version[Name, Title]

Document Footer: Template provided by VORLUX AI | vorluxai.com This is guidance only, not legal advice. Version 1.0 | For EU AI Act compliance use | Last updated: 2026-04-05


Versión Española

Aviso legal: Este documento es solo orientativo, no constituye asesoramiento jurídico. Consulte con un abogado cualificado antes de adoptar este marco.


Marco de Gobernanza de IA

Referencia: [ORG-FRAME-AI-001] Versión: 1.0 Fecha de vigencia: [FECHA] Fecha de revisión: [FECHA + 12 meses] Responsable del marco: [AI Officer / CTO] Aprobado por: [CEO / Consejo] Clasificación: Interna — Restringida


Resumen Ejecutivo

[NOMBRE DE LA ORGANIZACIÓN] opera y despliega sistemas de inteligencia artificial en el curso de sus actividades. Este Marco establece las estructuras, procesos, responsabilidades y controles que rigen el uso de la IA.

Objetivos del Marco:

  • Garantizar el cumplimiento del EU AI Act (Reglamento (UE) 2024/1689) y legislación conexa
  • Proteger a las partes interesadas: empleados, clientes y terceros
  • Aprovechar los beneficios de la IA gestionando riesgos de forma proporcionada
  • Demostrar un uso fiable y responsable de la IA ante reguladores, clientes y público

Vigente desde [FECHA]; revisión mínima anual.


1. Principios de Gobernanza

Principios alineados con el EU AI Act y las Directrices de la UE para una IA Fiable:

#PrincipioSignificado Práctico
1Agencia Humana y SupervisiónControl humano efectivo sobre decisiones asistidas por IA; la IA no sustituye el juicio humano en asuntos de alto impacto
2Robustez Técnica y SeguridadSistemas seguros, precisos, fiables y resilientes frente al mal uso
3Privacidad y Gobernanza de DatosCumplimiento del GDPR; tratamiento de datos personales lícito, mínimo y con salvaguardas adecuadas
4TransparenciaLas personas afectadas son informadas del uso de IA en decisiones que les conciernen; sistemas documentados y auditables
5Diversidad y EquidadEvaluación de sesgo y discriminación; perspectivas diversas en la adquisición y despliegue de IA
6Bienestar Social y MedioambientalConsideración de impactos amplios, incluyendo costes ambientales y efectos en comunidades
7Rendición de CuentasTitularidad clara de riesgos y decisiones de IA; los incidentes se investigan y corrigen

2. Estructura Organizativa para la Gobernanza de IA

2.1 Arquitectura de Gobernanza

┌─────────────────────────────────────────────────────────────────┐
│                     CONSEJO DE ADMINISTRACIÓN                     │
│        (Supervisión estratégica; aprobación del apetito de       │
│         riesgo; informe trimestral de gobernanza de IA)          │
└──────────────────────────────┬──────────────────────────────────┘

┌──────────────────────────────▼──────────────────────────────────┐
│                  COMITÉ DE GOBERNANZA DE IA                       │
│   Preside: CEO | Miembros: CTO, DPO, CISO, AI Officer, Legal,  │
│   RR.HH., representante de Finanzas                              │
│   Reuniones: Trimestrales | Reporta: Consejo trimestralmente    │
└────────┬──────────────┬───────────────┬────────────┬────────────┘
         │              │               │            │
┌────────▼───┐  ┌───────▼──────┐  ┌────▼──────┐  ┌─▼──────────┐
│ AI OFFICER  │  │   DPO        │  │  CISO     │  │  LEGAL     │
│             │  │              │  │           │  │            │
│ Operaciones │  │ Protección   │  │ Seguridad │  │ Cumplim.   │
│ diarias IA  │  │ de datos     │  │ y ciber   │  │ regulat.   │
│ y gestión   │  │ y GDPR       │  │           │  │ y disputas │
│ de riesgos  │  │              │  │           │  │            │
└─────┬───────┘  └──────────────┘  └───────────┘  └────────────┘

┌─────▼─────────────────────────────────────────────────┐
│            EQUIPOS DE IMPLEMENTACIÓN DE IA             │
│  (Nivel departamental: Negocio, Tecnología, Operac.)  │
│  AI Champions integrados en cada departamento         │
└───────────────────────────────────────────────────────┘

2.2 Órganos de Gobernanza Clave

Consejo de Administración

Responsabilidades:

  • Aprobar la declaración de apetito de riesgo de IA
  • Recibir y examinar el Informe Trimestral de Gobernanza de IA
  • Exigir al CEO resultados en gobernanza de IA
  • Considerar riesgos de IA en decisiones estratégicas

Reuniones: Gobernanza de IA como punto fijo en el orden del día trimestral

Comité de Gobernanza de IA

Preside: CEO (o delegado)

MiembroRolVoto
CEO (o delegado)Presidente
CTOEstrategia tecnológica
DPOProtección de datos
CISOSeguridad de la información
AI OfficerOperaciones y cumplimiento IA
Asesor JurídicoLegal y regulatorio
Director/a de RR.HH.Personas y culturaConsultivo
Representante de FinanzasPresupuesto y riesgoConsultivo

Responsabilidades:

  • Revisar y aprobar evaluaciones de riesgo de nuevos sistemas de IA
  • Establecer y mantener el apetito de riesgo de IA
  • Aprobar políticas de IA y este Marco
  • Revisar incidentes materiales de IA y aprobar remediación
  • Aprobar el programa anual de auditoría de IA
  • Supervisar desarrollos regulatorios e iniciar respuestas de cumplimiento

Reuniones: Trimestrales (mínimo); extraordinarias con 5 días hábiles de aviso para incidentes materiales

Quórum: Mayoría de miembros con voto, incluido AI Officer y al menos uno entre DPO/CISO

AI Officer

Reporta a: CTO / CEO

Responsabilidades:

  • Supervisión operativa diaria de la gobernanza de IA
  • Mantenimiento del inventario de sistemas de IA y del registro de riesgos
  • Gestión del proceso de aprobación de herramientas de IA
  • Coordinación de evaluaciones de riesgo
  • Monitorización del rendimiento e incidentes de sistemas de IA
  • Reporte al Comité de Gobernanza de IA
  • Enlace con la autoridad supervisora nacional (España: AESIA) cuando sea necesario

Competencias requeridas: Conocimiento profundo del EU AI Act, comprensión técnica de sistemas IA/ML, experiencia en gestión de riesgos, habilidades de comunicación y gestión de partes interesadas.

DPO

  • Asesoramiento sobre cumplimiento GDPR para todas las actividades de tratamiento con IA
  • Revisión y aprobación de DPIA para sistemas de IA
  • Punto de contacto con la AEPD
  • Supervisión del cumplimiento de minimización de datos y limitación de finalidad

CISO

  • Evaluación de riesgos de ciberseguridad de sistemas de IA
  • Supervisión de pruebas de seguridad y gestión de vulnerabilidades
  • Gestión de incidentes de seguridad relacionados con IA
  • Definición de requisitos de seguridad para adquisición de IA

2.3 AI Champions (Nivel Departamental)

Cada departamento designará un AI Champion que:

  • Actúa como primer punto de contacto para consultas de IA
  • Participa en la Red de AI Champions (reuniones trimestrales)
  • Escala riesgos e incidentes al AI Officer
  • Apoya el despliegue de formación y actualizaciones de políticas
DepartamentoNombre del AI ChampionContactoFecha de Nombramiento
[Dept 1]
[Dept 2]
[Dept 3]

3. Inventario de Sistemas de IA

3.1 Requisitos del Inventario

Todos los sistemas de IA (desarrollados internamente, adquiridos o usados como servicio) deben registrarse en el Inventario de Sistemas de IA (mantenido por el AI Officer).

Información mínima por sistema:

CampoDescripción
ID del SistemaIdentificador único (ej. AI-SYS-001)
Nombre del SistemaNombre descriptivo
ProveedorInterno / nombre del proveedor
Categoría de Riesgo EU AI ActInaceptable / Alto / Limitado / Mínimo
Función Empresarial PrincipalQué hace
Alcance del DespliegueUsuarios / departamentos / cobertura geográfica
Datos de EntradaTipos de datos tratados
Datos de SalidaTipos de resultados producidos
Nivel de Supervisión HumanaNinguno / Parcial / Completo
Estado de Evaluación de RiesgoNo evaluado / En curso / Aprobado / Con condiciones
Estado de Revisión DPONo requerida / En curso / Aprobada
Fecha de Despliegue
Última Fecha de Revisión
Próxima Fecha de Revisión
Responsable del SistemaPersona designada

3.2 Clasificación de Riesgo según EU AI Act

CategoríaDefiniciónEjemplosRequisitos
Riesgo InaceptableProhibido (Art. 5)Puntuación social por autoridades públicas; vigilancia biométrica en tiempo real en espacios públicos; manipulación subliminalNo debe usarse
Riesgo AltoPotencial de daño significativo (Anexo III)IA en selección de personal, decisiones crediticias, infraestructuras críticas, evaluación educativa, aplicación de la leyCumplimiento completo (Art. 9-15) incluida evaluación de conformidad
Riesgo LimitadoObligaciones específicas de transparenciaChatbots (deben revelar naturaleza IA); deepfakes; reconocimiento de emocionesObligaciones de transparencia (Art. 50)
Riesgo MínimoRiesgo mínimo para derechos o seguridadFiltros de spam, videojuegos con IA, herramientas de productividadSin requisitos obligatorios (códigos voluntarios recomendados)

4. Sistema de Gestión de Riesgos

4.1 Declaración de Apetito de Riesgo de IA

“[NOMBRE DE LA ORGANIZACIÓN] acepta el uso de herramientas y sistemas de IA que aporten valor empresarial demostrable y puedan operarse cumpliendo la legislación aplicable y nuestros principios éticos. Tenemos baja tolerancia a daños a individuos, daño reputacional por mal uso de IA e incumplimiento regulatorio. Tenemos tolerancia moderada a fallos operativos de IA detectables y remediables sin daño material. Tenemos tolerancia cero al uso de sistemas de IA categorizados como riesgo inaceptable bajo el EU AI Act.”

Umbrales de apetito de riesgo:

Tipo de RiesgoNivel de ToleranciaRespuesta
Brecha de datos personales vía IAMuy bajaSuspensión inmediata; respuesta a incidentes; notificación regulatoria
Resultado discriminatorio de IAMuy bajaSuspensión inmediata; investigación; corrección de causa raíz
Error operativo de IA (bajo impacto)ModeradaRegistrar; investigar; remediar dentro de SLA
Incumplimiento regulatorioMuy bajaEscalado inmediato a Legal; plan de remediación en 5 días
Daño reputacionalBajaEscalado inmediato a CEO; plan de comunicación
Sobrecoste de IAModeradaNotificación a CFO; revisión presupuestaria

4.2 Proceso de Evaluación de Riesgos

Paso 1: IDENTIFICAR
  ↓ Completar Formulario de Registro de Sistema de IA (Anexo A)
  ↓ AI Officer realiza cribado inicial de riesgo (3-5 días hábiles)

Paso 2: EVALUAR
  ↓ Evaluación completa si el cribado indica riesgo Medio o superior
  ↓ DPO realiza DPIA si hay datos personales
  ↓ CISO realiza evaluación de seguridad
  ↓ Legal revisa la clasificación regulatoria

Paso 3: DECIDIR
  ↓ Revisión del Comité para sistemas de riesgo Alto/Inaceptable
  ↓ Aprobación del AI Officer para riesgo Bajo/Mínimo
  ↓ Decisión documentada con condiciones (si las hay)

Paso 4: IMPLEMENTAR
  ↓ Medidas técnicas y organizativas implementadas
  ↓ Formación de usuarios completada
  ↓ Plan de monitorización establecido
  ↓ Sistema añadido al inventario

Paso 5: MONITORIZAR
  ↓ Monitorización continua del rendimiento
  ↓ Registro de incidentes
  ↓ Revisión periódica (anual mínimo; semestral para riesgo Alto)

4.3 Registro de Riesgos de IA

ID RiesgoSistema IADescripción del RiesgoProbabilidad (1-5)Impacto (1-5)PuntuaciónControlesRiesgo ResidualResponsableFecha Revisión
AIR-001

Escala de Probabilidad: 1 = Rara, 2 = Improbable, 3 = Posible, 4 = Probable, 5 = Casi segura Escala de Impacto: 1 = Insignificante, 2 = Menor, 3 = Moderado, 4 = Mayor, 5 = Catastrófico Puntuación = Probabilidad x Impacto Umbral de apetito de riesgo: Puntuaciones >= 12 requieren escalado inmediato al Comité


5. Procesos de Toma de Decisiones

5.1 Adopción de Nuevos Sistemas de IA

Unidad de Negocio identifica necesidad de sistema de IA

AI Champion envía Solicitud al AI Officer

AI Officer realiza cribado de riesgo (5 días hábiles)

         /  \
  Riesgo bajo  Riesgo alto/desconocido
        ↓            ↓
  AI Officer    Paquete de evaluación
  aprueba       completa:
  (con            - Evaluación de riesgo
  condiciones)    - DPIA (si hay DP)
                  - Revisión de seguridad
                  - Revisión legal

                 Comité de Gobernanza de IA
                 revisa y decide

                    Aprobar / Rechazar /
                    Aprobar con condiciones

Plazos objetivo:

  • Cribado inicial: 5 días hábiles
  • Aprobación riesgo bajo: 10 días hábiles
  • Revisión del Comité para riesgo alto: 20 días hábiles

5.2 Respuesta a Incidentes de IA

SeveridadDefiniciónRespuesta InicialEscalado
P1 — CríticoBrecha de datos personales; uso prohibido; daño inminenteSuspensión inmediata del sistema; notificar al AI Officer en 1 horaCEO + DPO + Legal en 2 horas
P2 — AltoResultado discriminatorio significativo; casi-brecha de datos; fallo orientado al clienteRevisión del sistema en 4 horas; AI Officer notificadoComité en 24 horas
P3 — MedioResultados incorrectos repetidos; incumplimiento de política por usuario; problema de proveedorInvestigar en 24 horas; AI Officer notificadoAI Champion + Responsable directo
P4 — BajoError aislado; sin datos ni daño involucradoRegistrar e investigar en 5 días hábilesAI Champion supervisa

5.3 Matriz de Escalado

SituaciónEscalar APorPlazo
Brecha de datos personales vía IADPO → CISO → CEOAI Champion / UsuarioInmediatamente
Sospecha de uso prohibido de IAAI Officer → Legal → CEOCualquier empleadoEn 1 hora
Sistema de alto riesgo fuera de parámetrosAI Officer → CTOResponsable del sistemaEn 4 horas
Consulta regulatoria sobre IALegal → CEOCumplimiento / DestinatarioInmediatamente
Incidente de seguridad del proveedorCISO → AI OfficerTI / Responsable del sistemaEn 2 horas
Incumplimiento de política de IA por empleadoRR.HH. → Responsable directo → AI OfficerResponsable directoEn 24 horas

6. Monitorización y Rendimiento

6.1 Requisitos de Monitorización Continua

Categoría del SistemaFrecuenciaMétricasResponsable
Sistemas de IA de alto riesgoContinua automatizada + revisión humana semanalPrecisión, tasas de falsos positivos/negativos, indicadores de sesgo, disponibilidadResponsable del sistema + AI Officer
IA orientada al clienteDiariaTasa de error, tasa de escalado, sentimiento, quejasResponsable + Atención al Cliente
Herramientas internas de IAMensualEstadísticas de uso, recuento de incidentes, retroalimentación de usuariosAI Officer
Todos los sistemas de IATrimestralRevisión del registro de riesgos, rendimiento vs. línea baseAI Officer

6.2 Indicadores Clave de Rendimiento

KPIObjetivoMétodo de MediciónFrecuencia
% sistemas de IA con evaluaciones de riesgo vigentes100%Revisión del inventarioTrimestral
Tiempo de respuesta a incidentes (P1)<2 horas desde detecciónRegistro de incidentesMensual
Tasa de finalización de formación obligatoria en IA>95%Sistema de RR.HH.Trimestral
Brechas GDPR relacionadas con IA notificadas a AEPD0Registros AEPD/DPOAnual
% empleados conocedores de la política de IA>90% (encuestados)Encuesta anualAnual
Instancias de Shadow AI detectadasObjetivo: tendencia a 0Monitorización TI + auditoríasTrimestral
Quórum alcanzado en el Comité100% de reunionesActas del ComitéTrimestral

6.3 Estructura de Informes

InformeContenidoElaborado porDestinatarioFrecuencia
Dashboard Operativo de IAEstado de sistemas, incidentes, usoAI OfficerAI OfficerSemanal
Informe del ComitéRegistro de riesgos, incidentes, KPIs, actualizaciones de políticas, novedades regulatoriasAI OfficerComitéTrimestral
Informe de IA para el ConsejoResumen ejecutivo: postura de riesgo, incidentes materiales, estado regulatorio, iniciativas estratégicasAI Officer (aprobado por CEO)ConsejoTrimestral
Informe de Auditoría de IAHallazgos y recomendaciones de auditoría independiente anualAuditor Interno/ExternoComité + ConsejoAnual
Notificaciones RegulatoriasNotificaciones a AEPD, AESIA según procedaDPO / LegalAutoridades regulatoriasSegún proceda

7. Calendario de Auditorías

7.1 Programa Interno de Auditoría de IA

TrimestreFoco de AuditoríaAuditorEntregable
T1Precisión y completitud del inventario; calidad de evaluaciones de riesgoAuditoría InternaInforme de hallazgos + respuesta de la dirección
T2Cumplimiento de protección de datos para sistemas de IA (calidad GDPR/DPIA)Auditoría Interna + DPOInforme de brechas de cumplimiento
T3Controles técnicos y seguridad para sistemas de IACISO / Auditoría TIHallazgos de seguridad + plan de remediación
T4Cumplimiento de políticas (comportamiento de usuarios, formación, Shadow AI)RR.HH. + AI Officer + Auditoría InternaInforme de cumplimiento + revisión del programa anual

7.2 Auditoría Externa de IA

Se realizará una auditoría externa independiente:

  • Anualmente (para organizaciones con sistemas de IA de alto riesgo bajo el EU AI Act)
  • Cuando lo requieran los reguladores
  • Tras un incidente material de IA

Alcance: Cumplimiento EU AI Act, cumplimiento GDPR, eficacia del marco de gobernanza, robustez técnica de sistemas de alto riesgo.

7.3 Gestión de Hallazgos de Auditoría

Severidad del HallazgoPlazo de RespuestaEscalado
CríticoSuspensión inmediata; plan de remediación en 5 díasCEO + Consejo
AltoPlan de remediación en 15 días hábilesComité
MedioPlan de remediación en 30 días hábilesAI Officer
BajoRemediación en el próximo ciclo de planificaciónResponsable del sistema

Todos los hallazgos se registran en el Registro de Hallazgos de Auditoría (Auditoría Interna). El progreso se reporta al Comité trimestralmente.


8. Gestión del Cumplimiento Regulatorio

8.1 Normativa Aplicable

RegulaciónAlcanceResponsable PrincipalFrecuencia de Revisión
EU AI Act (Reglamento (UE) 2024/1689)Todos los sistemas de IAAI Officer + LegalContinua — plenamente aplicable desde agosto 2026
GDPR (Reglamento (UE) 2016/679)Todo tratamiento de IA con datos personalesDPOContinua
LOPDGDD (Ley Orgánica 3/2018)Operaciones en EspañaDPOAnual
Directiva de Responsabilidad por IA de la UE (propuesta)Responsabilidad por daños causados por IALegalAl adoptarse
Regulación sectorial[Insertar normas sectoriales aplicables]Legal + CumplimientoAnual

8.2 Proceso de Vigilancia Regulatoria

Legal, con el apoyo del AI Officer, supervisa:

  • Diario Oficial de la UE para nueva legislación sobre IA
  • Orientaciones y decisiones de AESIA
  • Orientaciones de AEPD sobre IA y protección de datos
  • Dictámenes del EDPB sobre IA
  • Directrices y normas de la Comisión Europea sobre IA

Los desarrollos regulatorios significativos se escalan al Comité en 10 días hábiles desde su publicación.

8.3 Contactos de Autoridades Supervisoras

AutoridadJurisdicciónContactoPropósito
AESIAEspaña — aplicación EU AI Act[www.aesia.es]Notificaciones e incidentes EU AI Act
AEPDEspaña — aplicación GDPR[www.aepd.es]Brechas de datos, consultas DPIA
EDPBUE — GDPR transfronterizo[www.edpb.europa.eu]Asuntos transfronterizos

9. Documentación y Registros

9.1 Retención de Documentos

DocumentoPeríodo de RetenciónUbicaciónResponsable
Inventario de Sistemas de IAIndefinidamente (versión actual) + 5 años histórico[Sistema]AI Officer
Evaluaciones de Riesgo10 años desde desmantelamiento del sistema[Sistema]AI Officer
DPIAs3 años desde última revisión (mínimo)[Sistema]DPO
Informes de Incidentes5 años[Sistema]AI Officer + DPO
Registros de FormaciónDuración del empleo + 5 añosSistema RR.HH.RR.HH.
Informes de Auditoría7 años[Sistema]Auditoría Interna
Actas de Comités7 añosSecretaría del Consejo/ComitéAI Officer

9.2 Control de Documentos

Este Marco y todos los documentos de política asociados están:

  • Controlados por versiones
  • Almacenados en [Sistema de Gestión Documental]
  • Accesibles para todos los empleados vía [enlace intranet]
  • Sujetos a procedimientos formales de gestión de cambios

10. Revisión y Actualización del Marco

Este Marco se revisará:

  • Anualmente (en [MES] de cada año)
  • Tras cualquier cambio significativo en la legislación aplicable
  • Tras un incidente material o cuasi-incidente de IA
  • Cuando la huella de IA de la Organización cambie materialmente

La revisión es liderada por el AI Officer con aportaciones del DPO, CISO y Legal. Las versiones revisadas requieren aprobación del Comité de Gobernanza de IA.


Anexo A — Formulario de Registro de Sistema de IA

Nombre del Sistema: Unidad de Negocio: Responsable del Sistema: Fecha de Registro: Descripción Breve: Proveedor: Usuarios Previstos: Datos de Entrada: Datos de Salida: ¿Trata datos personales? Sí / No Categoría de Riesgo EU AI Act Estimada (evaluación inicial): Inaceptable / Alto / Limitado / Mínimo / Desconocido Fecha Prevista de Puesta en Marcha: Justificación Empresarial:


Anexo B — Registro de Cambios del Marco

VersiónFechaModificado PorResumen de CambiosAprobado Por
1.0[FECHA][Nombre]Versión inicial[Nombre, Cargo]

Pie de documento: Plantilla proporcionada por VORLUX AI | vorluxai.com Este documento es solo orientativo, no constituye asesoramiento jurídico. Versión 1.0 | Para cumplimiento del EU AI Act | Última actualización: 2026-04-05

EU AI Act: 99 días para el deadline

15 minutos para evaluar su caso

Consultoría inicial sin compromiso. Analizamos su infraestructura y le recomendamos la arquitectura híbrida óptima.

Sin compromiso 15 minutos Propuesta personalizada

136 páginas de recursos gratuitos · 26 plantillas de compliance · 22 dispositivos certificados