Back to templates
audit checklist

Shadow AI Detection Checklist

A comprehensive operational checklist for identifying, remediating, and preventing shadow AI use across the organisation — covering detection methods, department surveys, remediation steps, and monitoring tools.

Request customization
🌐
Bilingual / Bilingüe

This template includes both English and Spanish versions. Scroll down to find "Versión Española".

Disclaimer: This is guidance only, not legal advice. Consult qualified legal counsel before adopting this framework. | Este documento es solo orientativo, no constituye asesoramiento jurídico.


Shadow AI Detection Checklist

Document Reference: [ORG-CHECK-AI-002] Version: 1.0 Effective Date: [DATE] Owner: AI Officer / CISO Classification: Internal — Restricted


Part 1: Understanding Shadow AI

1.1 What Is Shadow AI?

Shadow AI refers to the use of artificial intelligence tools and services by employees or teams within an organisation without the knowledge, approval, or oversight of IT, security, or governance functions.

Shadow AI is distinct from:

  • Approved AI tools — formally assessed and registered tools
  • Experimental AI — tools being evaluated through formal processes
  • Legacy automation — rule-based automation systems predating the AI era

Shadow AI typically arises when:

  • Employees discover AI tools that solve genuine productivity problems
  • The formal AI approval process is perceived as too slow or burdensome
  • Employees are unaware of the policy requirement to seek approval
  • Business pressure incentivises speed over compliance
  • Consumer AI tools are so accessible and free that the barrier to use is essentially zero

1.2 Why Shadow AI Is a Material Risk

Risk CategorySpecific Risks
Data Protection (GDPR)Personal data entered into unapproved tools with no DPA; data processed outside EU/EEA without adequate safeguards; accidental disclosure to AI model training datasets
EU AI Act ComplianceOrganisation may be using high-risk AI systems without required assessments, documentation, or human oversight
ConfidentialityProprietary business information, client data, trade secrets uploaded to third-party AI tools with unknown retention and training policies
Legal LiabilityAI-generated content used without review may be defamatory, infringe IP rights, or be factually incorrect — liability falls on the organisation
SecurityUnapproved tools may have poor security posture; credentials may be entered in prompts; API keys may be exposed
ReputationalClient data processed without authorisation; public-facing AI outputs not meeting quality or accuracy standards
OperationalUndocumented AI dependencies; “key person” risk when only one employee knows an AI workflow; decisions made on unchecked AI output
ContractualTerms of service of consumer AI tools often prohibit commercial use; IP ownership of AI-generated content may be unclear or vest in the provider

1.3 Common Shadow AI Examples Seen in Organisations

  • Employees using ChatGPT (free/personal) to draft client proposals, summarise contracts, or analyse data
  • Developers using AI coding assistants (personal subscriptions) that process internal codebase
  • HR using AI screening tools found online to filter CVs without formal procurement
  • Marketing using personal Midjourney/DALL-E accounts for campaign imagery
  • Finance using AI analytics tools to process financial data without IT knowledge
  • Employees using AI meeting summary tools (personal accounts) to transcribe sensitive meetings
  • Customer service using AI chatbot builders to create unofficial customer-facing bots
  • Project managers using AI workflow tools that integrate with corporate systems via personal OAuth connections

Part 2: Detection Methods

2.1 Technical Detection Methods

Use the following technical approaches to identify shadow AI use. Assign ownership and frequency before commencing.

Network and Traffic Analysis

CheckMethodFrequencyOwner
DNS query logs — identify requests to known AI domains (see Annex A)Review firewall/DNS logs for domains in Annex AWeeklyIT/CISO
HTTPS inspection for AI API callsConfigure SSL inspection appliance to flag AI API endpointsContinuousIT/CISO
Bandwidth usage spikes from individual workstationsAnalyse per-device bandwidth to identify large uploads to AI servicesWeeklyIT
Browser extension inventoryAudit installed browser extensions across managed devices; flag AI assistantsMonthlyIT
SaaS application discoveryUse CASB (Cloud Access Security Broker) or equivalent to identify SaaS connectionsContinuousCISO
OAuth authorisation reviewAudit OAuth tokens granted to third-party applications — revoke unknown AI tool connectionsMonthlyIT
Email forwarding rulesCheck for email forwarding rules that may send data to AI-connected email servicesMonthlyIT
Clipboard/file transfer monitoringReview DLP alerts for data transfers to known AI domainsContinuousCISO/DLP

Endpoint and Application Analysis

CheckMethodFrequencyOwner
Installed software inventoryCompare installed apps against approved software list; flag AI toolsMonthlyIT
Browser bookmarks and saved passwordsTargeted review on high-risk devices (IT must have authorised access policy)QuarterlyIT
Meeting transcription tool connectionsReview calendar integration apps for AI transcription servicesMonthlyIT
IDE and coding environment pluginsReview developer IDE plugins for unapproved AI code assistantsMonthlyIT/DevOps
Mobile device management (MDM) reviewCheck work-enrolled mobile devices for AI applicationsMonthlyIT

Cloud and SaaS Monitoring

CheckMethodFrequencyOwner
Microsoft 365 / Google Workspace app integrationsReview third-party apps connected via OAuth to corporate M365/GWSMonthlyIT
API gateway logsReview API calls from internal systems to external AI providersWeeklyIT/DevOps
Credit card / expense report reviewFlag expenses for AI subscriptions (monthly SaaS charges)MonthlyFinance + AI Officer
Procurement recordsCheck purchasing records for AI tool licences not channelled through ITQuarterlyFinance + IT

2.2 Human Intelligence Detection Methods

Technical tools alone will not catch all shadow AI. These human intelligence methods complement technical monitoring:

MethodDescriptionFrequencyOwner
Manager briefingsBrief all line managers on shadow AI risks; ask them to proactively flag observed tool useQuarterlyHR + AI Officer
All-hands Q&AHold open Q&A sessions on AI policy; employees often self-disclose shadow AI when given amnestySemi-annualAI Officer
Onboarding interviewsAsk new joiners about AI tools used at their previous employer and whether they plan to continue using themEach onboardingHR
Exit interviewsAsk departing employees if they are aware of any AI tools used by their team without approvalEach exitHR
IT helpdesk ticket analysisReview IT helpdesk tickets for requests to integrate, install, or troubleshoot AI toolsMonthlyIT/AI Officer
Informal team observationsAI Champions conduct informal team observation; report patterns of AI use not covered by policyQuarterlyAI Champions
Anonymous reporting channelMaintain an anonymous tip line or email for employees to report shadow AI concernsContinuousAI Officer

Part 3: Department Survey Questions

Conduct this survey annually (minimum) and after any period of significant change. The survey should be anonymous unless the organisation has strong cultural reasons to make it non-anonymous. Aim for >75% response rate per department.

Instructions for Survey Administrators

  • Distribute via [Survey Tool — e.g., Microsoft Forms, anonymous Google Form]
  • Allow 2 weeks for completion
  • Communicate clearly: the purpose is to improve tools and policy, not to identify and punish
  • Share anonymised, aggregated results with the AI Governance Committee
  • Use findings to update the approved tool list and training priorities

Section A: General AI Use

Q1. In your day-to-day work, how often do you currently use any AI tools (this includes tools like ChatGPT, Copilot, Gemini, Grammarly AI, translation tools, AI in Excel, etc.)?

  • Never
  • Occasionally (a few times a month)
  • Regularly (several times a week)
  • Daily

Q2. Which of the following categories of AI tools have you used for work purposes in the last 6 months? (Select all that apply)

  • AI writing assistants (e.g., ChatGPT, Claude, Gemini, Copilot)
  • AI coding assistants (e.g., GitHub Copilot, Cursor, Tabnine)
  • AI image generators (e.g., Midjourney, DALL-E, Adobe Firefly)
  • AI meeting transcription/summary tools (e.g., Otter.ai, Fireflies, Teams Copilot)
  • AI translation tools (e.g., DeepL, Google Translate AI)
  • AI data analysis tools (e.g., AI features in Excel, Tableau, PowerBI)
  • AI search tools (e.g., Perplexity AI, Bing AI)
  • AI HR or recruitment tools
  • AI customer service or chatbot tools
  • Other (please specify): ___________
  • None

Q3. For the tools you have used for work, are they:

  • Officially approved and provided by the organisation
  • Personal accounts/free versions I use on my own initiative
  • A mix of approved and personal tools
  • I am not sure whether the tools I use are approved

Q4. If you use personal or non-approved AI tools for work, what is the main reason? (Select all that apply)

  • I did not know I needed approval
  • The approval process takes too long
  • There is no approved alternative that does what I need
  • The approved tools do not work as well
  • My team or manager encouraged it
  • It is faster to use a free tool than go through IT
  • Other: ___________

Section B: Data Handling

Q5. Have you ever entered any of the following types of information into an AI tool that was not officially approved? (Select all that apply)

  • Client names or contact details
  • Internal project names or strategies
  • Financial data or forecasts
  • Employee names or HR information
  • Proprietary product or technical information
  • Contract text or legal documents
  • None of the above
  • I prefer not to say

Q6. When using AI writing tools, do you typically:

  • Write prompts from scratch with no sensitive information
  • Paste in sections of internal documents to help me edit or summarise
  • Paste in complete documents for the AI to work with
  • I do not use AI writing tools

Q7. Are you aware that entering personal data (e.g., client or employee information) into an unapproved AI tool may constitute a GDPR breach?

  • Yes, and I understand the implications
  • Yes, but I am not sure exactly what counts as personal data
  • No, I was not aware of this
  • I am not sure

Section C: Policy Awareness

Q8. Are you aware that the organisation has an AI use policy?

  • Yes, I have read it
  • Yes, I know it exists but have not read it in detail
  • I have heard of it but do not know what it says
  • No, I was not aware there was one

Q9. Do you know how to request approval for a new AI tool you want to use for work?

  • Yes — I know the process and who to contact
  • I think I know but I am not certain
  • No — I do not know how to do this

Q10. Have you received training on responsible AI use in the last 12 months?

  • Yes, formal training (e.g., online course, workshop)
  • Yes, informal (e.g., team briefing, email guidance)
  • No

Q11. How confident do you feel in identifying when AI-generated content contains errors, bias, or “hallucinations”?

  • Very confident
  • Fairly confident
  • Not very confident
  • Not at all confident — I often take AI outputs at face value

Section D: Team and Culture

Q12. Does your direct manager use AI tools in their work that you are aware of?

  • Yes — with tools that appear to be officially approved
  • Yes — with tools that I am not sure are approved
  • No / Not that I am aware of
  • I do not know

Q13. Would you feel comfortable raising a concern if you saw a colleague using an AI tool in a way that seemed risky or inappropriate?

  • Yes, definitely
  • Probably yes
  • I am not sure
  • Probably not
  • Definitely not

Q14. What would make you feel more supported in using AI tools correctly? (Select all that apply)

  • Faster approval processes for new tools
  • Better guidance on what I can and cannot do with approved tools
  • More training on AI risks and responsible use
  • A wider range of approved tools to choose from
  • A dedicated person I can ask questions to
  • Nothing — the current support is sufficient

Q15. Is there a specific AI tool or type of tool that you wish was available for your work that is not currently approved?

  • Yes (please describe if comfortable): ___________
  • No

Q16. Have you ever observed a situation where AI tools were used to make a decision about a person (hiring, performance assessment, customer service outcome) without what seemed like meaningful human review?

  • Yes — and it concerned me
  • Yes — but it seemed fine
  • No
  • Not sure

Q17. Do you have any other comments about AI tools and their use in our organisation? (Free text)


Part 4: Remediation Steps

When shadow AI is detected, follow this structured remediation process.

4.1 Immediate Response (Day 1–3)

StepActionOwnerDocumented in
R1Contain: suspend access to unapproved tool for relevant user(s) where risk is High or CriticalIT/CISOIncident log
R2Assess data exposure: determine what data was entered and what the tool’s data retention/training policy isAI Officer + DPOIncident log
R3Determine if personal data was involvedDPOGDPR incident form
R4Notify line manager and HRAI OfficerHR system
R5Secure any outputs produced by the unapproved toolSystem OwnerIncident log

4.2 Investigation (Day 3–10)

StepActionOwner
R6Interview the user(s) involved — focus on understanding motivation, not blameHR + AI Officer
R7Review scope: are other employees using the same tool?AI Officer + IT
R8Assess whether data breach notification is required (AEPD 72-hour window)DPO
R9Review whether the tool should be considered for formal approvalAI Officer
R10Document root cause: why did this happen? (Awareness gap, process gap, tool gap?)AI Officer

4.3 Remediation (Day 10–30)

StepActionOwner
R11If personal data breach confirmed: notify AEPD within 72 hours (from detection); notify affected individuals if requiredDPO + Legal
R12If tool has merit: fast-track through approval processAI Officer + IT
R13Targeted training for affected departmentHR + AI Officer
R14Issue policy reminder to all staff if incident reflects a widespread misunderstandingHR + AI Officer
R15Update DNS/firewall blocklist if tool is not approved and risk is unacceptableIT/CISO
R16Apply proportionate disciplinary action per HR policy (considering intent, harm caused, cooperation)HR + Line Manager

4.4 Post-Incident Review (Day 30–45)

StepActionOwner
R17Produce Post-Incident ReportAI Officer
R18Present findings to AI Governance CommitteeAI Officer
R19Update risk registerAI Officer
R20Update shadow AI monitoring procedures if gaps identifiedCISO + AI Officer
R21Consider whether to update approved tool list or accelerate approvalsAI Governance Committee

Part 5: Prevention Measures

5.1 Policy and Communication

MeasureFrequencyOwner
Communicate AI policy at onboardingEvery onboardingHR
Annual all-staff AI policy reminder (email + intranet)AnnualAI Officer + HR
Publish and maintain an easy-to-find list of approved tools on intranetContinuousAI Officer
Brief line managers on shadow AI risks and their reporting responsibilityQuarterlyAI Officer
Maintain a fast-track (5-day) AI tool request process for low-risk toolsContinuousAI Officer
Publish “top tools employees ask for” on intranet to reduce need for workaroundsQuarterlyAI Officer

5.2 Technical Controls

ControlDescriptionPriorityOwner
DNS filteringBlock known unapproved consumer AI domains on corporate networkHighIT/CISO
DLP rulesConfigure DLP to alert on data uploads to known AI endpointsHighCISO
Browser extension managementRestrict installation of unapproved browser extensions on managed devicesMediumIT
OAuth auditReview and revoke third-party OAuth connections monthlyHighIT
CASB deploymentImplement Cloud Access Security Broker for comprehensive SaaS visibilityHighCISO
Endpoint agentDeploy endpoint monitoring agent to detect AI tool installationsMediumIT
MDM for mobileEnrol all devices with work data in MDM; restrict unapproved app storesMediumIT
Expense monitoringFlag AI-related SaaS charges in expense reporting systemMediumFinance + AI Officer

5.3 Culture and Incentives

MeasureDescriptionOwner
Positive framingPresent the AI approval process as a service, not a gate — “we help you get the tools you need safely”AI Officer + Communications
Fast-track for good-faith requestsEmployees who submit a tool request receive a response within 5 days for low-risk toolsAI Officer
RecognitionRecognise employees who identify and report shadow AI in good faithAI Officer + HR
Tool request feedbackWhen a request is declined, provide clear reasons and suggest alternativesAI Officer
Quarterly AI newsletterShare approved tools, tips, and regulatory updates to keep AI visible and positiveAI Officer

Part 6: Monitoring Tools

Tool CategoryPurposeExamplesNotes
CASB (Cloud Access Security Broker)Discover and monitor SaaS and AI tool usage across the organisationMicrosoft Defender for Cloud Apps, Netskope, Palo Alto SASEEnterprise investment; high ROI for shadow AI visibility
DNS FilteringBlock unapproved AI domains; log DNS queriesCisco Umbrella, Cloudflare Gateway, DNSFilterLower cost; good first step
DLP (Data Loss Prevention)Detect uploads of sensitive data to AI endpointsMicrosoft Purview DLP, Forcepoint, Symantec DLPEffective but generates false positives requiring tuning
Endpoint Detection and Response (EDR)Detect AI tool installations and suspicious behaviour on endpointsCrowdStrike Falcon, SentinelOne, Microsoft Defender for EndpointBroad security tool with shadow AI use case
Network Traffic AnalysisIdentify AI API calls and data flows in network trafficDarktrace, ExtraHop, Vectra AIAdvanced; requires expertise to interpret
Browser ManagementControl and audit browser extensionsChrome Enterprise, Microsoft Edge managementEffective for managed device fleets
MDM/EMMControl applications on mobile and remote devicesMicrosoft Intune, Jamf, VMware Workspace ONEEssential for BYOD environments
SIEMCorrelate security events; detect shadow AI patternsMicrosoft Sentinel, Splunk, IBM QRadarRequires rule development for AI-specific use cases

6.2 Known AI Domains to Monitor

(This list requires regular updates as the AI tool landscape evolves — AI Officer to review quarterly)

High-risk consumer AI services (commonly used for work):

ServiceDomain(s)Risk LevelNotes
ChatGPT (consumer)chat.openai.com, openai.comHighFree consumer version may train on inputs
Claude (consumer)claude.aiHighConsumer version — no business DPA
Google Gemini (consumer)gemini.google.com, bard.google.comHighConsumer version
Perplexity AIperplexity.aiHighConsumer AI search
Midjourneymidjourney.com, discord.com (AI channels)MediumImage generation
Otter.ai (personal)otter.aiHighMeeting transcription — audio data
Fireflies.ai (personal)fireflies.aiHighMeeting transcription
Notion AI (personal)notion.soMediumNote-taking with AI features
Grammarly (personal)grammarly.comMediumWriting assistant — processes all text
DeepL (personal)deepl.comMediumTranslation tool
Copy.aicopy.aiMediumAI writing
Jasper AIjasper.aiMediumAI writing
Runway MLrunwayml.comMediumVideo/image generation
Character.aicharacter.aiLow-MediumConversational AI
Pi.aipi.aiLow-MediumConversational AI

This is an illustrative list. Maintain and update a live version in the AI System Inventory.

6.3 Detection Metrics to Track

MetricTargetMeasurementFrequency
Number of shadow AI instances detectedTrending towards 0IT monitoring + surveyQuarterly
Time from detection to containment (High risk)<4 hoursIncident logPer incident
% employees who know how to request AI tool approval>85%Annual survey Q9Annual
Employee AI survey completion rate>75%Survey toolAnnual
Number of unapproved AI tool expenses detectedTrending towards 0Finance reviewMonthly
% managers briefed on shadow AI risks100%Training recordsAnnual

Annex A — Shadow AI Quick Reference Card

(Print and post in team areas; include in onboarding pack)

IS THIS SHADOW AI?

Ask yourself:

  1. Is this AI tool on the Approved Tools List? [Link to intranet page]
  2. Did IT or the AI Officer approve this tool?
  3. Did I submit a Tool Request Form?

If the answer to all three is NO — stop and submit a request first.

WHAT TO DO IF YOU SPOT SHADOW AI IN YOUR TEAM

  1. Do not confront the colleague directly
  2. Speak to your AI Champion or Line Manager
  3. Or email [ai-incidents@organisation.com] (reports can be anonymous)

QUICK GUIDE: WHAT NOT TO PUT IN ANY AI TOOL (APPROVED OR NOT)

  • Client names, addresses, or contact details
  • Employee personal data (salary, performance, health)
  • Passwords, API keys, or credentials of any kind
  • Classified or Restricted documents
  • Legal privilege documents

Template provided by VORLUX AI | vorluxai.com This is guidance only, not legal advice. Version 1.0 | For EU AI Act compliance use | Last updated: 2026-04-05


Versión Española

Lista de Verificación para Detección de Shadow AI

Referencia: [ORG-CHECK-AI-002] Versión: 1.0 Fecha de vigencia: [FECHA] Propietario: AI Officer / CISO Clasificación: Interno — Restringido


Parte 1: Comprensión del Shadow AI

1.1 ¿Qué es el Shadow AI?

El Shadow AI se refiere al uso de herramientas y servicios de inteligencia artificial por parte de empleados o equipos sin el conocimiento, aprobación o supervisión de las funciones de TI, seguridad o gobernanza.

Se distingue de: herramientas de IA aprobadas, IA experimental en evaluación formal y automatización legacy basada en reglas.

Surge habitualmente cuando:

  • Los empleados descubren herramientas de IA que resuelven problemas reales de productividad
  • El proceso de aprobación se percibe como lento o gravoso
  • Los empleados desconocen la política de aprobación
  • La presión empresarial prioriza la velocidad sobre el cumplimiento
  • Las herramientas de IA de consumo son gratuitas y de acceso inmediato

1.2 Por qué el Shadow AI es un Riesgo Material

Categoría de riesgoRiesgos específicos
Protección de datos (GDPR)Datos personales introducidos en herramientas sin DPA; procesamiento fuera del EEE sin garantías; divulgación accidental a datasets de entrenamiento
Cumplimiento EU AI ActUso de sistemas de IA de alto riesgo sin evaluaciones, documentación ni supervisión humana requeridas
ConfidencialidadInformación propietaria, datos de clientes y secretos comerciales subidos a herramientas de terceros con políticas de retención desconocidas
Responsabilidad legalContenido generado por IA usado sin revisión puede ser difamatorio, infringir PI o ser incorrecto — la responsabilidad recae en la organización
SeguridadHerramientas no aprobadas con postura de seguridad deficiente; credenciales en prompts; API keys expuestas
ReputacionalDatos de clientes procesados sin autorización; salidas de IA públicas sin estándares de calidad
OperativoDependencias de IA no documentadas; riesgo de “persona clave”; decisiones basadas en salidas no verificadas
ContractualTérminos de servicio de IA de consumo a menudo prohíben uso comercial; propiedad intelectual del contenido generado puede ser del proveedor

1.3 Ejemplos comunes de Shadow AI

  • Empleados usando ChatGPT (gratuito/personal) para redactar propuestas, resumir contratos o analizar datos
  • Desarrolladores con asistentes de código IA (suscripciones personales) que procesan código interno
  • RRHH usando herramientas de screening IA para filtrar CVs sin proceso de adquisición
  • Marketing usando cuentas personales de Midjourney/DALL-E para imágenes de campaña
  • Finanzas usando herramientas analíticas IA para procesar datos financieros sin conocimiento de TI
  • Empleados usando herramientas de resumen de reuniones IA (cuentas personales) para transcribir reuniones sensibles
  • Atención al cliente creando chatbots IA no oficiales para clientes
  • Project managers usando herramientas de workflow IA integradas con sistemas corporativos mediante OAuth personal

Parte 2: Métodos de Detección

2.1 Métodos de Detección Técnica

Análisis de Red y Tráfico

VerificaciónMétodoFrecuenciaPropietario
Logs de consultas DNS — identificar solicitudes a dominios de IA conocidos (ver Anexo A)Revisar logs de firewall/DNS para dominios del Anexo ASemanalTI/CISO
Inspección HTTPS para llamadas a API de IAConfigurar dispositivo de inspección SSL para marcar endpoints de API de IAContinuoTI/CISO
Picos de ancho de banda por estación de trabajoAnalizar ancho de banda por dispositivo para identificar grandes cargas a servicios de IASemanalTI
Inventario de extensiones de navegadorAuditar extensiones instaladas en dispositivos gestionados; marcar asistentes de IAMensualTI
Descubrimiento de aplicaciones SaaSUsar CASB para identificar conexiones SaaSContinuoCISO
Revisión de autorizaciones OAuthAuditar tokens OAuth otorgados a terceros — revocar conexiones de herramientas de IA desconocidasMensualTI
Reglas de reenvío de correoVerificar reglas de reenvío hacia servicios de correo con IAMensualTI
Monitoreo de transferencia de archivos/portapapelesRevisar alertas DLP para transferencias a dominios de IAContinuoCISO/DLP

Análisis de Endpoint y Aplicaciones

VerificaciónMétodoFrecuenciaPropietario
Inventario de software instaladoComparar apps instaladas con la lista aprobada; marcar herramientas de IAMensualTI
Marcadores y contraseñas guardadas del navegadorRevisión dirigida en dispositivos de alto riesgoTrimestralTI
Conexiones de herramientas de transcripción de reunionesRevisar apps de integración de calendario para servicios de transcripción IAMensualTI
Plugins de IDE y entorno de desarrolloRevisar plugins de IDE para asistentes de código IA no aprobadosMensualTI/DevOps
Revisión MDM de dispositivos móvilesVerificar aplicaciones de IA en dispositivos móviles corporativosMensualTI

Monitoreo Cloud y SaaS

VerificaciónMétodoFrecuenciaPropietario
Integraciones de apps Microsoft 365 / Google WorkspaceRevisar apps de terceros conectadas vía OAuthMensualTI
Logs de API gatewayRevisar llamadas API internas a proveedores de IA externosSemanalTI/DevOps
Revisión de tarjetas de crédito / informes de gastosMarcar gastos por suscripciones de IAMensualFinanzas + AI Officer
Registros de adquisicionesVerificar licencias de herramientas de IA no canalizadas por TITrimestralFinanzas + TI

2.2 Métodos de Detección por Inteligencia Humana

MétodoDescripciónFrecuenciaPropietario
Briefings a managersInformar a todos los responsables sobre riesgos de Shadow AI; pedir que reporten uso observadoTrimestralRRHH + AI Officer
Q&A abiertaSesiones abiertas sobre política de IA; los empleados suelen auto-reportar Shadow AI con amnistíaSemestralAI Officer
Entrevistas de incorporaciónPreguntar a nuevos empleados sobre herramientas de IA usadas en su empleador anteriorCada incorporaciónRRHH
Entrevistas de salidaPreguntar a empleados salientes si conocen herramientas de IA usadas sin aprobaciónCada salidaRRHH
Análisis de tickets de helpdeskRevisar tickets para solicitudes de integrar, instalar o resolver problemas con herramientas de IAMensualTI/AI Officer
Observaciones informales de equipoAI Champions realizan observación informal; reportan patrones de uso no cubiertos por la políticaTrimestralAI Champions
Canal de reporte anónimoMantener línea de reporte anónima para preocupaciones sobre Shadow AIContinuoAI Officer

Parte 3: Preguntas de Encuesta Departamental

Realice esta encuesta anualmente (mínimo) y tras cualquier período de cambio significativo. La encuesta debe ser anónima salvo razones culturales justificadas. Objetivo: >75% de tasa de respuesta por departamento.

Instrucciones para Administradores de la Encuesta

  • Distribuir vía [herramienta de encuesta — p. ej., Microsoft Forms, Google Forms anónimo]
  • Permitir 2 semanas para completarla
  • Comunicar claramente: el propósito es mejorar herramientas y política, no identificar y sancionar
  • Compartir resultados anonimizados y agregados con el Comité de Gobernanza de IA

Sección A: Uso General de IA

P1. ¿Con qué frecuencia utiliza actualmente herramientas de IA en su trabajo diario?

  • Nunca
  • Ocasionalmente (algunas veces al mes)
  • Regularmente (varias veces por semana)
  • Diariamente

P2. ¿Qué categorías de herramientas de IA ha utilizado con fines laborales en los últimos 6 meses? (Seleccione todas las aplicables)

  • Asistentes de escritura IA (p. ej., ChatGPT, Claude, Gemini, Copilot)
  • Asistentes de código IA (p. ej., GitHub Copilot, Cursor, Tabnine)
  • Generadores de imágenes IA (p. ej., Midjourney, DALL-E, Adobe Firefly)
  • Herramientas de transcripción/resumen de reuniones IA (p. ej., Otter.ai, Fireflies, Teams Copilot)
  • Herramientas de traducción IA (p. ej., DeepL, Google Translate AI)
  • Herramientas de análisis de datos IA (p. ej., funciones IA en Excel, Tableau, PowerBI)
  • Herramientas de búsqueda IA (p. ej., Perplexity AI, Bing AI)
  • Herramientas de RRHH o reclutamiento IA
  • Herramientas de atención al cliente o chatbot IA
  • Otra (especifique): ___________
  • Ninguna

P3. Las herramientas que ha usado para el trabajo, ¿son?

  • Oficialmente aprobadas y proporcionadas por la organización
  • Cuentas personales/versiones gratuitas que uso por iniciativa propia
  • Una mezcla de herramientas aprobadas y personales
  • No estoy seguro/a de si las herramientas que uso están aprobadas

P4. Si utiliza herramientas de IA personales o no aprobadas para el trabajo, ¿cuál es el motivo principal? (Seleccione todas las aplicables)

  • No sabía que necesitaba aprobación
  • El proceso de aprobación tarda demasiado
  • No hay alternativa aprobada que haga lo que necesito
  • Las herramientas aprobadas no funcionan tan bien
  • Mi equipo o responsable lo fomentó
  • Es más rápido usar una herramienta gratuita que pasar por TI
  • Otro: ___________

Sección B: Manejo de Datos

P5. ¿Ha introducido alguna vez alguno de los siguientes tipos de información en una herramienta de IA no aprobada oficialmente? (Seleccione todas las aplicables)

  • Nombres o datos de contacto de clientes
  • Nombres de proyectos internos o estrategias
  • Datos financieros o previsiones
  • Nombres de empleados o información de RRHH
  • Información propietaria de productos o técnica
  • Textos contractuales o documentos legales
  • Ninguna de las anteriores
  • Prefiero no responder

P6. Cuando usa herramientas de escritura IA, ¿típicamente?

  • Escribo prompts desde cero sin información sensible
  • Pego secciones de documentos internos para que me ayude a editar o resumir
  • Pego documentos completos para que la IA trabaje con ellos
  • No uso herramientas de escritura IA

P7. ¿Sabe usted que introducir datos personales en una herramienta de IA no aprobada puede constituir una infracción del GDPR?

  • Sí, y entiendo las implicaciones
  • Sí, pero no estoy seguro/a de qué cuenta como dato personal
  • No, no era consciente de ello
  • No estoy seguro/a

Sección C: Conocimiento de la Política

P8. ¿Sabe usted que la organización tiene una política de uso de IA?

  • Sí, la he leído
  • Sí, sé que existe pero no la he leído en detalle
  • He oído hablar de ella pero no sé qué dice
  • No, no sabía que existía

P9. ¿Sabe cómo solicitar aprobación para una nueva herramienta de IA que desee usar en el trabajo?

  • Sí — conozco el proceso y a quién contactar
  • Creo que sí, pero no estoy seguro/a
  • No — no sé cómo hacerlo

P10. ¿Ha recibido formación sobre uso responsable de IA en los últimos 12 meses?

  • Sí, formación formal (p. ej., curso online, taller)
  • Sí, informal (p. ej., briefing de equipo, correo orientativo)
  • No

P11. ¿Cuán seguro/a se siente al identificar cuándo el contenido generado por IA contiene errores, sesgos o “alucinaciones”?

  • Muy seguro/a
  • Bastante seguro/a
  • No muy seguro/a
  • Nada seguro/a — a menudo acepto las salidas de IA sin cuestionar

Sección D: Equipo y Cultura

P12. ¿Su responsable directo utiliza herramientas de IA en su trabajo que usted conozca?

  • Sí — con herramientas que parecen aprobadas oficialmente
  • Sí — con herramientas que no estoy seguro/a de que estén aprobadas
  • No / No que yo sepa
  • No lo sé

P13. ¿Se sentiría cómodo/a planteando una preocupación si viera a un colega usando una herramienta de IA de manera arriesgada o inapropiada?

  • Sí, definitivamente
  • Probablemente sí
  • No estoy seguro/a
  • Probablemente no
  • Definitivamente no

P14. ¿Qué le haría sentir más apoyado/a para usar herramientas de IA correctamente? (Seleccione todas las aplicables)

  • Procesos de aprobación más rápidos para nuevas herramientas
  • Mejor orientación sobre qué puedo y qué no puedo hacer con las herramientas aprobadas
  • Más formación sobre riesgos de IA y uso responsable
  • Una gama más amplia de herramientas aprobadas para elegir
  • Una persona dedicada a la que pueda consultar
  • Nada — el apoyo actual es suficiente

P15. ¿Hay alguna herramienta de IA específica o tipo de herramienta que desearía tener disponible para su trabajo y que actualmente no está aprobada?

  • Sí (describa si se siente cómodo/a): ___________
  • No

P16. ¿Ha observado alguna vez una situación en la que se usaron herramientas de IA para tomar una decisión sobre una persona (contratación, evaluación de rendimiento, resultado de atención al cliente) sin lo que pareciera una revisión humana significativa?

  • Sí — y me preocupó
  • Sí — pero pareció correcto
  • No
  • No estoy seguro/a

P17. ¿Tiene algún otro comentario sobre las herramientas de IA y su uso en nuestra organización? (Texto libre)


Parte 4: Pasos de Remediación

4.1 Respuesta Inmediata (Día 1–3)

PasoAcciónPropietarioDocumentado en
R1Contener: suspender acceso a la herramienta no aprobada cuando el riesgo sea Alto o CríticoTI/CISORegistro de incidentes
R2Evaluar exposición de datos: determinar qué datos se introdujeron y cuál es la política de retención/entrenamiento de la herramientaAI Officer + DPORegistro de incidentes
R3Determinar si hubo datos personales involucradosDPOFormulario de incidentes GDPR
R4Notificar al responsable directo y RRHHAI OfficerSistema de RRHH
R5Asegurar cualquier salida producida por la herramienta no aprobadaPropietario del sistemaRegistro de incidentes

4.2 Investigación (Día 3–10)

PasoAcciónPropietario
R6Entrevistar a los usuarios involucrados — centrado en entender la motivación, no en culparRRHH + AI Officer
R7Revisar alcance: ¿otros empleados usan la misma herramienta?AI Officer + TI
R8Evaluar si se requiere notificación de brecha de datos (ventana de 72 horas de la AEPD)DPO
R9Revisar si la herramienta debería considerarse para aprobación formalAI Officer
R10Documentar causa raíz: ¿por qué sucedió? (¿Brecha de conocimiento, proceso o herramienta?)AI Officer

4.3 Remediación (Día 10–30)

PasoAcciónPropietario
R11Si se confirma brecha de datos personales: notificar a la AEPD en 72 horas (desde la detección); notificar a los afectados si es necesarioDPO + Legal
R12Si la herramienta tiene mérito: vía rápida en el proceso de aprobaciónAI Officer + TI
R13Formación dirigida al departamento afectadoRRHH + AI Officer
R14Recordatorio de política a todo el personal si el incidente refleja un malentendido generalizadoRRHH + AI Officer
R15Actualizar lista de bloqueo DNS/firewall si la herramienta no está aprobada y el riesgo es inaceptableTI/CISO
R16Acción disciplinaria proporcionada según política de RRHH (considerando intención, daño causado, cooperación)RRHH + Responsable directo

4.4 Revisión Post-Incidente (Día 30–45)

PasoAcciónPropietario
R17Elaborar Informe Post-IncidenteAI Officer
R18Presentar hallazgos al Comité de Gobernanza de IAAI Officer
R19Actualizar registro de riesgosAI Officer
R20Actualizar procedimientos de monitoreo de Shadow AI si se identificaron brechasCISO + AI Officer
R21Considerar si actualizar la lista de herramientas aprobadas o acelerar aprobacionesComité de Gobernanza de IA

Parte 5: Medidas de Prevención

5.1 Política y Comunicación

MedidaFrecuenciaPropietario
Comunicar política de IA en la incorporaciónCada incorporaciónRRHH
Recordatorio anual de la política de IA a todo el personal (correo + intranet)AnualAI Officer + RRHH
Publicar y mantener una lista fácil de encontrar de herramientas aprobadas en la intranetContinuoAI Officer
Informar a los responsables sobre riesgos de Shadow AI y su responsabilidad de reporteTrimestralAI Officer
Mantener un proceso de solicitud de herramienta IA rápido (5 días) para herramientas de bajo riesgoContinuoAI Officer
Publicar “herramientas más solicitadas” en la intranet para reducir la necesidad de alternativas no autorizadasTrimestralAI Officer

5.2 Controles Técnicos

ControlDescripciónPrioridadPropietario
Filtrado DNSBloquear dominios de IA de consumo no aprobados en la red corporativaAltaTI/CISO
Reglas DLPConfigurar DLP para alertar sobre cargas de datos a endpoints de IAAltaCISO
Gestión de extensiones del navegadorRestringir instalación de extensiones no aprobadas en dispositivos gestionadosMediaTI
Auditoría OAuthRevisar y revocar conexiones OAuth de terceros mensualmenteAltaTI
Despliegue de CASBImplementar Cloud Access Security Broker para visibilidad SaaS completaAltaCISO
Agente de endpointDesplegar agente de monitoreo para detectar instalaciones de herramientas de IAMediaTI
MDM para móvilesInscribir todos los dispositivos con datos laborales en MDM; restringir tiendas de apps no aprobadasMediaTI
Monitoreo de gastosMarcar cargos SaaS relacionados con IA en el sistema de informes de gastosMediaFinanzas + AI Officer

5.3 Cultura e Incentivos

MedidaDescripciónPropietario
Enfoque positivoPresentar el proceso de aprobación como un servicio, no como una barrera — “le ayudamos a obtener las herramientas que necesita de forma segura”AI Officer + Comunicación
Vía rápida para solicitudes de buena feLos empleados que solicitan una herramienta reciben respuesta en 5 días para herramientas de bajo riesgoAI Officer
ReconocimientoReconocer a los empleados que identifican y reportan Shadow AI de buena feAI Officer + RRHH
Feedback en solicitudesCuando se rechaza una solicitud, proporcionar razones claras y sugerir alternativasAI Officer
Newsletter trimestral de IACompartir herramientas aprobadas, consejos y actualizaciones regulatoriasAI Officer

Parte 6: Herramientas de Monitoreo

6.1 Herramientas Técnicas Recomendadas

CategoríaPropósitoEjemplosNotas
CASBDescubrir y monitorear uso de SaaS y herramientas de IAMicrosoft Defender for Cloud Apps, Netskope, Palo Alto SASEInversión empresarial; alto ROI para visibilidad de Shadow AI
Filtrado DNSBloquear dominios de IA no aprobados; registrar consultas DNSCisco Umbrella, Cloudflare Gateway, DNSFilterMenor coste; buen primer paso
DLPDetectar cargas de datos sensibles a endpoints de IAMicrosoft Purview DLP, Forcepoint, Symantec DLPEfectivo pero genera falsos positivos que requieren ajuste
EDRDetectar instalaciones de herramientas de IA y comportamiento sospechoso en endpointsCrowdStrike Falcon, SentinelOne, Microsoft Defender for EndpointHerramienta de seguridad amplia con caso de uso para Shadow AI
Análisis de tráfico de redIdentificar llamadas API de IA y flujos de datosDarktrace, ExtraHop, Vectra AIAvanzado; requiere experiencia para interpretar
Gestión de navegadorControlar y auditar extensiones de navegadorChrome Enterprise, Microsoft Edge managementEfectivo para flotas de dispositivos gestionados
MDM/EMMControlar aplicaciones en dispositivos móviles y remotosMicrosoft Intune, Jamf, VMware Workspace ONEEsencial para entornos BYOD
SIEMCorrelacionar eventos de seguridad; detectar patrones de Shadow AIMicrosoft Sentinel, Splunk, IBM QRadarRequiere desarrollo de reglas específicas para IA

6.2 Dominios de IA Conocidos a Monitorear

(Esta lista requiere actualizaciones regulares — el AI Officer debe revisarla trimestralmente)

ServicioDominio(s)Nivel de riesgoNotas
ChatGPT (consumo)chat.openai.com, openai.comAltoVersión gratuita puede entrenar con inputs
Claude (consumo)claude.aiAltoVersión de consumo — sin DPA empresarial
Google Gemini (consumo)gemini.google.com, bard.google.comAltoVersión de consumo
Perplexity AIperplexity.aiAltoBúsqueda IA de consumo
Midjourneymidjourney.com, discord.comMedioGeneración de imágenes
Otter.ai (personal)otter.aiAltoTranscripción de reuniones — datos de audio
Fireflies.ai (personal)fireflies.aiAltoTranscripción de reuniones
Notion AI (personal)notion.soMedioToma de notas con funciones de IA
Grammarly (personal)grammarly.comMedioAsistente de escritura — procesa todo el texto
DeepL (personal)deepl.comMedioHerramienta de traducción
Copy.aicopy.aiMedioEscritura IA
Jasper AIjasper.aiMedioEscritura IA
Runway MLrunwayml.comMedioGeneración de vídeo/imagen
Character.aicharacter.aiBajo-MedioIA conversacional
Pi.aipi.aiBajo-MedioIA conversacional

6.3 Métricas de Detección a Seguir

MétricaObjetivoMediciónFrecuencia
Nº de instancias de Shadow AI detectadasTendencia hacia 0Monitoreo TI + encuestaTrimestral
Tiempo desde detección hasta contención (riesgo Alto)<4 horasRegistro de incidentesPor incidente
% empleados que saben solicitar aprobación de herramienta IA>85%Encuesta anual P9Anual
Tasa de finalización de encuesta de IA>75%Herramienta de encuestaAnual
Nº de gastos en herramientas IA no aprobadas detectadosTendencia hacia 0Revisión financieraMensual
% managers informados sobre riesgos de Shadow AI100%Registros de formaciónAnual

Anexo A — Tarjeta de Referencia Rápida de Shadow AI

(Imprimir y colocar en áreas de equipo; incluir en el pack de incorporación)

¿ES ESTO SHADOW AI?

Pregúntese:

  1. ¿Esta herramienta de IA está en la Lista de Herramientas Aprobadas? [Enlace a la intranet]
  2. ¿TI o el AI Officer aprobaron esta herramienta?
  3. ¿Presenté un Formulario de Solicitud de Herramienta?

Si la respuesta a las tres es NO — deténgase y presente una solicitud primero.

QUÉ HACER SI DETECTA SHADOW AI EN SU EQUIPO

  1. No confronte al colega directamente
  2. Hable con su AI Champion o Responsable directo
  3. O envíe un correo a [ai-incidents@organización.com] (los reportes pueden ser anónimos)

GUÍA RÁPIDA: QUÉ NO INTRODUCIR EN NINGUNA HERRAMIENTA DE IA (APROBADA O NO)

  • Nombres, direcciones o datos de contacto de clientes
  • Datos personales de empleados (salario, rendimiento, salud)
  • Contraseñas, API keys o credenciales de cualquier tipo
  • Documentos clasificados o restringidos
  • Documentos con privilegio legal

Plantilla proporcionada por VORLUX AI | vorluxai.com Este documento es solo orientativo, no constituye asesoramiento jurídico. Versión 1.0 | Para uso de cumplimiento del EU AI Act | Última actualización: 2026-04-05

EU AI Act: 99 days to deadline

15 minutes to evaluate your case

No-commitment initial consultation. We analyze your infrastructure and recommend the optimal hybrid architecture.

No commitment 15 minutes Custom proposal

136 pages of free resources · 26 compliance templates · 22 certified devices