0% encontró este documento útil (0 votos)
72 vistas20 páginas

Wa0001

El documento analiza el impacto de la Inteligencia Artificial (IA) en la seguridad pública, destacando su utilidad en la labor policial a través de aplicaciones como la predicción delictiva y el reconocimiento biométrico. También aborda las amenazas asociadas a la IA, como los deepfakes y la desinformación, así como el marco legal vigente en España y la UE. Finalmente, se proponen estrategias para la formación y colaboración de la policía en el uso responsable de estas tecnologías.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
72 vistas20 páginas

Wa0001

El documento analiza el impacto de la Inteligencia Artificial (IA) en la seguridad pública, destacando su utilidad en la labor policial a través de aplicaciones como la predicción delictiva y el reconocimiento biométrico. También aborda las amenazas asociadas a la IA, como los deepfakes y la desinformación, así como el marco legal vigente en España y la UE. Finalmente, se proponen estrategias para la formación y colaboración de la policía en el uso responsable de estas tecnologías.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INTELIGENCIA ARTIFICIAL:

IMPACTO EN LA SEGURIDAD
PÚBLICA, CIBERDELINCUENCIA
Y CIBERSEGURIDAD
DAVID TEJEDOR RODRIGUEZ
Esta documento ofrece una visión clara y práctica del impacto de
la Inteligencia Artificial (IA) en la labor policial. Comienza
explicando qué es la IA y por qué es clave que los cuerpos de seguridad
la comprendan, sin tecnicismos pero con rigor. Se analizan casos reales
donde la IA ya ayuda a la policía (predicción delictiva, análisis de
redes, reconocimiento biométrico, automatización de tareas).

A continuación, se detallan las principales amenazas: deepfakes,


desinformación, suplantaciones, delitos sexuales digitales y los riesgos
de sesgos algorítmicos. Para cada riesgo, se presentan herramientas
de detección y mitigación accesibles, junto con buenas prácticas
operativas.

Repasamos el marco legal vigente en España y la UE, destacando las


últimas reformas del Código Penal y la nueva Ley Europea de IA
(RIA), que establecen qué usos están permitidos y qué prácticas están
prohibidas o controladas.

Finalmente, se exponen propuestas prácticas para la Policía:


formación continua, uso responsable de herramientas tecnológicas,
colaboración con otras instituciones y estrategias de participación
comunitaria. Todo con un enfoque pedagógico y aplicable al trabajo
diario de los agentes.
Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

1. Introducción: ¿Qué es la IA y por qué debe


entenderla la policía?
La Inteligencia Artificial (IA) se refiere a sistemas informáticos capaces de realizar tareas
que normalmente requieren inteligencia humana, como analizar datos, reconocer
patrones, tomar decisiones simples e incluso aprender de la experiencia. En términos
sencillos, la IA imita ciertas funciones del pensamiento humano mediante algoritmos y
modelos matemáticos entrenados con grandes cantidades de datos. Por ejemplo, una IA
puede reconocer rostros en una foto, traducir automáticamente una frase o predecir
tendencias a partir de datos históricos, todo ello gracias a que ha “aprendido” patrones a
partir de muchos ejemplos.

Entender cómo funciona la IA es cada vez más importante para la policía. ¿Por qué?
Algunas razones clave:

● Los delincuentes están aprovechando la IA para nuevas formas de crimen. Por


ejemplo, hoy es posible falsificar videos o voces de personas (“deepfakes”) para
engañar o extorsionar, o automatizar ataques cibernéticos. La policía debe conocer
estas amenazas para identificarlas y combatirlas eficazmente.
● La IA ofrece herramientas útiles que pueden mejorar el trabajo policial. Desde
sistemas que ayudan a analizar grandes volúmenes de datos (ej. miles de horas de
CCTV) hasta programas que priorizan recursos policiales según probabilidades de
delito, la tecnología bien usada puede hacer a la policía más efectiva y proactiva.
● Decisiones informadas: Si los agentes entienden las bases de la IA, podrán tomar
decisiones informadas sobre su uso (o no uso) en el día a día. Esto incluye saber
sus limitaciones y riesgos (por ejemplo, sesgos o errores que pueda tener un
algoritmo) y no confiar ciegamente en “lo que diga la máquina”.
● Protección de derechos y legalidad: La policía, como garante de la ley, debe
asegurarse de que las aplicaciones de IA respeten los derechos de las personas y
las leyes vigentes. Para ello es necesario comprender al menos de forma básica
cómo funcionan estas tecnologías, qué datos utilizan y qué implicaciones tienen en
privacidad, ética y legalidad.

2. Aplicaciones útiles de la IA para cuerpos policiales


A pesar de los desafíos, la IA ofrece oportunidades muy interesantes para apoyar la labor
policial. Repasemos algunas aplicaciones reales (ya en uso) y futuras, adaptadas al contexto
de la seguridad pública. Estas aplicaciones abarcan desde la predicción de delitos antes de
que ocurran, hasta la mejora de la atención al ciudadano. Veamos cada caso:

● Policía predictiva y análisis delictivo: Una aplicación emergente es el uso de IA


para analizar datos históricos de delincuencia y detectar patrones que ayuden a
prevenir delitos futuros o asignar mejor los recursos. Un ejemplo es el desarrollo en
España de sistemas de patrullaje predictivo: en 2015 se creó una herramienta piloto
para la Policía Nacional capaz de pronosticar “puntos calientes” de criminalidad a

DAVID TEJEDOR RODRIGUEZ 2


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

partir de patrones espacio-temporales, orientando dónde conviene reforzar la


vigilancia. Asimismo, el sistema VioGén (de la Secretaría de Estado de Seguridad)
incorporó en 2019 algoritmos que predicen el riesgo en casos de violencia de género
– uno calcula la probabilidad de reincidencia del agresor y otro la probabilidad de
feminicidio. Según el nivel de riesgo que estima la IA en VioGén, se indican medidas
de protección policial apropiadas en cada caso. Estos sistemas ilustran cómo la IA
puede ayudar a anticiparse al delito y priorizar la actuación policial.
● Atención al ciudadano y emergencias: La IA también se está usando para mejorar
la comunicación con la ciudadanía. Un caso reciente es chatbots inteligentes que
asisten a víctimas o denunciantes. Por ejemplo, la Policía Local de Valencia participa
en un proyecto europeo con un chatbot llamado Aino enfocado en víctimas de
violencia de género. Aino es un “agente virtual” capaz de mantener un diálogo natural
con las víctimas, orientarlas e incluso detectar casos de maltrato no denunciados,
ofreciendo una vía de comunicación no intrusiva. Importante: Aino no solicita datos
personales ni requiere instalar nada; basta con acceder a una web para chatear de
forma anónima. Esta herramienta, en fase piloto, busca ayudar al ~80% de víctimas
que no se atreven a denunciar, ofreciéndoles apoyo inmediato y confidencial. Es un
ejemplo de cómo la IA (procesamiento de lenguaje natural) puede mejorar la
atención ciudadana en ámbitos sensibles. En el futuro, podríamos ver asistentes
virtuales en comisarías o en páginas web municipales, resolviendo dudas frecuentes
de los vecinos (horarios, trámites) o recogiendo avisos de forma automatizada para
agilizar la respuesta policial.
● Automatización de tareas administrativas: Un beneficio práctico de la IA es reducir
la carga burocrática de los agentes, liberando tiempo para labores en la calle. En
algunas policías de [Link]. ya prueban sistemas de IA que redactan borradores de
informes a partir de dictados de voz de los agentes, acelerando la elaboración de
atestados y papeleo rutinario. Imaginemos terminar una intervención y que un
asistente de IA nos genere el informe básico en segundos, listo para revisar y firmar.
Esto es posible con tecnologías de procesamiento del lenguaje que entienden la voz
del agente y generan texto estructurado. Otra tarea que la IA puede automatizar es la
revisión de video vigilancia: en vez de que un policía deba mirar horas de
grabaciones, un software inteligente puede detectar eventos (p. ej. una pelea, un
objeto abandonado, una intrusión en zona restringida) y alertar solo cuando ocurre
algo relevante. Esto optimiza la vigilancia 24/7 sin fatigar al personal.
● Análisis de redes e inteligencia: Las herramientas de Big Data e IA permiten a las
Fuerzas de Seguridad examinar grandes volúmenes de datos en busca de
amenazas. Por ejemplo, ya es factible analizar publicaciones en redes sociales
mediante algoritmos para detectar indicios de delitos o riesgos. Un sistema de IA
puede rastrear palabras clave, patrones de interacción o imágenes sospechosas que
apunten a, digamos, un caso de ciberacoso o la planificación de un acto violento. De
hecho, se está investigando el uso de IA para alerta temprana contra terrorismo:
identificar en foros y RRSS comportamientos que sugieran radicalización o
preparación de atentados. Del mismo modo, la IA puede ayudar en el análisis de
redes criminales: dada información de llamadas telefónicas intervenidas (con orden
judicial), correos electrónicos o transacciones, un algoritmo puede extraer conexiones
entre personas, detectar patrones de comunicación inusuales y básicamente

DAVID TEJEDOR RODRIGUEZ 3


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

“mapear” una organización delictiva más rápido que un analista humano. Por
último, en investigaciones digitales (informática forense), la IA puede clasificar
automáticamente miles de archivos incautados (imágenes, chats), priorizando
aquellos más relevantes (por ejemplo, identificando imágenes potencialmente ilícitas
como pornografía infantil para su revisión urgente).
● Biometría e identificación: Uno de los campos de IA más útiles para la policía es el
reconocimiento de patrones biométricos, como rostros, huellas dactilares o voces.
En España, la Policía Nacional ha implementado recientemente un sistema
automático de reconocimiento facial llamado ABIS (Automated Biometric Identification
System). Desde agosto de 2023, ABIS emplea algoritmos de IA para comparar en
segundos una foto o vídeo de un sospechoso con una base de datos de 4,4 millones
de fichas policiales (rostros de detenidos). En sus primeros meses se ha usado en
más de 400 investigaciones, logrando identificación positiva de implicados en ~40%
de los casos. ¿Cómo funciona? El agente carga la imagen desconocida y el sistema
le devuelve una lista ordenada de posibles coincidencias (los rostros más parecidos
en la base). Luego, peritos humanos verifican manualmente las primeras
coincidencias para confirmar la identidad. Importante: ABIS no decide por sí solo,
siempre requiere la confirmación de dos operadores expertos que coincidan en la
identificación. Además de rostros, la IA lleva años ayudando en identificación de
huellas dactilares y ADN, acelerando comparativas en bases de datos. También
existen sistemas de reconocimiento de matrículas y características de vehículos
mediante vídeo, útiles para localizar coches sospechosos en la vía pública en tiempo
real.

Ejemplo: La IA ya se utiliza en España para vigilar espacios públicos y prevenir el


vandalismo. Granada fue la primera ciudad en implantar un sistema de visión artificial que
detecta pintadas grafiteras casi al instante de producirse. Desarrollado por la startup local
Innovasur, este sistema analiza en tiempo real las imágenes de cámaras de vigilancia
urbanas, reconociendo cambios característicos de una pintada (aerosol sobre muros). En
cuanto el algoritmo detecta un graffiti, envía una alerta con la ubicación y hora exacta a los
agentes de Policía Local en patrulla, permitiendo pillarlos in fraganti o limpiar rápidamente
la pintada. Incluso puede avisar de merodeos sospechosos (personas rondando donde no
deberían) que suelen preceder actos vandálicos. Este caso muestra cómo la IA puede
multiplicar la eficacia de la vigilancia urbana: más ojos electrónicos cuidando la ciudad y
avisando al policía solo cuando pasa algo. En general, la visión artificial con IA está
empezando a utilizarse para detectar conductas anómalas en espacios públicos (riñas,
abandonos de objetos, intrusiones), lo que en un futuro cercano será un apoyo valioso para
las policías en el control del entorno urbano.

En síntesis, las aplicaciones de IA al servicio policial son muy variadas. Podemos resumir su
utilidad principal en tres áreas: (1) Aumentar la capacidad analítica – la máquina procesa
datos masivos y encuentra lo que importaría años detectar manualmente; (2) Automatizar
tareas repetitivas – agilizando papeleo, búsquedas de información, vigilancia rutinaria, etc.,
para que el agente se enfoque en lo crítico; y (3) Anticipar y prevenir – dando herramientas
para actuar antes de que ocurra el delito o escale un problema, en lugar de solo reaccionar
después. Todo esto, por supuesto, complementando (no sustituyendo) la labor humana: la

DAVID TEJEDOR RODRIGUEZ 4


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

última palabra y la interpretación final siguen siendo del policía. Veamos ahora el reverso de
la moneda: ¿qué riesgos y amenazas trae la IA en el terreno de la seguridad?

3. Riesgos y amenazas asociados al auge de la IA


Así como la IA ofrece ventajas, también abre la puerta a nuevos riesgos y formas de
delincuencia. Es vital que los agentes conozcan estas amenazas para reconocerlas en la
calle o en Internet. A continuación, detallamos los principales riesgos ligados a la IA en
seguridad pública:

● Deepfakes y desinformación audiovisual: El término deepfake alude a contenidos


audiovisuales (videos, audios o imágenes) ultrafalsificados mediante IA, de tal modo
que presentan a una persona haciendo o diciendo algo que nunca ocurrió. La calidad
de algunos deepfakes actuales es asombrosamente alta: pueden poner palabras en
la boca de un líder político imitando su voz y gestos, o hacer que la imagen de una
persona realice actos que jamás hizo. Esto obviamente se presta a campañas de
desinformación y engaño masivo. Por ejemplo, en 2023 aparecieron videos falsos
del presidente de Ucrania ordenando rendirse (propaganda bélica) y audios sintéticos
que hundieron la reputación de un candidato en unas elecciones europeas. Los
deepfakes se usan para difundir noticias falsas de gran impacto visual, erosionando
la confianza pública en la información. Un ciudadano podría ver en redes un vídeo de
nuestro Alcalde anunciando una falsa emergencia y creerlo auténtico. ¿Imaginen el
caos?. Por eso, las fake news potenciadas con IA son un desafío para el orden
público. La policía debe estar alerta ante contenidos virales sospechosos,
especialmente si provocan reacciones peligrosas (pánico, violencia). Distinguir un
video real de uno falso será cada vez más difícil a simple vista, requiriendo técnicas
forenses especializadas (que veremos más adelante). En resumen, la IA hace más
fácil y barata la creación de desinformación convincente, lo que puede amenazar
procesos democráticos, agravar conflictos sociales o generar alarmas infundadas.
● Contenido sexual sintético no consentido: Uno de los usos más perversos de los
deepfakes es la creación de pornografía falsa con la imagen de personas reales
sin su consentimiento. Mediante IA, un delincuente puede tomar fotos de la cara de
una mujer (por ejemplo obtenidas de redes sociales) y superponerlas en videos
pornográficos, logrando que parezca auténtico. Estas montajes sexuales sintéticos, al
viralizarse, destruyen la intimidad y el honor de la víctima, provocando un grave
daño psicológico. Lamentablemente se ha reportado un incremento de este tipo de
violencia digital, muchas veces contra mujeres jóvenes, celebridades o incluso
compañeras de trabajo, a modo de venganza o coacción. En España, hasta ahora se
perseguían estos hechos con figuras genéricas (como delitos contra la integridad
moral, amenazas o revelación de secretos, según el caso). Conscientes del vacío
legal, las autoridades están actuando: el Gobierno ha propuesto reformar el Código
Penal para tipificar expresamente como delito la difusión de deepfakes sexuales
sin consentimiento. Este proyecto de ley (marzo 2025) califica estas
ultrafalsificaciones con rostro o cuerpo de persona como delito, siendo una iniciativa
pionera en Europa. En la práctica policial, esto significa que pronto quien genere o
comparta un video sexual falso de otra persona podrá ser acusado de delito,
DAVID TEJEDOR RODRIGUEZ 5
Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

facilitando la persecución penal. Mientras tanto, como agentes debemos tomar muy
en serio las denuncias de este tipo: son una forma de violencia sexual digital, a
menudo acompañadas de acoso o extorsión (sextorsión) – [Link]. “pago para que no
publique este video tuyo”. Ninguna víctima debe sentir vergüenza de reportarlo; la
culpa es del agresor que creó el contenido falso. Además, con menores de edad es
directamente pornografía infantil, aunque sea sintética, y está gravemente penado
(art. 189 CP).
● Suplantaciones de identidad y fraudes con IA: Más allá de los vídeos
espectaculares, la IA también permite falsificar identidades de forma silenciosa. Por
ejemplo, hoy existe software de clonación de voz: con apenas unos minutos de
grabación de la voz de alguien, se entrena un modelo que puede luego hablar
cualquier frase imitando ese timbre y entonación. Esto ya se ha empleado en fraudes
telefónicos (“el timo del CEO”): los estafadores clonan la voz de un directivo y llaman
a un empleado para que realice una transferencia urgente, creyendo que obedece
órdenes legítimas. También se pueden generar fotos falsas muy realistas de una
persona inexistente (o de alguien suplantando a otro). Imaginemos un delincuente
creando una identidad ficticia por IApara ganarse la confianza de una víctima en redes
sociales (casos de grooming o estafas románticas) o para cruzar un control con
documentación falsa. La IA facilita estos engaños sofisticados: un chatbot podría
simular ser una persona real chateando, con estilo convincente. Para la policía, esto
significa que tradicionales delitos de estafa, usurpación de identidad o
falsificación adquieren nuevas formas digitales. Tendremos que evolucionar en
técnicas de verificación: ya no basta con “oír la voz” para confirmar que es nuestro
jefe por teléfono, ni con ver una foto en un DNI aparentemente normal. Un riesgo
añadido es la dificultad probatoria: ¿cómo demostrar que una grabación de audio
fue generada por IA y no es real? Son retos periciales importantes. Conviene que los
agentes sepamos que estas herramientas existen, para desconfiar de pruebas que
puedan haber sido manipuladas y para asesorar al ciudadano sobre nuevas
modalidades de engaño (por ejemplo, un vecino nos cuenta que recibió una
videollamada extraña de un familiar pidiendo dinero – podría ser un deepfake en vivo).
● Sesgos algoríticos y discriminación: No todos los riesgos vienen de los
delincuentes; a veces el propio uso institucional de la IA puede generar problemas si
no se hace bien. En particular, los sesgos en los algoritmos son una amenaza a los
derechos fundamentales. Un sistema de IA aprende de datos del pasado: si esos
datos reflejan prejuicios o desigualdades, la IA puede perpetuarlos o incluso
agravarlos. En el contexto policial, esto es crítico. Por ejemplo, si un algoritmo de
“policía predictiva” se entrena con historiales de detenciones que están
sobrerrepresentadas en ciertos barrios (quizá por prejuicios previos o factores
socioeconómicos), podría predecir más delito en esos mismos barrios, justificando
mayor vigilancia allí en un ciclo vicioso. Es decir, sin quererlo se podría
discriminar a comunidades desfavorecidas o minorías, enfocando
desproporcionadamente la acción policial sobre ellas debido a un bias en la IA. Un
caso real: la herramienta VeriPol que mencionamos antes – implementada en todas
las comisarías españolas en 2018 para detectar denuncias falsas – mostró indicios de
sesgo. Este algoritmo analizaba el texto de la denuncia y marcaba probabilidad de
falsedad. Sin embargo, expertos independientes criticaron que no consideraba

DAVID TEJEDOR RODRIGUEZ 6


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

variaciones lingüísticas o culturales, lo que podría perjudicar a denunciantes


extranjeros o de distinto nivel educativo, cuyos relatos quizás no encajaban en el
patrón “típico” de una denuncia veraz que el algoritmo había aprendido. De hecho, se
detectó que el uso de ciertas palabras como “navaja” desencadenaba sospecha
automática de falsedad, sesgo posiblemente nacido de los casos de entrenamiento.
Este tipo de fallos ponen en peligro la igualdad ante la ley. Otro ejemplo: los sistemas
de reconocimiento facial suelen tener menor precisión con personas de piel oscura o
mujeres, debido a que inicialmente se entrenaron con más rostros de personas
caucásicas o hombres. Esto ha llevado a identificaciones erróneas e injustas
detenciones en países donde se usó indiscriminadamente, generando protestas de
movimientos como Black Lives Matter en [Link]. (que relacionó esta tecnología con
discriminación policial). En Europa se ha tomado nota y se tiende a regular con cautela
estas herramientas para evitar sesgos (lo veremos en el marco legal). En resumen,
un uso acrítico de IA por las fuerzas de seguridad puede vulnerar derechos si la
tecnología está sesgada. Es imprescindible combinar la IA con supervisión humana
y evaluaciones constantes de equidad. La máquina debe ser una ayuda, no una
autoridad incuestionable. Si un “algoritmo policial” nos sugiere algo que va contra
nuestro criterio o parece injusto, debemos cuestionarlo y analizar por qué.
● Amenazas cibernéticas potenciadas por IA: Por último, la IA también puede usarse
para potenciar ciberataques y malware. Por ejemplo, ya existen programas
maliciosos que emplean IA para evadir antivirus, mutando su código o su
comportamiento. También se teme la llegada de ataques autónomos: bots
gestionados por IA que identifiquen vulnerabilidades en sistemas informáticos y las
exploten sin intervención humana. Otro riesgo es la generación automática de
phishings altamente personalizados – la IA puede escribir correos engañosos
imitando perfectamente el estilo de una persona (lo que antes se llamaba “spear
phishing” ahora a escala masiva). Incluso en ataques de fuerza bruta o descifrado de
contraseñas, la IA acelera el proceso al detectar patrones. Todo esto aumenta la
superficie de ciberdelincuencia. Un cuerpo policial local podría verse afectado si,
por ejemplo, un ransomware guiado por IA ataca la red del ayuntamiento o si los
delincuentes usan IA para interceptar comunicaciones policiales. Por ello, las áreas
de ciberseguridad deben reforzarse a la par que avanza la IA: tanto para usar IA
defensiva ([Link]., sistemas inteligentes que detecten intrusiones en la red municipal)
como para estar preparados ante ataques asistidos por IA. Aunque este apartado
técnico quizás afecta más a unidades especializadas (brigadas de delitos
tecnológicos, etc.), es importante que todos los agentes tengamos conciencia de que
la IA es un arma de doble filo: no solo la usaremos nosotros, también los “malos” la
están usando.

En sintesis, los riesgos van desde la erosión de la confianza pública (por fake news y
deepfakes), pasando por nuevas modalidades de delito digital (suplantaciones, estafas
automatizadas), hasta desafíos internos como evitar sesgos y malas prácticas en la propia
policía. La respuesta a estos retos no es huir de la tecnología, sino conocerla para
gestionarla con responsabilidad. Justamente, en la siguiente sección abordaremos qué
herramientas existen para detectar y mitigar estos riesgos de la IA.

DAVID TEJEDOR RODRIGUEZ 7


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

4. Herramientas de detección y mitigación al alcance de


las fuerzas policiales
Frente a las amenazas mencionadas (deepfakes, desinformación, suplantaciones, etc.), la
buena noticia es que también la propia IA y otras tecnologías nos brindan herramientas
para combatirlas. Aquí resumimos algunas herramientas y estrategias accesibles que los
agentes pueden utilizar o que están siendo desarrolladas para mitigar riesgos:

● Detección de deepfakes (videos/fotos falsos): Han surgido varias herramientas


especializadas en analizar contenido multimedia y descubrir si ha sido
manipulado por IA. Por ejemplo, la empresa Intel ha desarrollado FakeCatcher, un
software que detecta vídeos falsos en tiempo real buscando “pistas de veracidad”en
las imágenes (microexpresiones, patrones de color de la piel al latir el pulso, etc.),
logrando tasas de acierto superiores al 90%. Otras soluciones como Sentinel o
Sensity permiten cargar un vídeo o imagen sospechosa y generan un informe
forense indicando si hay manipulación digital y en qué zonas del medio se observa.
Sensity, por ejemplo, es utilizada por gobiernos y empresas para monitoreo en
tiempo real de amenazas visuales, pudiendo escanear grandes volúmenes de
contenido en busca de signos de deepfake. Muchas de estas herramientas combinan
múltiples técnicas: detección de inconsistencias en rostros (parpadeo antinatural,
expresiones congeladas), análisis de audio (voz robotizada o síncronía labial
imperfecta), revisión de metadatos del archivo y búsqueda inversa en internet (para
ver si el video ya existía antes). Si bien algunas plataformas son de pago o para
entidades (p. ej. orientadas a bancos para evitar fraudes de identidad), también hay
recursos abiertos: la Unión Europea patrocinó un proyecto llamado WeVerify, que
proporciona una extensión de navegador gratuita para verificar imágenes y videos
en línea. WeVerify integra búsquedas inversas, división de videos en fotogramas para
análisis y otras utilidades útiles para periodistas y policías en la lucha contra la
desinformación. Consejo práctico: Ante un video dudoso que circula por redes, un
agente puede usar técnicas básicas como fijarse en los detalles físicos: a veces los
deepfakes fallan en reflejos de gafas, en la sincronización de la sombra de la boca
con el audio o en movimientos bruscos donde la cara se difumina. Ningún indicador
por sí solo es infalible, pero varios signos juntos pueden delatar la falsificación. Para
imágenes, un truco es utilizar la búsqueda inversa de Google u otras (por ejemplo,
Yandex) para ver si la foto original proviene de otro contexto. En casos críticos, se
puede recurrir a laboratorios forenses o equipos especializados (la Policía Nacional y
Guardia Civil cuentan con unidades de ciberdelincuencia con herramientas avanzadas
de este tipo). La clave es no dar por bueno contenido sensible sin verificar, sobre
todo si puede tener consecuencias graves.
● Contrarrestar la desinformación online: Además de verificar pieza a pieza, existen
herramientas de vigilancia de redes que ayudan a detectar campañas coordinadas
de bulos. Por ejemplo, algoritmos que identifican bots(cuentas automatizadas)
difundiendo cierto mensaje inusualmente, o que monitorean tendencias para alertar
de posibles bulos virales que afecten a la seguridad (como falsos rumores de
secuestros de niños que puedan generar alarma social). En el entorno

DAVID TEJEDOR RODRIGUEZ 8


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

hispanohablante, organizaciones como [Link] o Newtral ofrecen recursos útiles:


Maldita tiene un bot de Whatsapp donde cualquier ciudadano (y por supuesto un
policía) puede enviar un posible bulo y reciben ayuda para verificarlo. También
publican desmentidos de hoaxes comunes, que pueden servirnos para estar al día de
las estafas de moda. Como agentes locales, una forma de mitigar efectos de
desinformación es comunicar rápido y claramente a la población cuando
detectemos un bulo peligroso circulando. Por ejemplo, si en un barrio alguien difunde
por Facebook un pánico infundado (digamos, “están envenenando el agua del grifo”),
la policía puede, en coordinación con el ayuntamiento, publicar un desmentido oficial
en redes y quizá organizar una charla vecinal para aclarar la situación. La
transparencia y la información veraz son nuestras aliadas para neutralizar la
desinformación.
● Protección contra suplantaciones y fraudes: Para combatir las suplantaciones de
identidad facilitadas por IA, lo primero es la prevención y concienciación. Por
ejemplo, muchas jefaturas están avisando a comerciantes y vecinos de que existe el
“timo de la voz clonada”, recomendando verificar por otro canal cualquier orden
sospechosa (si el “jefe” pide algo raro por teléfono, devolver la llamada a su número
conocido, etc.). En cuanto a herramientas, en el ámbito bancario se emplean
soluciones de biometría de voz inversa: sistemas que analizan una llamada entrante
y pueden alertar “esta voz parece clonada digitalmente” por matices imperceptibles
para el humano. No es descabellado pensar que en el futuro la policía disponga de
dispositivos portátiles o apps para verificar vídeos o audios en el momento (así como
hoy tenemos lectores de huella, mañana quizá verificadores de autenticidad
multimedia). Mientras tanto, algo accesible es usar la experiencia y el protocolo: si
un ciudadano aporta como prueba un audio o vídeo crucial, se puede enviar a análisis
forense técnico antes de actuar solo en base a él. Para la documentación falsificada
por IA (imágenes de rostros en DNIs, etc.), se sigue recomendando el método
tradicional de verificación cruzada: comprobar datos, hologramas, contrastar con
bases oficiales. La IA generativa aún puede fallar en detalles de documentos de
identidad, y esos pequeños fallos se detectan con ojo entrenado. Además, surgen
iniciativas legislativas que obligarán a contenidos generados por IA a
identificarlo(watermarking). Por ejemplo, la Ley europea de Servicios Digitales y la
futura normativa de IA exigirán a las plataformas que un anuncio político que use
deepfake lo indique claramente, o que las imágenes creadas por IA incluyan
metadatos señalándolo. Todo esto ayudará a la mitigación en origen.
● Mitigar sesgos y errores algorítmicos: La mejor “herramienta” aquí es más
organizativa que tecnológica: consiste en implementar controles humanos y
auditorías a los sistemas de IA que usemos. Si un cuerpo policial adopta un software
de IA (sea para análisis de datos, reconocimiento facial, etc.), debe acompañarse de
formación a los agentes que lo usarán, para que entiendan sus resultados, y de
protocolos que eviten abusos. Por ejemplo, si utilizamos un sistema que puntúa
riesgo de reincidencia (como VioGén), asegurar que no se toma como verdad
absoluta sino como apoyo a la valoración profesional del agente. Asimismo, se
deberían recopilar estadísticas de aciertos y errores del sistema en la práctica real, e
idealmente permitir auditorías independientes para verificar que no introduce
discriminación. En España, organismos como la Agencia de Protección de Datos

DAVID TEJEDOR RODRIGUEZ 9


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

(AEPD) han emitido directrices éticas para el uso de IA, enfatizando principios de
transparencia, necesidad y proporcionalidad especialmente cuando afecta
derechos de las personas. Una medida concreta que se está adoptando es la figura
del delegado de IA (similar al delegado de protección de datos), que supervise los
algoritmos usados en la Administración. En cuanto a herramientas técnicas, ya existen
programas de auditoría algorítmica que evaluan sesgos: por ejemplo, se pueden
probar los outputs de una IA con inputs simulados de distintos perfiles demográficos
para ver si varía injustificadamente. También la diversidad de datos de
entrenamiento es clave: si se encargase a una empresa un nuevo sistema de IA
policial, habría que exigir que los datos con que se entrene sean variados y
representativos de nuestra población para minimizar sesgos.
● Ciberseguridad impulsada por IA: Así como los atacantes la usan, la IA también
potencia la defensa. Un área en auge es la detección autónoma de intrusiones:
software de ciberseguridad que aprende el patrón normal de funcionamiento de una
red y lanza alertas cuando detecta anomalías que podrían indicar un hackeo. También
se aplica IA para analizar malware de forma más rápida – por ejemplo, Microsoft y
Google emplean IA en sus antivirus para identificar comportamiento sospechoso de
programas desconocidos. Para las policías locales, una herramienta accesible es
aprovechar servicios de seguridad de instituciones mayores: el Instituto Nacional de
Ciberseguridad (INCIBE) en España ofrece asesoramiento y herramientas gratuitas
para ayuntamientos en materia de protección digital. Mantener los sistemas
actualizados, usar gestores de contraseñas robustos y doble factor de autenticación,
etc., siguen siendo medidas básicas efectivas contra ataques, con o sin IA. Y en caso
de un incidente, notificar de inmediato a los expertos (la Unidad de Delitos
Telemáticos de GC, por ejemplo) para contener el daño.

En síntesis, por cada amenaza hay esfuerzos en marcha para contrarrestarla. Es como un
juego del gato y el ratón tecnológico: se crean deepfakes, pero también detectores de
deepfakes; la IA facilita fraudes, pero también puede ayudar a identificarlos. Como policías,
es útil mantenernos al día de estas herramientas. Al final del documento incluimos una hoja
de recursos recomendados (muchos de ellos gratuitos o públicos) que pueden ser de ayuda
en vuestra labor.

Antes de ir a esas recomendaciones prácticas, revisemos el marco legal vigente que regula
todo esto. ¿Qué dice la ley española sobre el uso de IA, la ciberdelincuencia y la protección
de datos? ¿Qué cambios normativos vienen en camino? Lo aclaramos a continuación.

5. Marco jurídico vigente en España y la UE sobre IA,


ciberseguridad y ciberdelincuencia
La incorporación de la IA y las nuevas tecnologías al ámbito policial está respaldada (y
limitada) por un conjunto de leyes y reglamentos que conviene conocer. A continuación,
hacemos un repaso del marco jurídico actualizado a 2025, destacando lo más relevante para
la policía:

DAVID TEJEDOR RODRIGUEZ 10


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

Código Penal y legislación española: Nuestro Código Penal ya tipifica diversos delitos
informáticos y relacionados con el uso malicioso de datos. Por ejemplo, el acceso ilícito a
sistemas (hacking) está penado, igual que dañar o borrar datos de terceros (sabotaje
informático) y, por supuesto, delitos clásicos adaptados al medio digital como estafas por
internet, amenazas o coacciones realizadas online, etc. Sin embargo, ante fenómenos
novedosos como los deepfakes, se han identificado lagunas.

Como mencionamos, en marzo de 2025 el Gobierno presentó un Proyecto de Ley Orgánica


que reformará el Código Penal para abordar específicamente dos áreas emergentes: los
deepfakes sexuales no consentidos y el grooming online. Esta reforma, aún en trámite,
propone penalizar expresamente la creación o difusión de deepfakes usando la imagen
de alguien sin permiso con contenido sexual explícito.

Asimismo, endurece el castigo del grooming (engaño pederasta por internet) considerándolo
circunstancia agravante en delitos sexuales. También introduce como pena accesoria la
prohibición de acceso a entornos digitales al condenado (por ej., prohibirle usar redes
sociales), buscando prevenir la reincidencia en estos delitos digitales. Todo esto muestra la
fuerte respuesta legal que se está dando a estas amenazas de IA contra la intimidad y los
menores. Además de este proyecto, recordemos que desde 2015 el CP español ya castigó
la difusión no consentida de imágenes íntimas reales(el llamado “revenge porn”, art. 197.7
CP), que se podría aplicar análogamente a casos de deepfakes íntimos hasta que entre en
vigor la ley específica. Y para delitos de usurpación de identidad, aunque no haya uso de IA,
existe el art. 401 CP (usurpación estado civil) y tipos de estafa que cubren muchas situaciones
de suplantación. En resumen, el CP se está poniendo al día: la policía contará con
herramientas legales más claras para perseguir a quienes utilicen la IA con fines delictivos,
especialmente en materia de violencia digital. Por otro lado, en cuanto a ciberseguridad,
tenemos la Ley Orgánica 10/2022 de Protección de Infraestructuras Críticas, que incluye
ciberataques graves dentro de la definición de atentados contra infraestructuras esenciales,
permitiendo actuar contra ellos.

Protección de Datos y privacidad: Un aspecto central al usar IA (especialmente con datos


personales, como imágenes de ciudadanos) es cumplir la normativa de protección de datos.
En España y la UE rigen el RGPD (Reglamento General de Protección de Datos) y su
desarrollo nacional, la LOPDGDD 3/2018. Estos marcos legales establecen principios como
minimización de datos, finalidad legítima, seguridad y confidencialidad. Para la policía
existen ciertas excepciones (por motivos de seguridad pública se pueden tratar datos sin
algunos consentimientos, etc.), pero siempre bajo el principio de proporcionalidad y con
garantías. Por ejemplo, al usar un sistema de reconocimiento facial como ABIS, se está
procesando un dato biométrico sensible (el rostro) – solo se justifica legalmente porque se
aplica a identificar criminales en investigaciones concretas, con base legal en la Ley de
Fuerzas y Cuerpos de Seguridad y cumpliendo salvaguardas. La Agencia Española de
Protección de Datos (AEPD) vigila de cerca estas aplicaciones. En el caso de ABIS, el
Ministerio del Interior indicó que la AEPD no había recibido aún reclamaciones ni consultas
específicas, por lo que no había iniciado una investigación sobre el sistema. No obstante, la
AEPD ha emitido informes sobre el uso de reconocimiento facial, subrayando que no se

DAVID TEJEDOR RODRIGUEZ 11


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

permitiría su uso masivo en tiempo real en espacios públicos sin base legal específica.
De hecho, la nueva regulación europea de IA (que comentaremos enseguida) prohíbe
expresamente esas identificaciones biométricas en tiempo real en lugares públicos. Así que,
a nivel de protección de datos, la policía debe coordinarse con Delegados de Protección de
Datos cuando quiera implementar cualquier herramienta de IA que maneje datos de
ciudadanos (cámaras inteligentes, análisis de redes con datos personales, etc.), asegurando
realizar evaluaciones de impacto y medidas de seguridad adecuadas. Vale recordar que la
LOPDGDD incluyó en 2018 una sección de Derechos Digitales (Título X) que, por ejemplo,
reconocen derechos como la neutralidad de internet, la desconexión digital, etc., reflejando la
importancia de equilibrar innovación con derechos.

Marco legal europeo sobre IA: En la Unión Europea se ha dado un paso histórico con la
aprobación de la Ley Europea de Inteligencia Artificial (AI Act), el primer marco jurídico
integral sobre IA del mundo. Se trata de un Reglamento europeo que entró en vigor en
2024 y que comenzará a ser de pleno cumplimiento en 2025. Al ser un reglamento, es
directamente aplicable en todos los países, creando unas reglas comunes. ¿Qué establece?
En esencia, la Ley de IA sigue un enfoque basado en niveles de riesgo de las aplicaciones
de IA:

● Sistemas de riesgo inadmisible (prohibidos): Son aquellos usos de IA que se


consideran una amenaza muy grave para derechos fundamentales o la seguridad.
Están prohibidos en la UE desde febrero de 2025. Aquí figuran, por ejemplo: los
sistemas de identificación biométrica remota en tiempo real en públicos(como
cámaras escaneando caras de viandantes para buscar delincuentes – salvo
excepciones muy tasadas); los sistemas de puntaje social al estilo de “nota
ciudadana” (valorar a personas por su comportamiento o características para
discriminarlas, algo que se ha visto en otras latitudes); las IA que utilizan técnicas
manipuladoras subliminales para influir en el comportamiento de alguien sin su
consentimiento (imaginemos anuncios personalizados explotando miedos
subconscientes); o los sistemas que infieren emociones de la gente en contextos
como entrevistas de trabajo, instituciones educativas, etc., para tomar decisiones
sobre ellas. Todos esos están vetados por considerarse contrarios a nuestros valores
(dignidad, privacidad, no discriminación). Nota:En el proceso legislativo también se
discutió prohibir la llamada policía predictiva generalizada, por sus riesgos de
sesgo, aunque el texto final prohíbe explícitamente solo si implica puntuación social
injusta; aún así, los sistemas policiales de alto riesgo quedan muy vigilados.
● Sistemas de alto riesgo: Son aplicaciones de IA que, sin prohibirse, pueden afectar
significativamente a la salud, seguridad o derechos si fallan o tienen sesgos.
Muchos usos en seguridad pública entran aquí (por ejemplo, un algoritmo que ayuda
a decidir si conceder la libertad condicional a un preso sería alto riesgo; uno de gestión
del tráfico también; el reconocimiento facial no en tiempo real para investigación
policial sería alto riesgo). La ley impone requisitos estrictos a estos sistemas antes
de que puedan usarse. Entre ellos: evaluaciones de conformidad antes de salir al
mercado, obligación de tener documentación técnica exhaustiva, asegurar la
calidad de los datos de entrenamiento (que sean representativos, pertinentes y sin
sesgos en la medida de lo posible), garantizar trazabilidad y registro de las

DAVID TEJEDOR RODRIGUEZ 12


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

operaciones del sistema (log de cómo llegó a cierta decisión), y mantener una
supervisión humana apropiada en su funcionamiento. Además, los proveedores de
estos sistemas tendrán que implementar gestión de riesgos continua durante todo
el ciclo de vida del producto. En términos prácticos, si mañana una policía local quiere
usar un software de IA para, digamos, analizar patrones de delitos, deberá asegurarse
de adquirir uno que cumpla con estas certificaciones o requisitos que marca el
Reglamento.
● Sistemas de riesgo limitado y mínimo: La ley define otras dos categorías. Los de
riesgo limitado (como sistemas de IA que interactúan con personas, tipo un chatbot
informativo) requieren transparencia: por ejemplo, que se informe al usuario de que
está hablando con una IA y no con una persona. Esto atañe a la atención ciudadana:
si un ayuntamiento pone un chatbot policial, deberá avisar “soy una inteligencia
artificial, en qué puedo ayudarte”. Y los de riesgo mínimo (la mayoría, como filtros de
spam, recomendaciones de series en Netflix) no llevan obligaciones especiales más
allá de las generales de respeto a la normativa.

Para garantizar el cumplimiento de esta Ley de IA en España, se ha creado la Agencia


Española de Supervisión de la Inteligencia Artificial (AESIA). Es un organismo nuevo,
con sede en A Coruña, encargado de supervisar y hacer cumplir el Reglamento de IA en
nuestro país. Desde agosto de 2025, la AESIA tendrá plena potestad sancionadora: podrá
investigar de oficio o a raíz de denuncias, e imponer multas de hasta 35 millones de euros
o el 7% de la facturación anual a quienes operen sistemas de IA prohibidos o incumplan los
requisitos legales. Esto incluye tanto a empresas proveedoras como a entidades usuarias de
la IA. En el contexto policial, si un ayuntamiento o cuerpo introdujera por su cuenta una
herramienta de IA contraviniendo las prohibiciones (por ejemplo, cámaras con reconocimiento
facial en la calle sin base legal), la AESIA podría intervenir. Por tanto, es fundamental que las
policías locales coordinen cualquier iniciativa de IA con este marco: consultando con la AESIA
o con SEDIA (Secretaría de Estado de Digitalización e IA) ante dudas, y asegurando que los
contratos con proveedores de tecnología exijan conformidad con el Reglamento (CE) de IA.

Más allá de la Ley de IA, en Europa también está vigente desde 2016 la Directiva NIS (y su
actualización NIS2 en 2023) que obliga a proteger adecuadamente las redes y sistemas de
información críticos, lo que se relaciona con ciberseguridad para administraciones locales. Y
no olvidemos la Carta de Derechos Digitales presentada en España (un documento de
referencia no vinculante) que proclama derechos como el derecho a la identidad digital veraz,
a la no discriminación algorítmica, etc., principios que inspiran las normas.

Así las cosas, el marco legal actual busca equilibrar innovación y seguridad: Por un lado,
se promueve la adopción de IA bajo estándares europeos (el Reglamento IA uniforma las
reglas del juego, similar a lo que fue el RGPD en privacidad). Por otro lado, se protege al
ciudadano frente a abusos: penalizando conductas delictivas nuevas (deepfakes),
prohibiendo usos de IA contrarios a derechos, y vigilando que la tecnología que se
implemente sea fiable, justa y transparente. Para una policía, cumplir la ley de IA no es solo
evitar multas, sino garantizar la legitimidad de nuestras actuaciones tecnológicas ante la
comunidad. La legalidad, junto con la ética, deben guiar cualquier proyecto de IA que
emprendamos.

DAVID TEJEDOR RODRIGUEZ 13


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

6. Proyección futura: amenazas tecnológicas


emergentes y desafíos normativos
Mirando hacia el futuro próximo, podemos anticipar que tanto las capacidades de la IA como
las tácticas de la delincuencia evolucionarán significativamente. Esto nos plantea nuevos
escenarios de seguridad y, a la vez, nuevas lagunas legales y retos normativos que habrá
que ir cubriendo. Algunos puntos a considerar en la prospección a unos años vista:

● IA cada vez más avanzada y ubiqua: La llamada IA generativa (capaz de crear


contenidos originales) seguirá mejorando. Veremos deepfakes casi indistinguibles
de la realidad a simple vista, voces sintéticas perfectas y quizás “hologramas” o
videos en vivo falsos de personas gracias a la realidad aumentada. Esto complicará
la labor policial de distinguir lo real de lo falso en investigaciones. Posiblemente se
requerirá por sistema una verificación digital de evidencias multimedia (firmas
digitales, etc.). A la par, IA más autónomas podrían tomar decisiones en fracciones
de segundo: imaginemos drones o robots autónomos usados por delincuentes (o
incluso por la policía) reaccionando por IA. Surgen cuestiones éticas: ¿podría un robot
policía con IA usar la fuerza? Hoy por hoy sería inaceptable sin control humano, pero
técnicamente en unos años podría plantearse. La legislación deberá seguir marcando
líneas rojas en ese sentido (similar al debate de armas autónomas militares,
trasladado a seguridad interior).
● Delincuencia aumentada por IA: La delincuencia tradicional podría experimentar
un “salto de eficiencia” con IA. Por ejemplo, bandas organizadas usando IA para
optimizar rutas de robo (tipo alunizajes prediciendo dónde habrá menos policía), o
para analizar big data de posibles víctimas y seleccionar objetivos (imaginemos
ladrones que usen IA para cribar redes sociales y detectar domicilios de alto valor
cuyos dueños están de vacaciones). Ya se habla de que el ADN del crimen organizado
está cambiando: Europol advierte que la IA se convierte en un “multiplicador” del
crimen, facilitando desde la creación de pornografía infantil falsa por encargo hasta
el blanqueo de capitales mediante algoritmos en criptomonedas. Posiblemente
aparecerán nuevos delitos: por ejemplo, la falsificación de datos mediante IA (ya
hay casos de presentar currículos laborales o títulos académicos falsos generados
con IA, lo que será fraude documental). También la extorsión sexual virtual mediante
realidades sintéticas podría requerir tipos penales específicos. En el cibercrimen,
podríamos enfrentar ataques de inteligencia artificial adversarial, donde los
delincuentes manipulan sistemas de IA policial ([Link]., engañando a un algoritmo de
reconocimiento con imágenes trucadas que el humano no detecta). Todo ello
demandará una actualización constante de las técnicas de investigación digital y
forenses de IA.
● Brechas legales y grises éticos: La ley siempre va por detrás de la realidad
tecnológica. Aun con el Reglamento IA, surgirán áreas no cubiertas. Por ejemplo, la
responsabilidad civil por daños causados por IA: si un coche autónomo (IA)
manejado por policía tiene un fallo y causa un accidente, ¿quién responde? Estas
cuestiones están en debate en la UE (se baraja un régimen de responsabilidad
objetivo en ciertos casos de IA). Otro tema: la privacidad vs. seguridad. Quizá en

DAVID TEJEDOR RODRIGUEZ 14


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

unos años, ante la proliferación de deepfakes, se proponga que todas las imágenes
digitales lleven una marca de agua de origen para autenticar. Pero eso choca con
anonimato y otras libertades. Tendremos que equilibrar. Un desafío normativo claro
serán las IA de uso policial encubierto: por ejemplo, agentes que usen avatares
sintéticos para infiltrarse online en círculos criminales. ¿Hasta dónde se permite esa
simulación sin incurrir en entrapment o violación de privacidad? Habrá que desarrollar
protocolos específicos. Y un frente importante: protección de los datos policiales.
Si se emplean IA en la nube o de terceros, garantizar que información sensible
(investigaciones, datos personales) no se vea comprometida. Es probable que se
dicten estándares europeos de “IA soberana” para administraciones, recomendando
usar infraestructuras seguras o propias.
● Nuevas formas de cooperación y regulación internacional: Las amenazas
tecnológicas no entienden de fronteras. Veremos más colaboración entre policías de
distintos países para hacer frente a delitos potenciados por IA. Ya Interpol y Europol
tienen laboratorios de innovación centrados en IA; en un futuro la interoperabilidad
de datos policiales con IA (por ejemplo, compartir algoritmos de identificación de
malware, o bases de señales de deepfakes conocidas) será crucial. Normativamente,
la UE con la Ley de IA marcará tendencia, pero ¿qué pasa si un servidor en otro
continente genera deepfakes para delinquir aquí? Seguramente se avance en
tratados internacionales sobre evidencia digital y delitos cibernéticos (posiblemente
ampliando el Convenio de Budapest) que abarquen estas nuevas figuras. También se
deberán abordar los derechos de las personas frente a las decisiones
automatizadas en el ámbito de la seguridad: si algún día se usa IA para decidir algo
que afecte a un ciudadano (por ejemplo, priorizarlo en un control), debería haber
garantías de reclamación o revisión humana – esto podría consagrarse en normativas
de procedimiento administrativo o policial.
● Concienciación social y brecha tecnológica: Por último, un desafío más sutil es
evitar que se abra una brecha de entendimiento entre la policía (y la ley) y la
ciudadanía en cuanto a tecnología. Si la población no confía en que el uso policial de
IA es seguro y ético, podría haber rechazo (como lo hubo contra el “Gran Hermano”
de las cámaras CCTV en su día). La normativa deberá incluir mecanismos de
transparencia hacia la sociedad: posiblemente obligando a reportar públicamente
qué sistemas de IA utilizan las administraciones, con qué propósito y resultados (ya
algunas ciudades en [Link]. hacen informes anuales sobre sus herramientas de
vigilancia tecnológicas para escrutinio público). Este control ciudadano, junto a
auditorías externas, será importante para legitimar la innovación. En paralelo,
internamente habrá que salvar la brecha de capacitación: los cuerpos policiales
deberán formar a sus agentes más veteranos en estas nuevas materias para que
ningún policía se quede atrás incapaz de entender la tecnología con la que trabaja o
a la que se enfrenta. La adaptación generacional es un reto organizativo a futuro.

En definitiva, el panorama que viene combina potencial inmenso (ciudades más seguras
gracias a IA omnipresente, delitos anticipados antes de que pasen, burocracia mínima) con
riesgos considerables (vigilancia excesiva, crimen virtual difícil de rastrear, dilemas legales).
Navegar ese equilibrio exigirá de los responsables normativos flexibilidad y anticipación, y

DAVID TEJEDOR RODRIGUEZ 15


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

de nosotros como policías, mentalidad abierta y ética profesional para incorporar las
herramientas útiles sin perder de vista los derechos de las personas.

Tras este análisis prospectivo, pasemos a la parte final: propuestas prácticas y


recomendaciones para la acción local. ¿Qué podemos hacer, desde nuestra posición en la
Policía, para prepararnos y aprovechar la IA responsablemente?

7. Propuestas prácticas para los agentes: buenas


prácticas, formación y estrategias locales
Cerramos con una serie de recomendaciones concretas. Son pautas y acciones que los
agentes (y la institución policial local en su conjunto) podemos adoptar desde ya para
enfrentar los retos y oportunidades que plantea la IA en seguridad pública. El objetivo es
garantizar un uso eficaz y ético de la IA, mantenernos actualizados y proteger a la
ciudadanía. Estas son las propuestas:

● Formación continua y alfabetización digital: La primera herramienta es nosotros


mismos. Igual que practicamos tiro o aprendemos nuevas leyes, debemos
entrenarnos en competencias digitales. Se propone incorporar módulos básicos de
IA, ciberseguridad y delitos tecnológicos en la formación continua de los agentes
(charlas, cursos online de INCIBE, manuales de Policía Nacional sobre ciberestafas,
etc.). No hace falta ser ingenieros, pero sí entender conceptos clave (qué es machine
learning, qué riesgos tienen los deepfakes, cómo navegar seguro por internet). Esto
aplica a todos los niveles: agentes de base, mandos y personal administrativo.
Además, identificar en la plantilla a potenciales “agentes tech” entusiastas para que
profundicen más (expertos internos) y sirvan de apoyo al resto en casos complejos.
La curiosidad y aprendizaje constante deben ser fomentados – la tecnología
evoluciona rápido y la única forma de no quedarse atrás es estar siempre
aprendiendo.
● Buenas prácticas en el uso cotidiano de tecnología: Implementar una serie de
protocolos sencillos en el día a día que reduzcan riesgos. Por ejemplo: verificación
de fuentes – si recibimos información sensible (una foto, un video de un delito)
intentar confirmar su autenticidad antes de actuar precipitadamente; duda
sistemática de lo digital – asumir que todo archivo puede ser manipulado y buscar
evidencias adicionales (testigos, contrastar horarios, etc.); protección de
contraseñas y dispositivos – no dejar sesiones abiertas, usar gestores autorizados,
mantener actualizados los sistemas de los ordenadores de la comisaría (en esto el
departamento de TI municipal juega rol importante, exigirles mantenimientos
regulares). Otra buena práctica: compartir entre compañeros casos y
aprendizajes. Si un agente descubre un nuevo modus operandi con IA (por ej., una
estafa con voz clonada que atendió), que lo exponga en las reuniones de equipo para
alertar a los demás. Crear una cultura de aprendizaje colectivo en la unidad,
especialmente respecto a ciberamenazas emergentes.
● Uso responsable y ético de herramientas de IA policial: Si nuestra Policía decide
probar o adquirir alguna herramienta de IA (sea un software de análisis, cámaras

DAVID TEJEDOR RODRIGUEZ 16


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

inteligentes, etc.), seguir una serie de pasos: (1) Consultar el marco legal – verificar
con asesoría jurídica si es legal su uso y qué límites tiene (por ejemplo, reconocimiento
facial en vivo no estaría permitido; un detector de disparos acústicos sí lo estaría); (2)
Informar a la superioridad y a la ciudadanía – la transparencia interna y externa
genera confianza. Quizá no hace falta revelar todos los detalles por seguridad, pero
sí comunicar las líneas generales (“hemos implementado un sistema inteligente de
vigilancia de tráfico que respeta RGPD y mejora la seguridad vial”); (3) Establecer
supervisión humana – definir que la herramienta es de apoyo y quién revisará sus
alertas; (4) Políticas de datos claras – cómo se almacenan los datos que genere la
IA, por cuánto tiempo, quién accede… siguiendo la normativa de protección de datos;
(5) Evaluar resultados periódicamente – no caer en la fascinación tecnológica: si a
los 6 meses el sistema no aporta mejoras o da muchos falsos positivos, recalibrar o
retirar. Recordemos que lo ético y lo eficiente van de la mano: una IA sesgada no solo
es injusta, también es ineficaz porque genera errores.
● Colaboración con unidades especializadas: Como policía local, no estamos solos
ante estos desafíos. Es crucial saber escalar asuntos que nos superen técnicamente.
Por ejemplo, ante un ciberdelito complejo (estafa online internacional) recabar la info
inicial pero luego derivar a la Brigada de Investigación Tecnológica (BIT) del CNP o al
Grupo de Delitos Telemáticos de GC, quienes tienen más medios. Del mismo modo,
apoyarse en organismos públicos: INCIBE, como ya mencionamos, tiene líneas de
ayuda 24h en ciberseguridad; la AEPD puede orientar sobre dudas de privacidad; la
nueva AESIA en cuanto funcione podrá resolver consultas sobre usos de IA
permitidos. También colaborar con el Centro Criptológico Nacional (CCN) en caso de
incidentes de ciberseguridad graves en el ayuntamiento. Internamente, proponer la
designación de un enlace de tecnología en la Policía Local que sea el punto de
contacto con esos organismos y mantenga al cuerpo al tanto de novedades (por
ejemplo, si sale una alerta de malware que afecta a ayuntamientos, que ese enlace
reciba la info y coordine la respuesta local). La cooperación incluye a otras policías
locales: compartir experiencias con, digamos, la Policía de Madrid o Barcelona que
quizás ya probaron ese sistema. A través de la FEMP o de redes informales, podemos
nutrirnos del conocimiento colectivo.
● Estrategias de participación comunitaria: La batalla contra amenazas como la
desinformación o los fraudes IA se gana también con la comunidad. Una policía
local puede impulsar campañas para que los vecinos conozcan estos riesgos. Por
ejemplo, talleres en centros cívicos sobre “Cómo detectar bulos en WhatsApp” en
colaboración con asociaciones, o charlas en institutos sobre los peligros de deepfakes
y protección de la imagen online (educación digital para jóvenes). Si la ciudadanía
está alerta, muchas tentativas de delito fracasan porque no pican. Asimismo, fomentar
que el público colabore reportando: habilitar canales fáciles para que un ciudadano
avise si recibe un posible mensaje fraudulento o ve un video sospechoso circulando
que pueda causar altercados. Cuantos más ojos vigilando, mejor. En este sentido, la
confianza entre policía y ciudadanos es crucial: hay que cultivar una imagen de
policía 3.0 cercana y preparada, para que los vecinos nos vean como referente al
consultar dudas sobre estas nuevas cuestiones de seguridad digital.
● Actualización de protocolos y normativa interna: A medida que la IA y lo digital se
incorporen a nuestro trabajo, habría que reflejarlo en los procedimientos escritos

DAVID TEJEDOR RODRIGUEZ 17


Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

del cuerpo. Por ejemplo, actualizar el protocolos de custodia de pruebas para incluir
consideraciones sobre pruebas electrónicas (cadena de custodia de un archivo digital,
verificación de integridad mediante hash, etc.). O crear un protocolo específico de
actuación ante incidentes ciber (similar a un Plan de Emergencia pero para ataques
informáticos que afecten servicios municipales). Incluir también cláusulas en los
manuales deontológicos: por ejemplo, prohibir expresamente que un agente use por
su cuenta herramientas de reconocimiento facial no autorizadas sobre ciudadanos
(imaginemos que alguien usa una app particular con fotos de la calle – podría vulnerar
derechos, hay que dejar claro que no se debe hacer salvo con sistemas oficiales
autorizados). Estas guías internas aseguran que todos los miembros del cuerpo
tengan claro el marco de actuación en lo tocante a tecnología, evitando
improvisaciones que puedan salir mal.
● Mantener el factor humano y la cercanía: Por último, una reflexión práctica-
filosófica: por mucha IA que tengamos, la esencia de nuestra labor policial sigue
siendo humana: la cercanía al ciudadano, la intuición, la empatía y el criterio
profesional. No perdamos eso de vista. La tecnología debe servir para potenciar esas
cualidades, no para sustituirlas. Un agente en la calle, hablando cara a cara con un
vecino, genera una confianza y capta unos matices que ninguna IA puede replicar. Así
que usemos las herramientas modernas, sí, pero sin deshumanizar el servicio.
Recordemos también que la presencia disuasoria y la prevención clásica (farolas
encendidas, puertas cerradas, vigilancia comunitaria) siguen siendo fundamentales y
complementarias a cualquier innovación.

Con estas propuestas, esperamos dar un rumbo práctico a lo aprendido. La IA no es algo


lejano ni exclusivamente de laboratorios: ya está aquí y puede ayudarnos mucho si la
entendemos y la manejamos con cuidado. Al mismo tiempo, requiere de nosotros un esfuerzo
de adaptación y un compromiso ético fuerte para no traspasar ciertas líneas.

Herramientas y recursos recomendados

Para finalizar, proporcionamos una hoja de recursos que resume herramientas útiles y
lecturas recomendadas, pensadas para profundizar o usar en la actividad policial diaria:

● ESET WeLiveSecurity – “Herramientas para detectar deepfakes”. Artículo (en


español) que describe varias herramientas de detección de deepfakes disponibles,
con sus características. Útil para conocer opciones como Sentinel, Sensity,
FakeCatcher, WeVerify, etc., y sus enfoques.
● Plugin “InVID / WeVerify” (extensión de navegador gratuita). Permite realizar
búsquedas inversas de imágenes, analizar metadatos y fragmentar videos fotograma
a fotograma para verificar contenido en redes sociales. Descarga: InVID Verification
Plugin (proyecto EU).
● [Link] – “Prohibiciones de la Ley de IA desde 2025”. Artículo explicativo sobre
la nueva ley europea de IA y qué prácticas se prohíben. Incluye ejemplos y cómo
denunciar usos ilegales ante la AESIA. Buena referencia para familiarizarse con el
marco legal.
● INCIBE (Instituto Nacional de Ciberseguridad): Web [Link] – Apartados de
protección para empresas y ciudadanos. Guías breves sobre ciberamenazas
DAVID TEJEDOR RODRIGUEZ 18
Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

comunes (phishing, malware) y un CAT (Centro de Atención Telefónica) 017 gratuito


para consultas de seguridad digital (disponible para profesionales también).
● Guía sobre Delitos Informáticos de Policía Nacional: Publicación oficial (PDF) que
suele actualizarse con definiciones de ciberdelitos y consejos de prevención. Ayuda a
poner nombre en el atestado a esas nuevas modalidades delictivas con base
tecnológica.
● Foro Económico Mundial – “¿Cómo detectar un deepfake? Esto dicen los
expertos”. Artículo en español con consejos prácticos de expertos para reconocer
deepfakes (enfatiza la importancia de fijarse en detalles como el parpadeo, la
sincronía audio-labial, etc.).
● Jurisprudencia y doctrina legal: Mantener a mano referencias como la Sentencia
del Tribunal Supremo 290/2012 (sobre prueba electrónica y validez) o informes de la
Fiscalía sobre pornografía infantil virtual. Son textos más jurídicos, pero útiles si
necesitamos fundamentos para actuaciones o para formarnos criterios legales.
● Contacto de la AESIA: Mientras se pone plenamente operativa, tener identificado un
canal (vía Ministerio de Presidencia o SEDIA) para consultas. En 2024 se indicó que
AESIA desarrollará una web con formulario para reportes – en cuanto esté disponible,
vale la pena que la policía lo conozca para denunciar nosotros mismos cualquier uso
de IA sospechoso que detectemos en nuestra ciudad.
● Comunidades y foros: Por ejemplo, la comunidad BlueOLive (seguridad informática)
o foros policiales profesionales donde se discutan casos de ciberdelincuencia.
Interactuar con compañeros de otras localidades que hayan vivido casos de
deepfakes, etc., enriquece nuestro conocimiento práctico.

“La Inteligencia Artificial, como hemos visto, está transformando el panorama de la


seguridad pública. Para la Policía supone desafíos, sí, pero también poderosas herramientas
a nuestro servicio. La clave es formarse, adaptarse y colaborar. Con una actitud proactiva,
podemos integrar la IA de forma segura para hacer nuestro trabajo más eficaz, sin
comprometer los derechos de las personas. Al final del día, la misión sigue siendo la misma
de siempre: proteger y servir a la ciudadanía. La IA es un nuevo aliado en esa misión,
siempre que la manejemos con inteligencia (humana) y ética.”

DAVID TEJEDOR RODRIGUEZ 19

También podría gustarte