Documentos de Académico
Documentos de Profesional
Documentos de Cultura
GABRIELA
1.1. Y la ciberseguridad de la IA
Así como la Inteligencia Artificial es clave para diseñar y ejecutar los servicios
de ciberseguridad, estos son cruciales a la hora de acometer la protección de
los sistemas y aplicaciones de IA, en un momento en el que:
Si hay un elemento fundamental en lo que respecta a las IA, sobre todo a los
sistemas de Machine Learning y Deep Learning son los datos. Puesto que
estos sistemas funcionan gracias a modelos que deben entrenarse con datos.
Si los datos son numerosos, variados, no presentan sesgos y no han sido
manipulados, el modelo podrá funcionar de forma óptima y presentar un alto
rendimiento. Por el contrario, si los datos empleados para entrenar a los
modelos han sido corrompidos, este presentará un comportamiento
manipulado que puede tener consecuencias graves para las compañías y los
usuarios.
Partiendo de esta base, debemos señalar que, a la hora de abordar los
riesgos de seguridad de la IA, hay que diferenciar entre:
Las amenazas dirigidas a los sistemas de IA. Es decir, los ataques en los que
los propios sistemas de IA son el target: los modelos, los datos…
El uso malicioso de herramientas de IA para poner en marcha ciberataques
contra software y sistemas empresariales o contra particulares.
El proyecto puesto en marcha por OWASP para evaluar los principales riesgos
de seguridad y privacidad a los que se enfrenta la Inteligencia Artificial señala
diversos peligros y presta especial atención a los posibles ataques contra los
modelos de IA.
Por otro lado, hay que tener en cuenta el riesgo vinculado al uso de datos
durante el desarrollo de una IA. Para entrenar y testear un modelo, los
científicos de datos necesitan trabajar con datos reales, que podrían llegar a
ser sensibles. De ahí que se deba establecer un mecanismo de control de
acceso riguroso, en el que los científicos solo puedan acceder a la información
que necesitan para realizar su trabajo.
Como señalamos antes, los ataques contra el modelo de una IA son uno de los
elementos clave a la hora de abordar la ciberseguridad de la Inteligencia
Artificial. Estos ataques de alto riesgo se pueden prevenir:
ZULEIMA
Además de todos los ataques dirigidos contra los sistemas de IA, esta
tecnología disruptiva puede ser empleada por los delincuentes para optimizar
sus capacidades de ataque. Es decir, los riesgos de seguridad de la IA no
solo incluyen las amenazas contra los sistemas. También incorporan la
utilización de las Inteligencias Artificiales como herramientas al servicio de los
ciberdelincuentes.
Pero también tenemos que tener en cuenta ataques que requieren menos
recursos y conocimientos. Por ejemplo, usar las IA generativas para crear
textos persuasivos con los que atacar a personas, empresas e instituciones a
través de técnicas de Ingeniería Social: phishing, smishing, spear-phishing…
O recurrir a las IA para decidir qué vulnerabilidades son más fácilmente
explotables para atacar a los sistemas corporativos de una organización.
¿Cuáles son los actores que pueden intentar explotar vulnerabilidades de las
IA para cumplir sus objetivos delictivos? ENISA ha categorizado a los actores
maliciosos en siete tipologías con características y objetivos diversos:
3.1. Ciberdelincuentes
3.4. Hacktivistas
Este concepto mezcla el hackeo con el activismo para referirse a los actores
hostiles cuya motivación es, esencialmente, ideológica y que buscan hackear
los sistemas de IA para evidenciar sus vulnerabilidades y riesgos.
ELIO