Expertos internacionales del ámbito de la regulación, seguridad e investigación sobre privacidad han destacado la doble vertiente de la inteligencia artificial agentiva. Por un lado, los agentes autónomos pueden aumentar los riesgos de la privacidad, con el fomento del exceso de intercambio de información, y actuar sin que el usuario sea plenamente consciente de ello al difuminar los límites legales, como el consentimiento marco del RGPD. Y por otro lado, puede convertirse en una herramienta que mejore la privacidad al actuar con asistentes personales que ayuden a los usuarios a navegar por políticas complejas de privacidad y a gestionar permisos.
Debate sobre seguridad y privacidad en el taller SPRINT
Estas han sido algunas de las conclusiones más destacadas de la mesa de debate “Seguridad y privacidad en la IA” celebrada en el marco del taller SPRINT sobre seguridad y privacidad en inteligencia artificial que se centra en los retos relacionados con la seguridad y privacidad de la inteligencia artificial, con especial atención en los sistemas de IA generativa e IA agentiva, tanto desde una perspectiva de sistemas como centrada en las personas. El taller ha sido organizado por el Laboratorio de Seguridad, ética y Privacidad de la IA Centrada en el Ser Humano (HASP) de INGENIO (CSIC-UPV) y el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV).
Riesgos en los datos de interacción frente a los de entrenamiento
Otro de los aspectos destacados de este debate se ha centrado en cómo los riesgos para la privacidad de la IA ya no se refieren principalmente a los datos de entrenamiento, sino a los de interacción. Aunque las investigaciones sugieren que los modelos de aprendizaje automáticos modernos y bien diseñados son relativamente robustos frente a los ataques tradicionales durante su entrenamiento, los sistemas de IA generativa introducen una nueva capa de riesgo ya que procesan continuamente y pueden aprender de los datos introducidos por los usuarios en tiempo real.
El usuario como contribuyente activo de datos sensibles
En este sentido, el panorama actual de las amenazas se transforma de forma sustancial, ya que los usuarios ya no son meros sujetos que proporcionan datos, sino que se convierten en contribuyentes activos de datos sensibles durante su uso. Y no llegan a entender del todo cómo esos datos pueden reutilizarse, conservarse o influir en sistemas futuros.
Responsabilidad regulatoria y adopción informada
En cuanto a las partes implicadas y dónde recae la responsabilidad en materia de seguridad, los expertos destacaron que el auge de los agentes de IA plantea retos inmediatos. Autoridades como la Agencia Española de Protección de Datos ya observan que las empresas están adoptando estas tecnologías sin comprender plenamente los riesgos. Las actuaciones se encaminan a garantizar una adopción informada y respaldada por nuevas directrices, como los recientes libros blancos de implementación segura.
Impulso a la ciberseguridad mediante proyectos estratégicos
Estas iniciativas se engloban dentro del Programa Global de Innovación en Seguridad de INCIBE, que busca el impulso de las capacidades en ciberseguridad de la sociedad. Los proyectos estratégicos son una forma de aportar soluciones concretas a los mayores desafíos científicos y tecnológicos, involucrando a la ciudadanía y al tejido productivo y social.












