València, 21 de noviembre de 2024. Un equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) está trabajando en el desarrollo de asistentes para proteger la privacidad de las personas usuarias de aplicaciones de inteligencia artificial (IA) generativa. Lo hace en el marco del proyecto PRI4GENAI, liderado por VRAIN. Este proyecto propondrá también intervenciones educativas enfocadas fundamentalmente en niños, niñas y adolescentes con el objetivo de concienciarles sobre los riesgos de privacidad en este tipo de aplicaciones de inteligencia artificial.
El proyecto Privacy Risks in GenAI for Children, Teens and Adults (PRI4GENAI) está colaborando con la Cátedra de Infancia y Adolescencia de la UPV. Antes de realizar esta propuesta, está llevando a cabo un exhaustivo estudio sobre cómo las personas usuarias perciben los riesgos de privacidad en IA generativa y qué normas de privacidad consideran que se deben seguir al utilizar esta.
¿Cómo son quienes crean deepfakes?
En este sentido, se están marcando diferentes hitos dentro del proyecto para recoger datos sobre, por ejemplo, qué perfiles de personas crean deepfakes, qué motivación tienen para crearlas, y con qué objetivo se crean, entre otras investigaciones.
A partir de toda esta información, el equipo del proyecto llevará a cabo una serie de acciones educativas con colegios, y trabajará en el desarrollo de los nuevos asistentes de privacidad.
La IA generativa “se ha vuelto muy popular en los últimos años. Este uso genera preocupación por los posibles riesgos para la privacidad, incluido el intercambio de datos personales o confidenciales y uso indebido de la información personal generada, entre otros”, explica el investigador de VRAIN y catedrático de la UPV, José Such, quien, junto a Elena del Val, también investigadora del VRAIN y profesora titular de la UPV, son los investigadores principales del proyecto.
Hasta ahora, añade Elena del Val “la investigación sobre la privacidad en IA generativa se ha centrado en la perspectiva del modelo, por ejemplo riesgos de memorización y extracción de modelos de IA generativa. Sin embargo, no existe una investigación exhaustiva sobre la privacidad en IA generativa desde el punto de vista de los usuarios finales de las aplicaciones que utilizan este tipo de IA”.
Con la evidencia científica que se genere, el proyecto planteará intervenciones sociotécnicas que asistan a los usuarios a la hora de preservar y gestionar su privacidad cuando usan IA generativa.
El proyecto PRI4GENAI, del Ministerio de Ciencia, Innovación y Universidades, comenzó el pasado mes de septiembre y finalizará en septiembre de 2027.