Sumar pide regular la IA ante el Ā«daƱo potencialĀ» que su mal uso puede crear en grupos vulnerables

Sumar defiende que la Ā«necesidad de regularĀ» la Inteligencia Artificial (IA) es Ā«imperante debido al daƱo potencial que un mal uso de la misma puede ocasionar en grupos que resultan especialmente vulnerables a sus repercusiones, como lo son los menores y las mujeresĀ».

AsĆ­ lo pone de relieve el Grupo Plurinacional Sumar en el Congreso, en una pregunta parlamentaria registrada para su respuesta por escrito, tras el caso de los jĆ³venes menores de edad identificados por su presunta relaciĆ³n con la producciĆ³n de falsos desnudos de chicas de Almendralejo (Badajoz), tambiĆ©n menores, a partir de Inteligencia Artificial.

En la iniciativa, la diputada de MĆ”s Madrid Teslem Andala Ubbi, conocida como Tesh Sidi, argumenta que las imĆ”genes falsas de las menores de Almendralejo Ā«son tan realistas que algunas personas las han confundido con las niƱas reales, lo que ha causado gran consternaciĆ³n y preocupaciĆ³n en sus familiasĀ».

En este contexto, la parlamentaria de Sumar explica que Undress AI es una forma de ‘deepfake’ que utiliza Inteligencia Artificial para crear y modificar imĆ”genes, eliminando la ropa de las personas y generando apariencias de piel realistas. Ā«Esta tecnologĆ­a tiene diversas aplicaciones en entretenimiento (educaciĆ³n, arte y uso personal) pero, tambiĆ©n, plantea preocupaciones en tĆ©rminos de privacidad, consentimiento y Ć©ticaĀ», sostiene.

Asimismo, Tesh Sidi detalla que ‘Undress AI’ se basa en Redes Generativas AntagĆ³nicas (GAN), que constan de dos componentes: un generador, que crea imĆ”genes falsas de personas desnudas; y un discriminador, que distingue entre imĆ”genes reales y falsas. Con ello, el sistema se entrena en una gran base de datos de imĆ”genes de desnudos para mejorar la calidad y la precisiĆ³n de las imĆ”genes generadas a lo largo del tiempo, aƱade.

MOMENTO CLAVE

Ā«Nos encontramos en un momento clave, ya que las rĆ”pidas mejoras que se esperan en estas herramientas dificultarĆ”n, cada vez mĆ”s, distinguir entre imĆ”genes manipuladas y reales. A esto se suma la proliferaciĆ³n continua de plataformas que facilitan la transmisiĆ³n de informaciĆ³n pero que ponen grandes imposibilidades a la hora de retirar contenido como, en concreto, las imĆ”genes a las que nos referimosĀ», manifiesta.

En este sentido, la parlamentaria agrega que es Ā«importanteĀ», ademĆ”s, tener en cuenta que los niƱos, jĆ³venes y las mujeres son Ā«particularmente vulnerables a este tipo de abusoĀ» y que los expertos sugieren Ā«una soluciĆ³n de dos vĆ­as que involucra tecnologĆ­a y regulaciĆ³nĀ».

Ā«Es crucial desarrollar clasificadores para identificar el contenido genuino y falso, junto con mandatos gubernamentales para etiquetar, de manera clara, el contenido generado por la inteligencia artificialĀ», subraya.

A su juicio, es necesario que la regulaciĆ³n llegue Ā«con mĆ”s celeridad desde un nivel mĆ”s alto, como puede ser el Ć”mbito estatal y/o el europeoĀ». Ā«La apariciĆ³n de herramientas como ‘UndressAI’ resalta la urgencia de regular las tecnologĆ­as de inteligencia artificial para proteger a las personas del uso indebido y la manipulaciĆ³nĀ», insiste.

Por todo ello, Sumar pregunta al Gobierno quĆ© medidas tomarĆ” la Agencia Nacional de SupervisiĆ³n de la Inteligencia Artificial para abordar el problema de los ‘deepfakes’ y proteger la seguridad, el honor y la privacidad de la ciudadanĆ­a en el Ć”mbito de la inteligencia artificial.

En paralelo, la formaciĆ³n polĆ­tica quiere saber si se van a impulsar programas integrales en el Ć”mbito educativo para concienciar a los mĆ”s jĆ³venes sobre el uso responsable de la Inteligencia Artificial y Ā«por quĆ© no se ha promocionado o invertido mĆ”s dinero en promocionar mejor la herramienta Canal PrioritarioĀ» de la Agencia EspaƱola de ProtecciĆ³n de Datos (AEPD), para que la ciudadanĆ­a conozca este servicio que ya se oferta.

CANAL PRIORITARIO DE LA AEPD

La Agencia EspaƱola de ProtecciĆ³n de Datos dispone de un Canal Prioritario para comunicar la difusiĆ³n ilĆ­cita de contenido sensible y solicitar su retirada. Este sistema tiene como objetivo dar una respuesta rĆ”pida en situaciones excepcionalmente delicadas, como aquellas que incluyen la difusiĆ³n de contenido sexual o violento.

Durante el aƱo 2022 se duplicĆ³ la cifra de reclamaciones gestionadas a travĆ©s del Canal Prioritario –para solicitar la retirada urgente de contenido sexual o violento publicado en internet sin el permiso de las personas que aparecen– que tuvieron una tramitaciĆ³n urgente. Se realizaron 51 intervenciones en 2022, logrando retirar los contenidos sensibles con inmediatez en mĆ”s de un 90% de los casos.