Expertos reclaman respetar los derechos humanos en el ámbito digital

Fundación Abogacía advierte de que la falta de acceso a las herramientas digitales es «un factor de discriminación social».

Expertos reunidos en el X Congreso de Derechos Humanos de la Abogacía han reclamado este jueves respetar los derechos humanos en el ámbito digital evitando sesgos algorítmicos y han hecho un llamamiento a minimizar los riesgos de la Inteligencia Artificial (IA).

«Estar digitalmente excluido significa estar socialmente excluido, la falta de acceso a las herramientas digitales o el desconocimiento de su uso es un factor de discriminación social, una nueva brecha», ha advertido la patrona de la Fundación Abogacía Milagros Fuentes, durante la inauguración del encuentro, que se celebra pocos días después del 75 aniversario de la Declaración de Derechos Humanos.

Los colectivos más vulnerables, como los menores, los mayores, las personas con discapacidad o las víctimas de trata, son los que sufren especialmente la discriminación digital.

Así se se ha puesto de manifiesto en una mesa redonda, moderada por el patrono de la Fundación Abogacía, Alfredo Irujo, que ha contado con la presencia de la secretaria general de la Fundación ONCE, Virginia Carcedo; la coordinadora SEAM – HelpAge España, María Gangutia, y la coordinadora de Algorace, Paula Guerra.

Carcedo ha lamentado que «las normas que regulan la IA no mencionan la discapacidad» y ha destacado la «necesidad de entrenar a los algoritmos para que sean más inclusivos y se eviten los sesgos».

En la misma línea, Gangutia ha afirmado que los sesgos también afectan a las personas mayores.»No existe la neutralidad tecnológica, las tecnologías reproducen estereotipos y discriminaciones», ha denunciado, para reclamar una mejora de la representación de las personas mayores en bases de datos para evitar la invisibilización de este colectivo.

Por su parte, Guerra ha criticado que «la IA reproduce el racismo estructural» y ha señalado que, por ejemplo, los algoritmos tienen dificultades para identificar rostros de personas no blancas. También ha alertado sobre los riesgos de los algoritmos usados por la policía para comprobar si una denuncia es falsa o valorar la probabilidad de reincidencia.

«Este termina penalizando a las personas negras y premiando a las blancas, a las que asigna sistemáticamente una mayor probabilidad de reincidencia», ha indicado.

Por ello, los ponentes han coincidido en pedir una mayor transparencia de los algoritmos para «que no sean tan opacos y poder evitar los sesgos».

REGULACIÓN DE LA IA EN EUROPA

Durante el congreso, el director en funciones de la Comisión Europea en España, Lucas González Ojeda, ha explicado el compromiso de la Unión Europea con los derechos digitales dentro y fuera de sus fronteras.

«Los derechos digitales complementan a los derechos fundamentales existentes», ha asegurado González, quien ha considerado que la nueva Ley sobre Inteligencia Artificial de la UE es un «compromiso histórico».

«Los europeos somos los primeros en poner un poco de orden en este laberinto digital, en establecer un marco ético para la utilización de la IA y eso es bastante impresionante», ha afirmado en la misma línea el subdirector del Parlamento Europeo en España, Juergen Foecking.

Foecking ha confiado en que esta ley europea sea el punto de partida para una regulación a nivel mundial.»Nadie sabe exactamente cómo hacerlo, porque la IA general va a provocar muchísimos problemas, en términos sociales e incluso militares. Las amenazas y riesgos los estamos todavía subestimando», ha alertado.

ÉTICA Y CIBERSEGURIDAD

Por su parte, la vicepresidenta de la Asociación de Expertos Nacionales de la Abogacía TIC (ENATIC), Belén Arribas Sánchez, ha explicado que «no se trata de poner puertas al campo, sino raíles», ya que «si no, esto es un tren desbocado que se va por todos lados». «Hay que poner raíles teniendo en cuenta la ética, que no es universal, y la gobernanza», ha considerado.

El subdirector de Tecnologías de Ciberseguridad del Instituto Nacional de Ciberseguridad (INCIBE), Ignacio González, ha considerado que «la parte legal de la ciberseguridad es casi más importante que la parte técnica», ya que es donde «está hirviendo el asunto» y dónde está en juego el futuro como personas y los derechos.

Por ello, ha señalado que el papel de los abogados es «recabar pruebas, evidencias de que su cliente no ha cometido negligencias antes del ataque y de que ha implementado todas las medidas de ciberseguridad que son razonables».

«La seguridad absoluta no existe, pero sí existe la posibilidad de limitar el daño que te van a hacer si tienes un problema de ciberseguridad. Si haces las cosas adecuadamente en el ciberespacio, la enfermedad será leve», ha aseverado.

ADAPTAR LA ABOGACÍA A LA ERA DIGITAL

El Congreso ha concluido con un análisis del papel de la abogacía como garante de los derechos digitales, en una mesa redonda moderada por el patrono de la Fundación Abogacía Carles McGragh.

En ella han participado el alto representante del Consorcio Internacional de los Derechos y Libertades Digitales, Rodolfo Tesone; la codirectora del Máster en Derecho Digital y Tecnología CS Garrigues, Esther Montalvá, y la presidenta del Observatorio del Impacto Social y Ético de la IA (ODISEIA), Idoia Salazar García.

«Vivimos en la sociedad de la velocidad, pero también de la mentira y tenemos el reto de conservar el derecho al honor de las personas físicas y jurídicas», ha señalado Montalvá.

En opinión de Salazar, «la IA va a incidir en todas las áreas del conocimiento y para conocerla hay que averiguar en qué manera puede ser útil».

Tesone, por su parte, ha asegurado que el futuro es la «abogacía de la era digital» y hay que adaptarse, ya que » van a sobrevivir quienes tengan el poder de la adaptabilidad que sean resilientes».

En la clausura, Irujo ha considerado necesario «evaluar y adecuar la normativa existente garantizando el acceso a la justicia y la tutela judicial efectiva, reflexionar sobre ese ámbito que surge en los despachos actuales, el ‘compliance’ o procedimientos y buenas prácticas para identificar y clasificar los riesgos operativos y legales a los que se enfrentan y establecer mecanismos internos de prevención, gestión y control en los entornos digitales en los que se trabaja actualmente».