Aznar reclama regulación para la IA y la biotecnología para evitar un «riesgo existencial» para el ser humano

El expresidente del Gobierno José María Aznar ha reclamado regulación internacional para la Inteligencia Artificial (IA) y la biotecnología con el objetivo de evitar un «riesgo existencial» para el ser humano y que las personas no sean sustituidas por las máquinas.

Así se ha pronunciado este martes el presidente de FAES, durante su ponencia en el ciclo de Conferencias Circulares del Cámara Business Club, el foro de encuentro empresarial que impulsa la Cámara de Alicante y que se ha celebrado en Sant Joan d’Alacant (Alicante).

Aznar ha apuntado que la IA y la biotecnología afectan a «dos elementos básicos que definen a los seres humanos, como el hecho biológico y la inteligencia». «Hemos creado máquinas donde volcamos nuestra inteligencia y esas máquinas son más inteligentes y capaces», ha señalado, por lo que considera que «se debe regular, porque sino hay un riesgo existencial para el ser humano».

En este sentido, sostiene que el «mundo del futuro», que a su juicio será en uno o dos años, versará sobre la relación entre seres humanos y máquinas. «Lo que no está decidido es quién va a prevalecer en esa revolución. Eso va a depender de si el ser humano es capaz de controlar este proceso, que actualmente está fuera de control, porque no existen reglas de carácter moral ni ético que garanticen lo que pasa con la IA«, ha advertido.

Asimismo, ha indicado que hay una competición «cada vez mayor» de estados y empresas para hacerse con un mayor control tecnológico de la IA. «Quien la controle, tendrá una posibilidad muy grande de dominar el mundo, pero no hay regulación», ha insistido.

«O existe un proceso de contención, no de parar el desarrollo, pero que se incluya una regulación de desarrollo de la IA, o los seres humanos vamos a perder el control», ha alertado Aznar.

En este contexto, ha mencionado el desarrollo de armas nucleares, que fue frenado con la existencia de tratados de no proliferación nuclear. «La IA en su desarrollo tendría que tener algo parecido a los tratados nucleares, que pongan límites al uso de la IA, por ejemplo, dedicada al control de personas humanas, a la eliminación total de la capacidad de decisión del ser humano, a crear máquinas sustitutivas o que sean casi seres sintientes. Se debe regular, porque sino hay un riesgo existencial para el ser humano», ha recalcado.

En la misma línea, ha añadido la biotecnología, con la que las personas son capaces de «diseñar seres humanos a la carta». «La mezcla de ambas hace que el mundo de hoy sea diferente que en otras revoluciones, que no afectaban existencialmente a dos hechos fundamentales. Me preocupa, porque que se pierda control de eso significa que la propia existencia del ser humano puede estar en riesgo«, ha subrayado.