El Parlamento Europeo aprobó un proyecto para regular el uso de la inteligencia artificial (IA) y, gracias a este paso, abrir un camino de negociaciones con los 27 países del bloque. La idea es poder arribar a una normativa que cuente con un consenso lo más sólido posible para finales de 2023.
La votación de la denominada Ley de Inteligencia Artificial contó con 499 votos a favor, 28 en contra y 93 abstenciones. Según la comunicación oficial del cuerpo legislativo europeo, el resultado final del texto dependerá del diálogo entre los países. En este intrincado debate hay que incluir también las negociaciones con las empresas tecnológicas que desarrollan IA. De prosperar, la regulación no entraría en vigencia hasta 2026.
Riesgo inaceptable en la normativa sobre IA aprobada por el Parlamento Europeo
La premisa fundamental sobre la que se ha trabajado en la normativa tiene un indicar claro: a mayores riesgos para los derechos o salud de las personas, mayores obligaciones para los sistemas tecnológicos. Es decir, más riesgos es igual a más regulación. Las escalas planteadas van de más a menos. El planteamiento sobre los riesgos de la inteligencia artificial ha sido tocado, hasta, por el presidente de Estados Unidos.
En apartado sobre riesgo inaceptable se menciona aquello que directamente es considerado una amenaza y será prohibido. Este eslabón incluye la manipulación cognitiva del comportamiento de personas o que sea capaz de leer la mente humana, la puntuación social (al estilo de la serie Black Mirror, con un sistema de puntos por condición económica o comportamientos) y los sistemas de identificación biométrica en tiempo real (reconocimiento facial, por ejemplo).
Para este nivel de riesgo existen algunas excepciones. Los sistemas de identificación biométrica a distancia estarían encuadrados en esas salvedades, debido a que la identificación se materializa tras un retraso significativo. Este tipo de procedimientos podrían utilizarse para la resolución de delitos graves y únicamente con previa aprobación judicial.
Alto riesgo en la normativa sobre IA aprobada por el Parlamento Europeo
Aquí se contempla todo lo que afecte a la seguridad o a los derechos fundamentales de las personas y, a su vez, se discrimina en dos categorías. Por un lado, la IA utilizada en productos incluidos en la legislación de la UE sobre seguridad.
Estos casos pueden ser juguetes, productos de aviación, automóviles, dispositivos médicos y ascensores. Por el otro, sistemas de IA de ocho ámbitos específicos que tendrán que inscribirse en una base de datos. Ellos son:
- Identificación biométrica y categorización de personas físicas.
- Gestión y explotación de infraestructuras críticas.
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo.
- Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
- Aplicación de la ley.
- Gestión de la migración, el asilo y el control de fronteras.
- Asistencia en la interpretación jurídica y aplicación de la ley.
Los productos considerados de alto riesgo serán evaluados previo a su comercialización y contarán con seguimiento riguroso durante su ciclo de vida.
IA generativa
Este punto ya cuenta con antecedentes en cuanto a lo que la UE pretende de este tipo de IA. El requisito fundamental es el de la transparencia, como han solicitado a los creadores de Bard y ChatGPT. Es decir, explicitar que se trata de un contenido generado con IA, para evitar casos como el premio rechazado por un fotógrafo por usar IA.
Además, evitar el desarrollo de material ilegal y proteger los derechos de autor, un ejemplo de esto último ha sido la eliminación de canciones creadas por IA de parte de Spotify.
Riesgo limitado en la normativa sobre IA aprobada por el Parlamento Europeo
En esta categoría ingresan los considerados sistemas de IA con riesgo limitado, que deberán cumplimentar requisitos mínimos de transparencia. Se trata de procesos que permitan a los usuarios tomar decisiones con conocimiento de causa.
Esto es básicamente que la persona cuente con la chance de interactuar con la aplicación o producto y contar la información necesaria para decidir si desea continuar utilizando esa herramienta. El usuario debe tener plena consciencia que del otro lado hay IA. Esto incluye programas que generan o manipulan contenidos de imagen, audio o vídeo.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.