Ver más

Parlamento Europeo aprueba primera normativa sobre inteligencia artificial

3 mins
Editado por José Peña
Únete a Nuestra Comunidad de Trading en Telegram

EN RESUMEN

  • La votación de la denominada Ley de Inteligencia Artificial contó con 499 votos a favor, 28 en contra y 93 abstenciones.
  • Ahora se abre un proceso de negociaciones con los 27 países del bloque y empresas del sector.
  • La idea es poder arribar a una normativa final que cuente con un consenso lo más sólido posible para finales de 2023.
  • promo

El Parlamento Europeo aprobó un proyecto para regular el uso de la inteligencia artificial (IA) y, gracias a este paso, abrir un camino de negociaciones con los 27 países del bloque. La idea es poder arribar a una normativa que cuente con un consenso lo más sólido posible para finales de 2023.

La votación de la denominada Ley de Inteligencia Artificial contó con 499 votos a favor, 28 en contra y 93 abstenciones. Según la comunicación oficial del cuerpo legislativo europeo, el resultado final del texto dependerá del diálogo entre los países. En este intrincado debate hay que incluir también las negociaciones con las empresas tecnológicas que desarrollan IA. De prosperar, la regulación no entraría en vigencia hasta 2026.

Riesgo inaceptable en la normativa sobre IA aprobada por el Parlamento Europeo

La premisa fundamental sobre la que se ha trabajado en la normativa tiene un indicar claro: a mayores riesgos para los derechos o salud de las personas, mayores obligaciones para los sistemas tecnológicos. Es decir, más riesgos es igual a más regulación. Las escalas planteadas van de más a menos. El planteamiento sobre los riesgos de la inteligencia artificial ha sido tocado, hasta, por el presidente de Estados Unidos.

En apartado sobre riesgo inaceptable se menciona aquello que directamente es considerado una amenaza y será prohibido. Este eslabón incluye la manipulación cognitiva del comportamiento de personas o que sea capaz de leer la mente humana, la puntuación social (al estilo de la serie Black Mirror, con un sistema de puntos por condición económica o comportamientos) y los sistemas de identificación biométrica en tiempo real (reconocimiento facial, por ejemplo).

Para este nivel de riesgo existen algunas excepciones. Los sistemas de identificación biométrica a distancia estarían encuadrados en esas salvedades, debido a que la identificación se materializa tras un retraso significativo. Este tipo de procedimientos podrían utilizarse para la resolución de delitos graves y únicamente con previa aprobación judicial.

mercado criptomonedas 2021 2030 inteligencia artificial
Fuente.

Alto riesgo en la normativa sobre IA aprobada por el Parlamento Europeo

Aquí se contempla todo lo que afecte a la seguridad o a los derechos fundamentales de las personas y, a su vez, se discrimina en dos categorías. Por un lado, la IA utilizada en productos incluidos en la legislación de la UE sobre seguridad.

Estos casos pueden ser juguetes, productos de aviación, automóviles, dispositivos médicos y ascensores. Por el otro, sistemas de IA de ocho ámbitos específicos que tendrán que inscribirse en una base de datos. Ellos son:

  • Identificación biométrica y categorización de personas físicas.
  • Gestión y explotación de infraestructuras críticas.
  • Educación y formación profesional
  • Empleo, gestión de trabajadores y acceso al autoempleo.
  • Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
  • Aplicación de la ley.
  • Gestión de la migración, el asilo y el control de fronteras.
  • Asistencia en la interpretación jurídica y aplicación de la ley.

Los productos considerados de alto riesgo serán evaluados previo a su comercialización y contarán con seguimiento riguroso durante su ciclo de vida.

IA generativa

Este punto ya cuenta con antecedentes en cuanto a lo que la UE pretende de este tipo de IA. El requisito fundamental es el de la transparencia, como han solicitado a los creadores de Bard y ChatGPT. Es decir, explicitar que se trata de un contenido generado con IA, para evitar casos como el premio rechazado por un fotógrafo por usar IA.

Además, evitar el desarrollo de material ilegal y proteger los derechos de autor, un ejemplo de esto último ha sido la eliminación de canciones creadas por IA de parte de Spotify.

Riesgo limitado en la normativa sobre IA aprobada por el Parlamento Europeo

En esta categoría ingresan los considerados sistemas de IA con riesgo limitado, que deberán cumplimentar requisitos mínimos de transparencia. Se trata de procesos que permitan a los usuarios tomar decisiones con conocimiento de causa.

Esto es básicamente que la persona cuente con la chance de interactuar con la aplicación o producto y contar la información necesaria para decidir si desea continuar utilizando esa herramienta. El usuario debe tener plena consciencia que del otro lado hay IA. Esto incluye programas que generan o manipulan contenidos de imagen, audio o vídeo.

Trusted

Descargo de responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

d6d95b70-6a82-42de-9a2f-501d9cea2ff9.jpg
Víctor Zapata
Víctor es Periodista con más de 15 años de experiencia trabajando los medios de comunicación más importantes de Argentina y Latinoamérica. Se encuentra estudiando para Blockchain Developer, y encuentra fascinante sumergirse en el Periodismo acerca del ecosistema cripto.
READ FULL BIO
Patrocinado
Patrocinado