Ver más

Autoridades Catalanas piden no incorporar ChatGPT en la prestación de servicios públicos

3 mins
Editado por Eduardo Venegas
Únete a Nuestra Comunidad de Trading en Telegram

EN RESUMEN

  • La Autoridad Catalana de Protección de Datos (APDCAT) ha emitido una recomendación en la que aconseja a la administración pública.
  • La APDCAT ha alertado de que ante el uso masivo e intensivo de datos es necesario encontrar las herramientas adecuadas para proteger los derechos y libertades.
  • La entidad recomienda esperar a que el CEPD se pronuncie sobre si la herramienta cumple con el Reglamento General de Protección de Datos.
  • promo

La Autoridad Catalana de Protección de Datos (APDCAT) ha emitido una recomendación en la que aconseja a la administración pública. Incluyendo a la Generalitat, ayuntamientos, escuelas, universidades y colegios profesionales, entre otras entidades, que no utilicen el sistema de chat basado en inteligencia artificial, ChatGPT, para el tratamiento de datos personales.

La APDCAT ha expresado su preocupación por el impacto que el uso de la Inteligencia Artificial. y más singularmente el servicio ChatGPT, puede tener en los derechos y libertades de las personas físicas afectadas.

APDCAT: ChatGPT sigue despertando más dudas y controversias

En su recomendación 1/2023, la APDCAT recomienda esperar a que el Comité Europeo de Protección de Datos se pronuncie sobre si la herramienta cumple con el Reglamento General de Protección de Datos de las personas físicas en lo que respecta a su tratamiento y a la libre circulación de estos datos en la Unión Europea y el Espacio Económico Europeo.

“La Autoridad Catalana de Protección de Datos ha publicado la Recomendación 1/2023, para advertir a la Generalitat, los municipios, las escuelas, las universidades y el resto de entidades de su ámbito de actuación de las dudas existentes en Europa que esta herramienta de inteligencia artificial cumpla con el RGPD.”

La APDCAT ha realizado diversos comentarios sobre el uso actual de ChatGPT. Señala que ChatGPT genera importantes dudas sobre la información de carácter personal que trata. Tanto la de las personas que lo utilizan directamente como la de terceros que se puede estar volcando.

“La APDCAT advierte que a día de hoy el uso de ChatGPT genera importantes dudas sobre la información de carácter personal que trata, tanto la de las personas que lo utilizan directamente como la de terceros que se puede estar volcando. Esto puede incluir el tratamiento de información sensible o relativa a colectivos vulnerables como menores de edad, sin control y sin una base jurídica adecuada.”

En este sentido, ha advertido que actualmente la tecnología permite dibujar perfiles y patrones a partir de datos personales. Estos pueden servir para influir directamente en las personas. La APDCAT ha alertado de que ante el uso masivo e intensivo de datos es necesario encontrar las herramientas adecuadas para proteger los derechos y libertades.

“El documento se dirige a la Generalitat, los ayuntamientos, las escuelas y universidades públicas y privadas de Cataluña y los colegios profesionales, entre otros, y recomienda que no se incorpore la herramienta ChatGPT en el ejercicio de funciones públicas y la prestación de servicios públicos, cuando se traten datos personales, hasta que el Comité Europeo de Protección de Datos se pronuncie al respecto.”

APDCAT recomienda abstención hasta decisión del CEPD

La APDCAT ha recordado a las entidades que el Comité Europeo de Protección de Datos (CEPD) ha anunciado ya la creación de un grupo de trabajo. El mismo aún está pendiente de deliberación sobre la IA, debido a su misión de cooperar e intercambiar información entre las distintas autoridades de protección de datos en el ámbito de la Inteligencia Artificial.

Este anuncio ha sido motivado por el bloqueo de la herramienta ChatGPT en Italia, tras considerar que esta no respeta la protección de datos.

Es importante destacar que en la recomendación se ha reconocido a la IA como “una herramienta de apoyo a la toma de decisiones en cualquier ámbito”. Sin embargo, también ha reclamado que su desarrollo “respete el marco normativo en materia de protección de datos.” Y que no suponga un agravio para a los derechos y libertades de la ciudadanía.

En este sentido, ha instado a que se utilicen las herramientas adecuadas para proteger los derechos y libertades de las personas.

La autoridad ha expresado su preocupación por el impacto que la Inteligencia Artificial puede tener en los derechos y libertades de las personas físicas afectadas. Por ello ha instado a que se utilicen las herramientas adecuadas para proteger los derechos y libertades de las personas.

Además, ha recordado la importancia de respetar el marco normativo en materia de protección de datos. Recomendando que se utilicen las herramientas adecuadas para proteger los derechos y libertades de las personas.

Trusted

Descargo de responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

andres-torres.png
Andrés Torres
Economista y Científico de Datos. Antes de dedicarse a la redacción técnica y al periodismo; Andrés obtuvo experiencia profesional en los sectores de Finanzas, Educación y Tecnología. Como periodista "naturalizado", quiere contribuir a la educación financiera y tecnológica en América Latina. Cuando no está escribiendo sobre criptomonedas o macroeconomía; Andrés se dedica a sus estudios de maestría o a la enseñanza de programación y ciencia de datos.
READ FULL BIO
Patrocinado
Patrocinado