Las naciones pertenecientes al G7 arribaron a un “Código de Conducta” voluntario para las empresas e instituciones que desarrollen sistemas de Inteligencia Artificial (IA). La iniciativa busca achicar el margen de riesgos derivados de esta tecnología, como pueden ser la desinformación y la vulneración de la privacidad o la propiedad intelectual.
Los integrantes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) ofrecieron su respaldo al conjunto de orientaciones para el sector de la inteligencia artificial bautizado como el “Proceso de IA de Hiroshima”.
Las recomendaciones planteadas por el G7 en cuestiones de IA
Se trata de una guía que promueve una implementación “segura y fiable” de la avasallante tecnología, cuyo alcanza aún es indeterminado. El acuerdo insta al compromiso de las partes que conforman el sector.
El documento orientativo al que llegaron los países integrantes del G7 plantea once Principios Rectores. Entre los aspectos más salientes figura la supervisión de observadores independientes. Esa mirada debería estar presente en todas las fases de desarrollo y salida al mercado de las IA. Además, recomienda que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades.
En la idea de generar un proceso con mayor transparencia, la guía también pide a los desarrolladores que publiquen detalles sobre las “capacidades y limitaciones” y los “dominios de uso apropiado e inapropiado” de sus sistemas. Y aconseja trabajar en un mecanismo de autenticación. Es decir, utilizar “marcas de agua” o etiquetados digitales que permitan a los usuarios identificar los textos, imágenes o vídeos generados por IA.
La presidenta de la Comisión Europea, Ursula von der Leyen, pidió que los desarrolladores de sistemas de inteligencia artificial (IA) suscriban cuanto antes el código de conducta acordado por los países del G7.
“Me complace dar la bienvenida a los principios rectores internacionales del G7 y al código de conducta voluntario, que reflejan los valores de la UE para promover una IA confiable. Hago un llamamiento a los desarrolladores de IA para que firmen e implementen este código de conducta lo antes posible”.
El G7 incentivará el cumplimiento de estas recomendaciones. Lo hará por intermedio de la cooperación y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI, de sus siglas en inglés), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y con actores públicos y privados.
Leer más: ¿Qué es Leonardo AI y cómo usar esta alternativa a Midjourney?
De igual modo, buscará trabaja con países que no forman parte del G7.
Google se pronunció a favor de la guía sobre IA aprobada por el G7
Google emitió un comunicado en apoyo a lo resuelto por el G7 en cuanto a la búsqueda segura y confiable. La firma estadounidense aseveró que confía en poder trabajar junto con gobiernos, industrias y sociedad civil para para conseguir el mencionado objetivo.
El presidente de Asuntos Globales de Google y Alphabet, Kent Walker, valoró las recomendaciones planteadas por el G7.
“Supone un paso importante hacia el desarrollo y el despliegue responsable de una IA que beneficie a todos. La IA es una tecnología global que requiere de un enfoque global en materia de responsabilidad”.
Leer más: ¿Cómo generar prompts para Midjourney a través de ChatGPT?
Cabe recordar que Estados Unidos ha emitido una orden ejecutiva, firmada por el presidente Joe Biden, para el uso seguro y ético de la IA. El señalamiento hace foco en el empleo seguro de la tecnología, aplicado a la seguridad nacional, privacidad y derechos ciudadanos, entre otras áreas.
Biden enfatizó sobre la necesidad de controlar la IA.
“Es la tecnología más trascendental de la historia reciente, con aplicaciones a todos los campos de la ciencia, la economía y la sociedad pero que también presenta muchos riesgos por lo que tiene que ser controlada. Necesitamos controlar esta tecnología y no hay forma de evitarlo”.
En síntesis, la orden ejecutiva obliga a las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas a notificar a la administración cuando vayan a poner a prueba ese modelo.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.