La Organización Mundial de la Salud (OMS) sugirió en un análisis reciente que las herramientas de modelo de lenguaje de la Inteligencia Artificial (IA) deberían ser desarrolladas y revisadas “con cuidado”, así como con ética, seguridad y eficacia.
Para la OMS, ChatGPT, Bard y Bert y muchas IA que adoptan el comportamiento humano, deben examinarse cuidadosamente y sus riesgos. Sugirió que el diseño de estas sea para facilitar el acceso a la salud, herramienta de apoyo a toma de decisiones o mejorar la capacidad de diagnóstico.
“La Organización Mundial de la Salud (OMS) pide que se tenga cuidado al usar herramientas de modelo de lenguaje grande (LLM) generadas por inteligencia artificial (IA) para proteger y promover el bienestar humano, la seguridad humana y la autonomía, y preservar la salud pública”.
La OMS aclara que está entusiasmada con el surgimiento de ChatGPT y Bard y su utilidad por parte de industrias como la salud. No obstante, admite que comienzan las preocupaciones por el crecimiento exponencial de la IA, al ver que “no se está ejerciendo de manera coherente”.
“No se está ejerciendo de manera coherente la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa”.
Semanas atrás, la Organización de las Naciones Unidas (ONU) señaló en un análisis que el crecimiento de la IA requiere analizar sus repercusiones éticas, no tecnológicas y alerta que solo está aumentando las desigualdades existentes.
BeInCrypto reportó cuando la directora general adjunta de la UNESCO para las Ciencias Sociales y Humanas, Gabriela Ramos, sostuvo que es necesario regular la IA. Recomendó crear un modelo de gobernanza del mundo digital. Incluso, admitió que la narrativa oficial solo se está centrando en un debate tecnológico.
Organizaciones insisten en regular las IA como ChatGPT y Bard
En esta ocasión, la OMS calificó que la IA tiene una “adopción precipitada” con sistemas no probados. Eso podría terminar por generar errores por parte de los trabjadores de la salud, causar daño a los pacientes. Así como erosionar la confianza en la IA y “socavar los beneficios” en un futuro.
“los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión. Podrían generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves”.
La OMS admitió que la IA puede ser utilizada para campañas desinformativas globales, pero de manera convincente en forma de texto, audio o video. Dichas presentaciones harían difícil diferenciar su veracidad, por lo que es indispensable políticas públicas que la regulen.
“La OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas”.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.